[작성자:] haeyeop

  • 연구: 인공지능이 직업에 미치는 잠재적 영향

    Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2024). GPTs are GPTs: Labor market impact potential of LLMs. Science384(6702), 1306-1308.

    라벨링 하는 과정에서 주관이 개입될 여지가 있기에 결과를 얼마나 신뢰할 수 있을지는 모르겠지만 혹시 연구방법 측면에서 참고가 될까 싶어서.

    우리는 대형 언어 모델(LLM)과 관련 기술들이 작업에 미치는 잠재적 영향을 평가하기 위한 프레임워크를 제안합니다. 이 프레임워크는 작업자가 직무에서 수행하는 작업과의 관련성을 고려하여 설계되었습니다. 이 프레임워크를 인간과 LLM을 사용하여 적용한 결과, 간단한 인터페이스와 일반 교육을 갖춘 LLM이 직무의 절반 이상에 영향을 미칠 수 있는 직업은 약 1.8%로 추정됩니다. 그러나 LLM 기능을 보완하는 현재 및 미래의 소프트웨어 개발을 고려하면, 이 비율은 46%를 약간 넘는 수준으로 증가합니다. 생성적 사전 학습 변환기(GPT)와 같은 LLM의 집합적 특성은 이들이 다른 “GPT” (범용 기술)의 핵심 특성을 가지고 있음을 강하게 시사합니다. 우리의 연구는 LLM과 보완 기술이 노동 시장에 미칠 수 있는 잠재적 영향을 다루기 위한 강력한 사회적 평가와 정책 조치의 필요성을 강조합니다.

  • 인공지능 법안에 실리콘벨리 반발

    ‘Little Tech’ brings a big flex to Sacramento
    Politico

    잘못된 규제 정책에 대한 사례를 자꾸 스크랩하게 되는데 아마도 최근에 이런 일이 많이 발생하기 때문은 아닌지. 인공지능에 대한 과도한 우려때문에 그런건 아닌가 싶음. 벤처쪽 입장은 엑셀로 인해 발생한 사기사건에 대한 책임을 마이크로소프트가 져야한다는 것과 같다는 식으로 비유하기도 함. AB5에 대한 언급도 나오는 중.

    에어비앤비, 드롭박스, 도어대시를 탄생시킨 벤처 캐피탈 회사인 Y Combinator가 오늘 주 상원의원 스콧 위너의 법안에 반대하는 첫 포문을 열었습니다. 이 법안은 대형 AI 모델이 안전성 테스트를 거치도록 요구하는 내용을 담고 있습니다.

    … 위너의 상원 법안 1047은 2월에 처음 도입된 이후 규제를 경계하는 테크 기업들의 표적이 되어왔지만, 큰 저항 없이 원래의 하원을 통과했습니다. 이제 이 법안은 주 의회에서 강한 반대에 직면하고 있으며, 반대자들은 이 법안이 자국 산업을 저해할 것이라고 주장하며 압력을 높이고 있습니다.

    이 법안은 훈련에 1억 달러 이상의 비용이 드는 가장 큰 AI ‘프런티어 모델’의 개발자가 시스템의 위험 평가를 실시하도록 요구하여, 재앙적 피해를 예방하는 것을 목표로 하고 있습니다. 위너는 오랫동안 이 요구 사항을 합리적이라고 주장해 왔습니다. 이번 주 초 그는 이 법안이 “가벼운 접근”이라고 말했습니다. 많은 기업들은 동의하지 않습니다.

  • AI에 관한 기대

    220. Are AI Expectations Too High or Misplaced?
    Hardcore Software by Steven Sinofsky

    스티븐 시놉스키의 글. LLM(대형 언어 모델)을 일반 웹 검색에 사용하는 것이 잘못된 방향으로 나아가고 있다고 경고. 창의적인 기술의 강점을 충분히 활용하지 못하게 되었다고 비판. LLM도 제한된 영역에 머물고 일반화되지 않을 가능성이 있다고 언급함.

    이러한 제품화 순간 중 하나가 발생하면 처음에는 AI의 진보로 찬양받습니다. 그러고 나면 거의 눈 깜짝할 사이에 그 혁신이 더 이상 AI로 여겨지지 않습니다. 세상은 매우 빠르게 새로운 정상으로 재설정되고, 새로운 것은 단지 멋진 것으로 간주되지만 AI로 언급되는 경우는 드뭅니다. 이것이 바로 “작동하면 더 이상 AI가 아니다”라는 오래된 속담입니다.

    우리는 지도 방향/경로, 필기, 철자 및 문법, 이미지 인식, Airbnb에서 Bumble까지 일어나는 매칭, 심지어 더 최근의 사진 향상까지 수십 년의 연구를 AI로 여기지 않고 단지 “작동하는 새로운 기능”으로 생각합니다.

  • BeReal 5억 유로에 인수

    BeReal is being acquired by mobile apps and games company Voodoo for €500M
    TechCrunch

    소셜 서비스란 쉽지 않다. 참신한 아이디어 이후에도 계속 이용자의 관심을 유지할 수 있는지, 기능이 다른 소셜 업체가 카피할 수 있는 단순 기능인지(마치 스토리처럼)가 중요하다. 5억 유로에 인수라고 하지만 금액의 대부분이 성과에 따라 지급된다는 이야기.

    프랑스의 모바일 앱 및 게임 퍼블리셔인 Voodoo가 5억 유로에 BeReal을 인수했습니다. 이번 인수의 일환으로 BeReal의 공동 창립자이자 CEO인 Alexis Barreyat는 과도기를 거쳐 회사를 떠날 예정입니다. 부두의 소셜 미디어 앱 중 하나인 Wizz의 CEO인 아이메릭 로페가 BeReal의 CEO로 취임할 예정입니다.

    4,000만 명 이상의 활성 사용자를 보유한 BeReal은 팬데믹 기간 동안 인기를 얻었습니다. 초기 성공에도 불구하고 이 회사는 사용자 기반을 늘리는 데 어려움을 겪어 왔으며, 자금이 부족해 구매자를 찾고 있었습니다.

  • 메타연구: 소셜 미디어와 정신건강

    Ferguson, C. J. (2024). Do social media experiments prove a link with mental health: A methodological and meta-analytic review. Psychology of Popular Media. Advance online publication. https://doi.org/10.1037/ppm0000541

    초록만 확인해 본 연구. 참고용

    소셜 미디어가 사용자의 정신적 웰빙에 영향을 미치는지 여부는 여전히 논란의 여지가 있습니다. 상관관계 연구와 종단 연구의 증거는 일관성이 없으며, 효과 크기는 최대한 약합니다. 그러나 일부 논평자들은 실험적 연구에 더 확신을 갖고 있습니다. 이러한 실험적 연구에서는 실험 그룹이 일정 기간 동안 소셜 미디어 사용을 자제하도록 요청받고, 이를 정상적으로 사용하는 통제 그룹과 비교합니다. 이 메타 분석 리뷰는 이러한 연구들이 제공한 증거를 검토합니다. 결과와 관계없이 모든 연구는 수요 특성에 관련된 상당히 명백한 약점을 가지고 있습니다. 따라서 이러한 연구 설계가 인과적 질문에 답할 수 있는지 여부는 불분명합니다. 그럼에도 불구하고, 인과적 효과에 대한 메타 분석 증거는 통계적으로 0과 다르지 않았습니다. 그러나 연구 간 이질성이 두드러졌습니다. 인용 편향이 있는 연구는 더 높은 효과 크기를 보였으며, 이는 일부 연구에서 연구 기대 효과가 나타났음을 시사합니다. 더 나은 설계와 개방 과학 원칙을 더 잘 준수하고, 약한 효과 크기의 중요성을 과장하지 않도록 주의하는 것이 이 분야의 엄격성을 향상시키는 데 도움이 될 수 있습니다.

  • 변호사 시험에서 과장된 챗지피티 점수

    Why ChatGPT-4’s Score on the Bar Exam May Not Be So Impressive
    NYSBA

    OpenAI가 ChatGPT-4가 바 시험에서 상위 90%에 들었고, 단 6분 만에 시험을 완료했다고 발표했었지만 이러한 결과가 과장되었을 수 있다는 이야기.

    그는 또한 2월 시험 응시자들과의 비교가 GPT-4에게 불공평한 이점을 제공했다고 말했습니다. 2월 시험에 응시하는 예비 변호사들은 주로 7월에 실패한 사람들로, 재시험 응시자들은 처음 시험을 보는 사람들보다 점수가 낮기 때문입니다. … Martinez는 단기적으로 AI가 연구를 간소화하고 사례를 인용하는 데 도움이 될 수 있지만, 변호사들이 해당 사례가 실제로 존재하는지 확인해야 한다고 말했습니다. 하지만 문서를 작성하거나 고객에게 조언을 제공하는 데 있어서의 효율성은 아직 명확하지 않다고 말했습니다.

  • 스트리밍 번들링

    In Streaming Milestone, Disney And Warner Bros. Discovery Team On Bundle Featuring Disney+, Hulu And Max
    DEADLINE

    이탈률을 낮추기 위해 스트리밍 서비스 간 번들링이 이루어진다는 기사. 수익률 악화로 프로그램 제작이 감소하는 상황에서 어쩔 수 없는 선택이지만 과거와 같은 수익을 확보할 수 있을지는 불분명하다.

    산업 용어로서 특정 기간 동안 취소된 구독 수를 의미하는 ‘Churn’은 미디어 회사들에게 오랫동안 골칫거리였습니다. 수십 년 동안 유료 TV는 장기 계약과 물리적 장비를 기반으로 한 훨씬 더 안정적인 패턴에 익숙해졌습니다. 직접 소비자에게 인터넷 비즈니스를 제공하는 영역에서는 앱을 한 번 탭 하는 것만으로도 수익이 사라질 수 있으며, 이는 번들링에 더 많은 관심을 기울이게 된 많은 이유 중 하나입니다. 특히 코드 커팅이 유료 TV 네트워크 보유에 큰 타격을 주고 있습니다. …… 여러 회사 내에서 시너지 번들링은 몇 년 동안 일반적인 일이었으며, 디즈니는 Disney+, Hulu, ESPN+의 성공적인 삼위일체로 선두에 서 있었습니다. 많은 플레이어들이 다음 단계로 나아가 서비스를 더 완전히 통합하고 있습니다. 맥스는 작년에 HBO 맥스에서 리브랜딩하고 Discovery+ 프로그래밍을 추가했습니다. 디즈니는 올해 초 Disney+에 Hulu 타일을 추가하고 올해 말 ESPN 타일을 추가할 계획을 가지고 있어 플랭커 서비스들을 점차적으로 주력 Disney+와 더 가깝게 조정하고 있습니다.

  • 빅테크의 인공지능 콘텐츠 라벨링

    How Big Tech labels AI
    Axios

    YouTube는 현재 “현실적으로 보이는 콘텐츠가 의미 있게 변경되거나 인위적으로 생성된 경우”에 공개를 요구합니다.

    • “뷰티 필터”는 괜찮지만, 완전히 새로운 얼굴을 생성하는 것은 허용되지 않습니다.
    • 생성형 AI 사용자가 자신의 작업에 라벨을 붙이지 않으면, YouTube는 대신 라벨을 붙이고 해당 콘텐츠를 제거하거나 사용자를 YouTube 파트너 프로그램에서 정지시킬 수 있습니다.

    TikTok은 “현실적인 이미지, 오디오, 비디오가 포함된” 콘텐츠에 라벨링을 요구합니다.

    • 이는 “경미한 수정 또는 향상”을 넘어서는 편집을 의미합니다.
    • 이는 실제로 하지 않은 일을 하는 모습을 보여주거나, 실제로 하지 않은 말을 하는 모습을 보여주는 것을 포함합니다. 얼굴 교환 앱의 사용도 포함됩니다.

    Meta는 이달 초 감사 위원회의 피드백을 바탕으로 새로운 가이드라인을 발표했습니다.

    • 원래 가이드라인은 가짜 연설을 묘사하도록 조작된 콘텐츠를 제한했으며, 이제는 사람의 행동을 위조하도록 조작된 콘텐츠도 포함됩니다.
    • Meta는 5월에 콘텐츠 라벨링을 시작할 때 “산업 공유 AI 이미지 신호”, 팩트 체커의 조언 및 자체 공개를 사용할 것이라고 밝혔습니다.
  • 교사의 인공지능 생성 숙제 판별

    Fleckenstein, J., Meyer, J., Jansen, T., Keller, S. D., Köller, O., & Möller, J. (2024). Do teachers spot AI? Evaluating the detectability of AI-generated texts among student essays. Computers and Education: Artificial Intelligence6, 100209.

    간단한 실험 연구. 식별이 생각처럼 쉽지 않다는 것과 자신의 능력을 과신한다는 결과. 아래는 초록

    학교와 대학에서 생성 인공지능(AI)의 잠재적 적용은 특히 학생의 텍스트 평가에 큰 도전이 되고 있습니다. 이전 연구에 따르면 사람들은 일반적으로 AI가 생성한 텍스트와 사람이 작성한 텍스트를 구별하는 데 어려움을 겪지만, 교사가 학생의 에세이 중에서 AI가 생성한 텍스트를 식별하는 능력은 아직 조사되지 않았습니다. 여기에서는 두 가지 실험 연구에서 초보자(N = 89)와 숙련된 교사(N = 200)가 학생이 작성한 텍스트 중 ChatGPT가 생성한 텍스트를 식별하지 못하는 것을 보여 줍니다. 그러나 경험이 많은 교사가 더 차별화되고 더 정확한 판단을 내린 것으로 나타났습니다. 또한 두 그룹 모두 자신의 판단을 과신하는 경향이 있었습니다. 실제 출처와 가정된 출처가 품질 평가에 미치는 영향은 이질적이었습니다. 연구 결과에 따르면 현재 인공지능은 비교적 적은 자극만으로 교사가 감지할 수 없는 텍스트를 생성할 수 있으며, 이는 학교와 대학이 학생 에세이를 채점하는 데 어려움을 겪고 있음을 보여줍니다. 이번 연구는 최신 기술 발전에 비추어 학교와 대학의 시험 전략에 관한 현재 논쟁에 대한 경험적 증거를 제공합니다.

  • 생성형 인공지능 뮤직비디오

    Washed Out’s new music video was created with AI. Is it a watershed moment for Sora?
    Los Angeles Times

    사용 가능한 클립을 생성하기 위해 그린은 이미지 자체뿐만 아니라 촬영 각도와 캐릭터의 움직임에 대한 구체적인 디테일을 충분히 담은 프롬프트를 작성해야 했습니다. “풍선껌이 터지는 장면을 확대하고, 풍선껌을 확대하여 열린 축구장으로 들어갑니다.”라고 트릴로는 짧은 동영상 한 조각을 위한 프롬프트의 일부로 썼습니다. “장면이 빠르게 움직이며 정면의 시점을 보여주면서 학생들이 점점 더 커지고 빨라지는 모습을 보여줍니다.”

    몇 가지 한계가 있었죠. 때때로 트릴로가 아이디어를 내면 소라가 이를 실행에 옮겼죠. 다른 때는 혼란스럽고 사용할 수 없는 무언가를 만들기도 했습니다. 영상에 일관성이 없는 부분이 나오기도 했지만, 트릴로는 이를 그냥 넘어가곤 했습니다. 부부의 아이도 그렇고 캐릭터도 클립마다 조금씩 다르게 보입니다.