Blog

  • 메타의 아동문제 실패

    How Mark Zuckerberg’s Meta Failed Children
    NYT

    아동청소년 보호와 관련하여 자율규제를 넘어선 정부의 압박이 이어지고 있는 메타 사례

    주들은 Meta가 Instagram과 Facebook에서 청소년과 어린이를 부당하게 유인하고 위험에 대해 대중을 기만했다고 주장합니다. 1990년대 정부가 Big Tobacco를 추구했던 방식과 유사한 법적 접근 방식을 사용하여, 법무장관들은 Meta가 미성년자를 위한 보호를 강화하도록 강제하려고 합니다.

    NYT에서 소개하는 몇 가지 사례. 쉽지 않을지도

    2018년에는 13세 미만의 어린이 400만 명이 Instagram을 사용하고 있다는 보고를 받았지만, Meta는 이러한 사용자들을 식별하여 계정을 삭제했다고 주장합니다.

    또한, 2019년 가을, Meta는 성형 수술을 모방한 필터가 청소년에게 부정적인 영향을 미칠 수 있다는 우려로 인해 일시적으로 사용을 중지했습니다. 그러나 저커버그는 이러한 필터의 금지를 해제하자고 제안했습니다.

    2021년 Meta는 Instagram Kids라는 새로운 소셜 앱을 계획했지만, 44명의 법무장관이 이를 중단하라고 촉구했습니다. Meta는 청소년 웰빙에 대한 우려로 추가 직원을 요청했지만, 저커버그는 이에 응하지 않았습니다.

  • 틱톡 성인 사용자(Oldtoker) 증가

    TikTok: All Grown Up
    YouGov

    TikTok은 25세 이상의 미국인들 사이에서 빠르게 성장하고 있으며, 이들을 Oldtoker라고 부른다. 올드톡커에 대한 자료(요약)

    • 도시 거주, 고학력 미국인들 사이에서 TikTok 성장: 25세 이상의 TikTok 사용자는 도시에 살고, 학사 학위 이상의 교육을 받은 비율이 더 높습니다.
    • OldTokers의 경제력: 이들은 동일 연령대의 다른 사람들보다 더 많은 돈을 벌고, 새로운 제품을 시도하고 이야기하는 것을 더 좋아하며, 사회적 이슈에 대한 입장을 가진 브랜드를 선호합니다.
    • 광고에 개방적: OldTokers는 광고가 구매 결정에 도움을 주고, 소셜 미디어에 멋진 콘텐츠를 올릴 경험을 찾는 경향이 있습니다. 또한, 브랜드 추천을 즐기며, 브랜드의 로열티 프로그램에 가입하면 추천 가능성이 더 높습니다.
    • 유명인 문화와 새로운 쇼핑 경험 선호: 유명인이나 인플루언서가 추천하는 제품을 신뢰하며, 사용자 친화적인 앱을 통해 구매하는 것을 좋아합니다.
    • 브랜드의 입장에 관심: OldTokers는 브랜드가 어떤 입장을 가지고 있는지 중요하게 여기며, 다양성과 포용성을 지원하는 정책을 중요하게 생각합니다.
  • BBC, 생성형 인공지능 사용에 관한 소비자 태도 조사

    Embedding the Audience: Putting audiences at the heart of Generative AI
    BBC

    미디어에서 생성형 인공지능 사용에 대한 소비자 태도 조사 결과. 그 중에서 사용 양식에 따른 소비자 태도 부분.

    생성형 AI를 미디어에서 사용하는 것에 대한 관객의 우려는 모달리티와 사용 사례에 따라 다릅니다. 특히:

    a. 오디오 콘텐츠에서 생성형 AI를 사용하는 것에 대해 다소 개방적인 태도를 보였습니다. 많은 응답자들은 생성형 AI가 기존 기술의 확장처럼 느껴지는 경우 오디오 콘텐츠 생성에 공간이 있다고 생각했습니다.

    b. 비디오 콘텐츠에서 생성형 AI를 사용하는 것에 대한 우려가 더 컸습니다. 개인화나 운영 기능을 위한 제한된 생성형 AI 사용은 받아들여지지만, 이 범위를 넘어서는 사용은 인간의 연결을 약화시키고 예술적 기술을 저해할 수 있다고 많은 응답자들이 느꼈습니다.

    c. 저널리즘에서 생성형 AI를 사용하는 것은 매우 높은 위험으로 인식됩니다. 관객들은 생성형 AI가 일부 제한된 방식(예: 텍스트 기사를 오디오로 재형성하는 것)에서 가치를 제공할 수 있다는 점을 인정하지만, 잘못된 정보를 퍼뜨리고 사회적 분열을 심화시키며 인간의 해석과 통찰력을 대체할 가능성에 대한 우려가 있습니다.

  • 디지털 뉴스 리포트 2024

    Digital News Report 2024

    간단하게만 훑어보게 되는 디지털 뉴스 리포트. 2024년 주요 결과만 번역.

    • 많은 국가, 특히 유럽과 미국 외의 국가들에서 Facebook의 뉴스 사용이 크게 감소하고 있으며, 개인 메시징 앱과 비디오 네트워크 등 다양한 대안에 대한 의존도가 증가하고 있습니다. 지난 1년 동안 모든 국가에서 Facebook 뉴스 소비가 4% 포인트 감소했습니다.
    • 온라인 플랫폼 전반에 걸쳐 뉴스 사용이 분산되고 있으며, 10년 전에는 두 개의 네트워크만이 10% 이상의 응답자에게 도달했으나 이제는 여섯 개의 네트워크가 최소 10% 이상의 응답자에게 도달하고 있습니다. 전 세계 샘플의 거의 3분의 1(31%)이 매주 YouTube를 통해 뉴스를 접하고, 약 5분의 1(21%)이 WhatsApp을 통해 뉴스를 접합니다. TikTok(13%)은 Twitter(현재의 X)(10%)를 처음으로 앞질렀습니다.
    • 이러한 변화와 관련하여 비디오는 특히 젊은 그룹에서 온라인 뉴스의 중요한 소스가 되고 있습니다. 짧은 뉴스 비디오는 샘플의 3분의 2(66%)가 매주 접속하며, 긴 형식의 비디오는 약 절반(51%)이 접속합니다. 뉴스 비디오 소비의 주요 장소는 출판사 웹사이트(22%)가 아닌 온라인 플랫폼(72%)으로, 수익 창출과 연결 문제를 증가시키고 있습니다.
    • 플랫폼 믹스가 변하고 있지만, 대다수는 소셜 미디어, 검색, 또는 애그리게이터를 온라인 뉴스의 주요 관문으로 식별하고 있습니다. 시장 전반에 걸쳐 응답자의 약 5분의 1(22%)만이 뉴스 웹사이트 또는 앱을 온라인 뉴스의 주요 소스로 식별합니다. 이는 2018년보다 10% 포인트 감소한 수치입니다. 북유럽 시장의 일부 출판사들은 이 추세를 극복했지만, 모든 지역의 젊은 그룹은 과거보다 뉴스 브랜드와의 연결이 약해지고 있습니다.
    • 다양한 플랫폼에서 사람들이 뉴스를 접할 때 가장 주목하는 출처를 살펴보면, 특히 YouTube와 TikTok에서 정파적 해설자, 인플루언서, 젊은 뉴스 제작자에 대한 집중도가 높아지고 있음을 알 수 있습니다. 그러나 Facebook과 X와 같은 소셜 네트워크에서는 전통적인 뉴스 브랜드와 기자들이 여전히 중요한 역할을 합니다.
    • 온라인 뉴스와 관련하여 인터넷에서 무엇이 진짜이고 무엇이 가짜인지에 대한 우려가 지난해보다 3% 포인트 증가했으며, 약 10명 중 6명(59%)이 걱정하고 있습니다. 남아프리카(81%)와 미국(72%)에서는 이 비율이 상당히 높으며, 두 나라는 올해 선거를 치렀습니다.
    • 온라인 플랫폼에서 신뢰할 수 있는 콘텐츠와 신뢰할 수 없는 콘텐츠를 구별하는 것에 대한 걱정은 다른 온라인 네트워크에 비해 TikTok과 X에서 가장 높습니다. 두 플랫폼 모두 가자 전쟁과 웨일즈 공주의 건강 등 이야기에 대한 허위 정보나 음모론을 호스팅했으며, 이른바 ‘딥 페이크’ 사진과 비디오도 포함되어 있습니다.
    • 출판사들이 AI 사용을 채택하면서, 특히 정치나 전쟁과 같은 ‘하드’ 뉴스 이야기에서 AI가 어떻게 사용될지에 대한 광범위한 의심이 있음을 발견했습니다. AI를 지원 역할로 사용하는 것에는 더 많은 안도감이 있지만, 기자를 대체하는 것에는 그렇지 않습니다.
    • 뉴스에 대한 신뢰도는 지난해와 동일한 40%로 유지되었지만, 코로나바이러스 대유행의 절정기보다 여전히 4% 포인트 낮습니다. 핀란드는 여전히 전체 신뢰도가 가장 높은 국가(69%)이며, 그리스(23%)와 헝가리(23%)는 언론에 대한 정치적 및 상업적 영향에 대한 우려 속에서 가장 낮은 수준을 보이고 있습니다.
    • 몇몇 국가에서는 선거로 인해 뉴스에 대한 관심이 증가했지만(+3), 전체적인 추세는 여전히 하락세를 보이고 있습니다. 예를 들어, 아르헨티나에서는 2017년 77%에서 오늘날 45%로 뉴스에 대한 관심이 감소했습니다. 영국에서는 2015년 이후 뉴스에 대한 관심이 거의 절반으로 줄어들었습니다. 두 국가 모두 정치에 대한 관심이 유사하게 감소했습니다.
    • 동시에 선택적 뉴스 회피가 증가하고 있습니다. 약 10명 중 4명(39%)이 가끔 또는 자주 뉴스를 회피한다고 말하며, 이는 지난해 평균보다 3% 포인트 증가한 수치입니다. 브라질, 스페인, 독일, 핀란드에서 더 큰 증가가 나타났습니다. 댓글에서는 우크라이나와 중동의 해결되지 않은 갈등이 일부 영향을 미쳤을 가능성을 시사합니다. 별도의 질문에서는 뉴스의 양에 압도된다고 느끼는 비율이 2019년 이후 크게 증가했음을 알 수 있습니다(+11pp).
    • 뉴스와 관련된 사용자 요구를 탐구하면서, 우리의 데이터는 출판사들이 사람들에게 주요 뉴스 이야기를 업데이트하는 데 너무 집중하고 있으며, 문제에 대한 다른 관점을 제공하거나 가끔 낙관의 근거가 되는 이야기를 제공하는 데 충분한 시간을 할애하지 않는다는 것을 시사합니다. 주제 측면에서 우리는 청중이 정치와 스포츠 뉴스에 대해 대부분 잘 제공받고 있다고 느끼지만, 일부 국가에서는 지역 뉴스와 건강 및 교육 뉴스에 대한 격차가 있음을 발견했습니다.
    • 우리의 데이터는 뉴스 구독의 성장이 거의 없음을 보여줍니다. 20개 부유한 국가 중에서 지난해 온라인 뉴스를 위해 비용을 지불했다고 응답한 비율은 17%에 불과합니다. 노르웨이(40%)와 스웨덴(31%)과 같은 북유럽 국가들이 가장 높은 비율을 보였으며, 일본(9%)과 영국(8%)이 가장 낮았습니다. 이전 년도와 마찬가지로, 디지털 구독의 큰 비율은 몇몇 고급 국가 브랜드에 집중되어 있으며, 이는 종종 디지털 미디어와 관련된 ‘승자 독식’ 역학을 강화합니다.
    • 일부 국가에서는 대규모 할인이 이루어지고 있음을 발견했으며, 약 10명 중 4명(41%)이 현재 정가보다 적은 비용을 지불하고 있다고 응답했습니다. 새로운 구독자를 유치할 가능성은 뉴스에 대한 낮은 관심과 풍부한 무료 소스와 연결된 뉴스에 대한 지속적인 지불 거부로 인해 제한적입니다. 현재 구독하지 않는 사람들 중 절반 이상(55%)이 온라인 뉴스에 대해 아무런 비용도 지불하지 않겠다고 말했으며, 나머지 대부분은 월 몇 달러에 불과한 금액을 지불할 의향이 있다고 말했습니다. 시장 전반에 걸쳐, 비구독자의 2%만이 평균 정가 구독료를 지불할 의향이 있다고 말했습니다.
    • 뉴스 팟캐스팅은 출판사들에게 밝은 전망을 제공하며, 젊고 교육받은 청중을 끌어들이고 있지만 전체적으로는 소수의 활동입니다. 20개국 샘플에서, 3분의 1 이상(35%)이 월간 팟캐스트를 이용하며, 13%는 뉴스와 시사 문제와 관련된 쇼에 접속합니다. 많은 인기 있는 팟캐스트는 이제 촬영되어 YouTube 및 TikTok과 같은 비디오 플랫폼을 통해 배포됩니다.
  • robot.txt의 짧은 역사

    The text file that runs the internet
    Verge

    Robot.txt에 관한 짧은 역사를 설명하는 더버지 기사

    “Google은 우리에게 가장 중요한 스파이더입니다,”라고 Medium의 CEO Tony Stubblebine은 말합니다. Google은 Medium의 모든 페이지를 다운로드할 수 있으며, “그 대가로 우리는 상당한 트래픽을 얻습니다. 이것은 윈-윈입니다. 모두가 그렇게 생각합니다.” 이는 Google이 전체 인터넷과 맺은 거래로, 검색 결과에 광고를 판매하면서 다른 웹사이트로 트래픽을 유도하는 것입니다. 그리고 Google은 robots.txt의 좋은 시민이었습니다.

    …… 하지만 지난 1년 동안, AI의 부상은 그 방정식을 뒤집었습니다. 많은 출판사와 플랫폼에게, 그들의 데이터를 학습 데이터로 크롤링하는 것은 거래가 아니라 도둑질처럼 느껴졌습니다. “우리가 AI 회사들과 꽤 빨리 알게 된 것은,”라고 Stubblebine은 말합니다, “이는 가치 교환이 아니라는 것이었습니다. 우리는 대가로 아무것도 받지 못하고 있습니다. 문자 그대로 제로입니다.” Stubblebine이 작년 가을 Medium이 AI 크롤러를 차단할 것이라고 발표했을 때, 그는 “AI 회사들이 작가들로부터 가치를 빼앗아 인터넷 독자들에게 스팸을 보내기 위해 사용했습니다,”라고 썼습니다.

  • 인공지능 참여의 아키텍처

    How to Fix “AI’s Original Sin”
    O’Reilly

    생성형 인공지능 학습데이터의 권리와 귀속에 관한 오라일리의 글. 중앙집권적 시스템(OpenAI)을 떠올리지만, 이는 초기 온라인 정보 제공자(AOL, MS) 모델과 유사하며, 인공지능도 웹과 같은 아키텍처를 가지는 그림을 제시.

    잠시 상상해보세요, AI가 월드 와이드 웹이나 리눅스와 같은 방식으로 작동하는 세상을. 기초 모델은 인간의 프롬프트를 이해하고 다양한 콘텐츠를 생성할 수 있습니다. 그러나 이들은 저작권 자료를 인식하고 이를 어떻게 다룰 수 있는지를 알고 있습니다. 중앙집중식 모델은 모든 것을 자유롭게 읽을 수 있는 것(세계 접근 권한)으로 훈련되어 있습니다. 다른 모델은 특정 그룹(회사나 조직, 사회, 국가 또는 언어 그룹 등)에 속한 콘텐츠를 기반으로 작동하며, 또 다른 모델은 개인의 고유한 콘텐츠를 기반으로 작동합니다.

    이런 세상을 ChatGPT나 Claude 또는 대형 중앙집중식 모델 위에서 구축할 수도 있겠지만, 협력하는 소규모 분산 모델로 구축하는 것이 더 가능성이 큽니다. 웹이 AOL이나 마이크로소프트 네트워크 위에서 구축된 것이 아니라 협력하는 웹 서버들에 의해 구축된 것과 마찬가지입니다. 오픈 소스 AI 모델이 대형 중앙집중식 모델보다 더 위험하다고 들었지만, 그 혜택과 위험을 명확하게 평가하는 것이 중요합니다. 오픈 소스는 혁신뿐만 아니라 통제도 더 잘 가능하게 합니다. 콘텐츠 소유자가 AI 검색 제공자에게 자신의 저장소를 열어주되, 콘텐츠가 어떻게 다뤄지는지 그리고 특히 어떻게 수익화되는지에 대한 통제와 포렌식을 제공하는 오픈 프로토콜이 있다면 어떨까요?

    유튜브의 콘텐츠ID를 언급하기도 한다. 그리고 자기네가 할 수 있다면 (이런 시스템을 구축하고자 하고 있음) 다른 사람들도 할 수 있다는 것을 알고 있다고 말한다.

  • 연구: 인공지능이 직업에 미치는 잠재적 영향

    Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2024). GPTs are GPTs: Labor market impact potential of LLMs. Science384(6702), 1306-1308.

    라벨링 하는 과정에서 주관이 개입될 여지가 있기에 결과를 얼마나 신뢰할 수 있을지는 모르겠지만 혹시 연구방법 측면에서 참고가 될까 싶어서.

    우리는 대형 언어 모델(LLM)과 관련 기술들이 작업에 미치는 잠재적 영향을 평가하기 위한 프레임워크를 제안합니다. 이 프레임워크는 작업자가 직무에서 수행하는 작업과의 관련성을 고려하여 설계되었습니다. 이 프레임워크를 인간과 LLM을 사용하여 적용한 결과, 간단한 인터페이스와 일반 교육을 갖춘 LLM이 직무의 절반 이상에 영향을 미칠 수 있는 직업은 약 1.8%로 추정됩니다. 그러나 LLM 기능을 보완하는 현재 및 미래의 소프트웨어 개발을 고려하면, 이 비율은 46%를 약간 넘는 수준으로 증가합니다. 생성적 사전 학습 변환기(GPT)와 같은 LLM의 집합적 특성은 이들이 다른 “GPT” (범용 기술)의 핵심 특성을 가지고 있음을 강하게 시사합니다. 우리의 연구는 LLM과 보완 기술이 노동 시장에 미칠 수 있는 잠재적 영향을 다루기 위한 강력한 사회적 평가와 정책 조치의 필요성을 강조합니다.

  • 애플 EU규제로 AI 기능 출시 중단

    Apple Won’t Roll Out AI Tech In EU Market Over Regulatory Concerns

    개인보호와 경쟁 사이 절충안이 제시되어야하지만, 명확하지 않기 때문에 기능을 출시하지 않겠다고 말한 애플.

    애플은 디지털 시장법(DMA)이 자사 제품과 서비스의 보안을 저하시킬 수 있다는 이유로 애플 인텔리전스, 아이폰 미러링 및 SharePlay 화면 공유 기능을 올해 EU 사용자들에게 제공하지 않겠다고 발표했습니다.

    애플은 성명에서 “DMA의 상호 운용성 요구사항이 제품의 무결성을 손상시켜 사용자 개인정보와 데이터 보안을 위험에 빠뜨릴 수 있다”고 밝혔습니다.

  • 인공지능 법안에 실리콘벨리 반발

    ‘Little Tech’ brings a big flex to Sacramento
    Politico

    잘못된 규제 정책에 대한 사례를 자꾸 스크랩하게 되는데 아마도 최근에 이런 일이 많이 발생하기 때문은 아닌지. 인공지능에 대한 과도한 우려때문에 그런건 아닌가 싶음. 벤처쪽 입장은 엑셀로 인해 발생한 사기사건에 대한 책임을 마이크로소프트가 져야한다는 것과 같다는 식으로 비유하기도 함. AB5에 대한 언급도 나오는 중.

    에어비앤비, 드롭박스, 도어대시를 탄생시킨 벤처 캐피탈 회사인 Y Combinator가 오늘 주 상원의원 스콧 위너의 법안에 반대하는 첫 포문을 열었습니다. 이 법안은 대형 AI 모델이 안전성 테스트를 거치도록 요구하는 내용을 담고 있습니다.

    … 위너의 상원 법안 1047은 2월에 처음 도입된 이후 규제를 경계하는 테크 기업들의 표적이 되어왔지만, 큰 저항 없이 원래의 하원을 통과했습니다. 이제 이 법안은 주 의회에서 강한 반대에 직면하고 있으며, 반대자들은 이 법안이 자국 산업을 저해할 것이라고 주장하며 압력을 높이고 있습니다.

    이 법안은 훈련에 1억 달러 이상의 비용이 드는 가장 큰 AI ‘프런티어 모델’의 개발자가 시스템의 위험 평가를 실시하도록 요구하여, 재앙적 피해를 예방하는 것을 목표로 하고 있습니다. 위너는 오랫동안 이 요구 사항을 합리적이라고 주장해 왔습니다. 이번 주 초 그는 이 법안이 “가벼운 접근”이라고 말했습니다. 많은 기업들은 동의하지 않습니다.

  • 연구: 환각과 의미적 엔트로피

    Farquhar, S., Kossen, J., Kuhn, L. et al. Detecting hallucinations in large language models using semantic entropy. Nature 630, 625–630 (2024). https://doi.org/10.1038/s41586-024-07421-0

    환각을 탐지하는 방법에 관한 네이처 논문. 동일 질문에 대한 답변을 샘플링하여 의미적으로 클러스터를 만들어 엔트로피를 측정하는 방식을 활용. 하지만 언어 모델의 체계적으로(?) 잘못된 답변을 생성한다면, 이를 탐지할 수 있는 방법은 아닐 수도 있음.

    대형 언어 모델(LLM) 시스템, 예를 들어 ChatGPT1이나 Gemini2와 같은 시스템은 인상적인 추론 및 질문 응답 능력을 보여줄 수 있지만 종종 잘못된 출력과 근거 없는 답변을 생성하는 ‘환각(hallucinations)’을 보입니다. 신뢰할 수 없거나 필요한 정보 없이 답변하는 것은 다양한 분야에서의 채택을 저해하며, 여기에는 법적 판례의 날조, 뉴스 기사에서의 거짓 사실, 그리고 방사선학과 같은 의료 분야에서 인명에 위협을 가하는 경우가 포함됩니다. 감독 또는 강화 학습을 통해 진실성을 장려하려는 시도는 부분적으로만 성공했습니다. 연구자들은 인간이 답을 모를 수 있는 새로운 질문에 대해서도 작동하는 일반적인 환각 탐지 방법이 필요합니다. 여기서 우리는 통계에 기반한 새로운 방법을 개발하여, LLM의 임의적이고 잘못된 생성물인 일부 환각(특히 confabulations)을 탐지하는 엔트로피 기반 불확실성 추정기를 제안합니다. 이 방법은 하나의 아이디어가 여러 방식으로 표현될 수 있다는 사실을 고려하여 특정 단어 시퀀스가 아닌 의미 수준에서 불확실성을 계산합니다. 이 방법은 작업에 대한 사전 지식 없이 데이터셋과 작업 전반에 걸쳐 작동하며, 이전에 보지 못한 새로운 작업에도 강건하게 일반화됩니다. 입력이 confabulation을 일으킬 가능성이 높은 경우를 탐지함으로써, 이 방법은 사용자가 LLM을 사용할 때 특별히 주의해야 할 상황을 이해하도록 도우며, LLM의 불신으로 인해 방해받는 새로운 가능성을 열어줍니다.