Blog

  • AI 시대 퍼블리셔의 해법

    Content and Community
    Ben Thompson

    오래된 이야기이기도 하고 뻔한 말이기도 하지만, 저작권 소송에서 출판사는 분리하며 새로운 시장에서도 기존 출판이 주인공이 되기는 어렵다고 언급한다. 결론은 공유된 기준을 만드는 역할을 할 수 있다는 점을 언급함

    그러므로 AI 시대의 출판사에게 해답은 콘텐츠 통합 플랫폼 시대와 다를 바 없습니다. 바로 독자와 직접적인 연결고리를 구축하는 것입니다. 이는 더 나아가 사용자당 수익을 극대화하는 비즈니스 모델, 즉 구독 모델을 의미합니다 (이 사이트를 비롯한 점점 더 많은 사이트들이 구독 모델을 기반으로 하고 있습니다) .

    하지만 제가 흥미롭게 생각하는 것은 미래로 되돌아갈 가능성입니다. 과거에는 출판이 국가를 형성했지만, 이제 출판의 새로운 기회는 공동체를 만드는 것입니다. 특히 오늘날의 인공지능은 이러한 역할에 근본적으로 적합하지 않습니다. LLM(Learning Leadership Machine)이 생성하는 모든 콘텐츠는 개인 맞춤형입니다. 당신이 묻는 질문과 인공지능이 답하는 내용은 제가 묻는 질문과 제가 받는 답변과 다릅니다. 이는 일을 처리하는 데는 유용하지만, 공통의 기반을 만드는 데는 도움이 되지 않습니다.

  • AI의 오류율, 검증, 레버리지

    AI error rates, validation and leverage
    Benedict Evans

    내 생각과 같은 내용. AI를 연구에 활용하는 경우에도 비슷한 접근을 할 수 있을텐데 이러한 고민 없이 사용되는 경향이 있는 듯. 레버리지라는 관점에 더 초점 맞추어야한다는 말도 인상적이다. 즉, LLM이 회계를 할 수 있는지 질문이 말하는 것처럼 ‘대체’에 초점을 맞추는 것보다 ‘주니어+모델+검증’처럼 조직 내 역할 재배치가 더 현실적인 시나리오일 수 있다고 말한다.

    어떤 질문들은 ‘틀린 답’이 거의 없고 ‘정답’도 사실상 없다. 더 낫거나 덜 낫기만 있다. 기존의 결정론적 소프트웨어는 이런 문제를 잘 못 다루지만, 생성형 AI는 매우 잘한다.

    반대로, 답이 이진적으로 맞거나 틀릴 수 있는 질문들이 있고, 여기서는 생성형 AI의 오류율이 문제가 된다. 이 경우 답을 단어 단위, 줄 단위로 검증해야 한다.

  • 액센츄어와 WPP는 잠재적인 인수합병 루머

    Accenture and WPP have discussed potential M&A deal
    campaign

    Campaign은 두 회사 간에 고위급 접촉이 있었던 것으로 파악했습니다.

    Accenture는 ‘주니어-중급 인력의 시간 판매’ 비중이 큰 반복 작업이 줄어들며 인력 기반 수익모델이 압박받고, WPP는 카피·디자인·영상·미디어 플래닝 등 크리에이티브·운영이 AI로 대체되며 에이전시 가치사슬이 압박받는 상황.

  • 넷플릭스의 생성형 AI 활용 제작

    Netflix uses generative AI in one of its shows for first time
    The Guardian

    넷플릭스의 SF 시리즈, 엘 에테르나우타(El Eternauta, 영원한별)에서 생성형 AI를 활용했다는 내용

    “AI 기반 도구를 사용하여 놀라운 속도로 멋진 결과를 얻을 수 있었고, 실제로 해당 VFX 시퀀스는 기존 VFX 도구 및 워크플로를 사용했을 때보다 10배 더 빠르게 완성되었습니다.”라고 그는 말했다.

    그는 AI 도구를 사용함으로써 넷플릭스가 대규모 예산이 투입되는 일반적인 작품보다 훨씬 낮은 비용으로 해당 프로그램을 제작할 수 있었다고 말했다.

    사란도스는 “인공지능을 활용하지 않은 특수효과 비용은 그 예산으로는 도저히 감당할 수 없었을 것”이라고 말했다.

  • 동반자 AI 사용 이유

    Teens flock to companion bots
    Axios

    대부분의 청소년은 여전히 봇보다 사람을 선호한다. AI 동반자 이용자의 80%는 실제 친구들과 더 많은 시간을 보낸다고 말한다. 절반 이상(67%)은 AI와의 대화가 인간과의 대화보다 덜 만족스럽다고 답한다. 청소년의 절반(50%)은 AI 동반자가 제공하는 정보나 조언을 신뢰하지 않는다고 한다.

    일부 청소년은 AI 동반자와의 대화에서 연습한 사회적 기술을 현실에서 적용했다고 말했다. 이들은 해당 도구가 대화를 시작하는 법, 갈등을 해결하는 법, 감정을 표현하는 법을 가르쳐줬다고 했다.

    하지만 일부(25%)는 AI 동반자에게 자신의 실명, 위치, 개인적 비밀을 공유했다고도 보고했다. 청소년의 거의 4분의 1(23%)은 AI 동반자를 “상당히” 또는 “완전히” 신뢰한다고 답했는데, 이는 챗봇이 잘못된 정보를 만들어내는 경향이 잘 알려져 있음에도 그렇다.

  • 직장에서 LLM 활용 통계

    The Labor Market Effects of Generative Artificial Intelligence

    미국에서 현재까지 직장에서 LLM을 얼마나 활용하고 있는지에 대한 연구. 약 45%가 LLM을 전혀 활용하고 있다고 답했으며, 그중 3분의 1은 평일에 매일 사용한다고 답함. DAU는 13~14%

    우리는 생성형 AI가 노동시장에 미치는 경제적 효과를 측정하기 위해 새로운 설문 조사를 개발했다. 분석 결과, 대규모 언어모델(LLM)과 같은 생성형 AI 도구는 주로 젊은 층, 높은 교육 수준을 가진 개인, 높은 소득 계층, 그리고 고객 서비스·마케팅·정보기술과 같은 특정 산업 종사자들에서 가장 많이 사용되고 있었다. 미국 노동자의 LLM 도입률은 2024년 12월 기준 30.1%에서 2025년 9월 기준 36.7%로 빠르게 증가했으며, 선진국 가운데 미국의 도입률이 여전히 가장 높았다. 생성형 AI 노출이 여러 노동시장 결과에 미치는 영향을 추정한 결과, 2022년 11월 ChatGPT 공개 이후 AI 노출도가 높은 직업군에서 임금에 미미한 영향이 나타났으나, 구인 건수나 전체 고용에는 유의한 효과가 관찰되지 않았다.

  • CoT 해석가능성 분석

    Chain-of-Thought Is Not Explainability

    추론 모델이 결론에 도달하는 방식을 보여주기 위해 생성하는 ‘생각의 사슬’은 실제로는 실제 상황을 처리하는 방식이 아닐 수도 있다는 연구

    Chain-of-thought(CoT)는 언어모델이 최종 답변을 생성하기 전에 여러 단계의 추론 과정을 언어적으로 서술하도록 하는 기법이다. 이는 과제 수행 성능을 종종 향상시키고 모델의 추론을 투명하게 보여주는 듯한 인상을 주지만, 우리는 CoT가 실제로는 오해를 불러일으킬 수 있으며 신뢰할 수 있는 해석가능성의 필요조건도 충분조건도 아니라고 주장한다. 우리는 CoT의 충실성을, 인간이 이해할 수 있을 뿐 아니라 모델의 내부적 추론을 실제로 반영하여 책임 있는 활용을 뒷받침하는지를 기준으로 검토하며, 기존 연구의 증거를 종합한다. 분석 결과, 언어로 표현된 추론 과정은 실제 모델 내부에서 결정을 이끄는 계산과 자주 불일치하며, 모델이 결론에 이르는 방식을 잘못 보여주는 경우가 많다. 그럼에도 불구하고 의료, 법률, 자율 시스템과 같은 고위험 분야에서 CoT 의존은 증가하고 있으며, 우리가 검토한 최근 CoT 중심 연구 1,000편 중 약 25%는 CoT를 해석가능성 기법으로 명시적으로 활용하고 있다. 이에 기반해 세 가지 제안을 제시한다. (i) 추가 검증 없이 CoT를 해석가능성의 충분조건으로 간주하는 것을 피하되, CoT가 제공하는 의사소통상의 이점은 계속 활용할 것, (ii) 다운스트림 의사결정을 위해 CoT 충실성을 평가하는 엄격한 방법을 도입할 것, (iii) 모델 내부에 근거한 설명을 확보하기 위해 activation patching, 반사실적 개입, verifier 모델 등 인과적 검증 기법을 개발할 것.

  • ChatGPT 뉴스 트래픽

    ChatGPT referrals to news sites are growing, but not enough to offset search declines
    TechCrunch

    ChatGPT 추천 트래픽이 가장 많이 증가한 사이트로는 로이터(전년 대비 8.9% 증가), 뉴욕 포스트(7.1% 증가), 비즈니스 인사이더(6.5% 증가) 등. NYT는 소송때문인지 감소. ChatGPT는 뉴스 사이트로의 전환을 크게 늘리고 있지만, 구글 검색 기반 트래픽 하락을 메우기에는 역부족이며 언론사는 수익 다각화를 시도 중.

    디지털 시장 정보 회사 Similarweb의 보고서에 따르면, ChatGPT에서 뉴스 게시자에게 추천하는 횟수는 증가하고 있지만, 사용자가 AI 또는 AI 기반 검색 결과에서 직접 뉴스를 얻는 경우가 늘어나면서 발생하는 클릭 감소를 상쇄하기에는 충분하지 않습니다. Google은 2024년 5월 AI 개요를 출시한 이후 뉴스 웹사이트로 연결되지 않은 뉴스 검색 건수가 2025년 5월 기준 56%에서 거의 69%로 증가한 것을 발견했습니다. 놀랍지 않게 유기적 트래픽도 감소하여 2024년 중반에 최고조에 달했던 23억 명 이상의 방문이 현재는 17억 명 미만으로 줄었습니다. 한편, ChatGPT의 뉴스 관련 프롬프트는 2024년 1월부터 2025년 5월까지 212% 증가했습니다.

  • 채널4, 스트리밍 서비스에 AI 생성 광고 도입

    Channel 4 to offer AI-generated ads on its streaming service
    The Times

    채널4의 최고커머셜책임자(CCO)는 이번 서비스가 “TV 접근을 민주화하려는 시도”라고 언급

    채널4(Channel 4)는 자사의 온라인 스트리밍 서비스에서 인공지능(AI)을 활용해 송출되는 광고를 생성하기 시작할 예정이다. 이는 영국 400억 파운드 규모의 광고 시장에서 미국 빅테크의 지배력을 깨려는 대형 방송사의 최근 시도다. 이번 신규 서비스는 기업들이 Streamr.ai와 Telana가 제공하는 기술을 활용해 AI로 광고를 더 쉽게 만들 수 있도록 옵션을 제공한다. TV 광고를 집행하기에는 예산이 너무 작은 중소 규모 기업을 끌어들이는 것이 목표다.

  • AI가 인간의 사고력을 향상시키는가

    AI’s great brain-rot experiment
    Axios

    MIT 연구는 생성형 AI를 사용하는 “인지적 비용”을 측정하는 것을 목표로 했으며, 짧은 에세이 작성 과제를 받은 세 그룹을 살펴봤다. 결과는 피실험자들이 글쓰기에서 더 많은 도움을 받을수록, 작업하는 동안 경험하는 뇌 활동이나 “신경 연결성”이 더 적다는 것을 발견했다고 한다. 리뷰 받기 전 연구이지만 이와 관련된 이야기가 이어지고 있다. 하지만 과거에 반복되던 사례를 언급하는 이야기 역시 많다.

    아직 기능하는 기억을 가진 독자들은 2008년 Nicholas Carr의 “Google이 우리를 바보로 만드는가?”라는 제목의 The Atlantic 커버 스토리 주변의 격분을 기억할 수도 있습니다. 그때 두려움은 화면과 검색 엔진에 지나치게 의존해서 빠른 답변을 얻는 것이 지식을 습득하고 유지하는 우리의 능력을 저해할 수도 있다는 것이었습니다. 하지만 이제 ChatGPT 시대에서, Google 검색에 대한 의존은 MIT와 와튼의 연구 같은 것들에 의해 AI의 편리하지만 — 때로는 만들어진 — 답변들에 대한 우수한 대안으로 프레임되고 있습니다.