[작성자:] haeyeop

  • AGI 2030을 향한 길: 데미스 하사비스와 세르게이 브린의 AI 미래 담론

    DeepMind CEO Demis Hassabis + Google Co-Founder Sergey Brin: AGI by 2030?
    YouTube

    영상 내용 요약

    이 대담에서는 DeepMind CEO 데미스 하사비스와 구글 공동창업자 세르게이 브린이 AI 발전 현황과 AGI(범용인공지능) 전망을 중심으로 이야기를 나눴습니다.

    두 사람 모두 현재의 프론티어 모델들이 놀라운 성과를 내고 있지만, AGI에 이르기 위해서는 기존 기법의 극대화와 함께 새로운 알고리즘적 돌파구가 최소 한두 번 더 필요하다고 봤습니다. 하사비스는 규모 확장(scale)과 혁신이 병행돼야 하며, 브린은 장기적으로 알고리즘 발전이 하드웨어 성능 향상보다 더 중요할 것이라고 강조했습니다.

    대화에서는 특히 ‘사고형(thinking) 패러다임’의 중요성이 언급됐습니다. 예를 들어 바둑·체스 같은 게임에서 사고 과정을 추가하면 실력이 월등히 향상되듯, 복잡한 현실 문제에서도 이 방식이 큰 잠재력을 가질 수 있다고 봤습니다. 다만 현실 세계 모델링은 게임보다 훨씬 어려우며, 오류 축적 방지와 정확한 세계 모델 구축이 핵심 과제라고 했습니다.

    AGI의 정의와 시점에 대해서는, 하사비스가 ‘인류 최고의 두뇌들이 해온 모든 지적 활동을 동일한 뇌 구조로 수행할 수 있는 지능’을 AGI로 규정하며, 현재 시스템은 ‘불균형한 지능(jagged intelligence)’ 상태라고 설명했습니다. 브린은 AGI 달성 주체가 단일 기업일 수도, 여러 기업이 비슷한 시기에 도달할 수도 있다고 보았고, 시점은 2030년 전후로 전망했습니다.

    DeepMind CEO Demis Hassabis + Google Co-Founder Sergey Brin: AGI by 2030?이외에도 자기개선형 시스템, 스마트글래스와 물리 환경 이해를 통한 에이전트 구현, 로보틱스의 소프트웨어적 병목 해소, 영상 생성 모델의 품질 관리와 워터마킹(SynthID), 그리고 AI 시대의 웹 변화 전망 등이 논의됐습니다. 두 사람 모두 AI가 웹·모바일을 넘어 훨씬 더 큰 변화를 가져올 것이라고 전망하며, 지금이 컴퓨터 과학자에게 역사적으로 가장 흥미로운 시기라고 입을 모았습니다.

  • NYT AI 팀 인터뷰

    How a Five-Person AI Team Is Powering Innovation at The New York Times: In Conversation with Zach Seward
    Newsroom Robots

    뉴욕타임스의 5인 AI 팀이 혁신을 이끄는 방법에 관해 이야기하고 3가지 내용으로 정리. 자세한 내용은 링크에

    • “AI 로드쇼”: 2,000명 저널리스트의 절반과 개별 대화
    • 문제 중심 개발: 기술에서 시작하지 않고 현실적 필요(요약)에서 시작
    • 내부 도구: Echo 같은 맞춤형 도구로 일상 업무 개선
  • 구글제로

    Neil Vogel on Google Zero
    The Rebooting

    Dotdash Meredith의 CEO 닐 보겔이 “구글 제로” 상황에 어떻게 대비하고 있는지 이야기. 대비라고 이야기하는게 사실은 별다른건 없는 느낌…

    “우리는 말 그대로 이것을 구글 제로라고 부른다”고 Dotdash Meredith CEO 닐 보겔이 최근 Media Product Forum에서 말했다. “구글이 아예 트래픽 전송을 중단하면 어떻게 될까? 이건 종말론적 계획이 아니다—작업 시나리오다.”

    구글의 AI 오버뷰는 이미 Dotdash Meredith 검색 쿼리의 3분의 1에 나타나고 있다. 회사는 그런 결과들의 클릭률 감소를 보고 있다. 이는 도전이지, 일을 정리할 이유는 아니다. “우리가 정말 오랫동안 알고 있었던 것은 궁극적으로 사용자들과의 직접적인 관계가 필요하다는 것”이라고 그는 말했다.

  • 앤트로픽 Opus 4, 안전성 테스트에서 기만적 행동 보여

    Anthropic’s new model has a dark side
    Axios

    • Opus 4의 120페이지 분량 “시스템 카드”에서 강조된 한 시나리오에서, 모델은 자신의 창조자들에 대한 가상의 이메일에 접근할 수 있게 되었고 시스템이 교체될 것이라는 말을 들었습니다.
    • 모델은 이메일에서 언급된 불륜에 대해 엔지니어를 반복적으로 협박하려 했으며, 더 미묘한 노력이 실패한 후 강도를 높였습니다.
    • 한편, 외부 그룹은 Opus 4의 초기 버전이 지금까지 접한 어떤 최첨단 모델보다도 더 많이 음모를 꾸미고 속임수를 썼다는 것을 발견했으며, 해당 버전을 내부적으로나 외부적으로 출시하지 말 것을 권고했습니다.
    • “우리는 모델이 개발자들의 의도를 훼손하려는 노력의 일환으로 자가 증식하는 웜을 작성하려 시도하고, 법적 문서를 조작하며, 미래의 자신의 인스턴스들을 위해 숨겨진 메모를 남기는 사례들을 발견했습니다”라고 Apollo Research는 Anthropic의 Opus 4 안전 보고서에 포함된 노트에서 말했습니다.
  • AI 시대의 웹과 검색, 그리고 ‘에이전틱 웹(agentic web)’의 미래

    Microsoft CTO Kevin Scott on how AI can save the web, not destroy it
    The Verge

    1. MCP와 NLWeb — 차세대 웹 표준 구상
    • MCP(Model Context Protocol): 원래 Anthropic이 만든 개방형 프로토콜로, AI 에이전트가 웹사이트·서비스와 구조적으로 상호작용할 수 있게 함.
    • NLWeb(Natural Language Web): MCP 기반으로 웹사이트에 자연어 검색 기능을 쉽게 붙이고, AI가 접근·활용할 수 있게 하는 개방형 규격.
    • 목표는 현재의 중앙집중형 검색(구글·빙 인덱스) 대신, 각 사이트가 직접 AI 친화적인 검색·상호작용 기능을 제공하는 ‘에이전틱 웹’을 만드는 것.

    2. 기술·비즈니스 과제
    • AI가 직접 웹을 ‘클릭’하며 작업하는 방식은 비효율적·취약하므로, 표준화된 구조로 안전하고 수익성 있는 연결 필요.
    • 기존 웹 생태계는 검색엔진이 트래픽을 주고, 사이트는 광고나 구독으로 수익을 얻는 구조였는데, AI 검색이 답을 직접 제공하면서 트래픽이 감소하는 문제가 발생.
    • 새로운 구조에서는 콘텐츠 제공자가 어떤 데이터·기능을 개방할지, 어떤 비즈니스 모델로 연결할지 직접 결정할 수 있어야 함(구독, 광고, 트랜잭션 등).

    3. AI 채택과 제품화 현황
    • 소프트웨어 개발 분야를 제외하면, 아직 일상에서 AI 에이전트를 적극 활용하는 사례는 적음.
    • 모델의 추론 능력은 충분하지만, 실제 사용 사례와 ‘행동 공간(action space)’이 좁아 유용성이 제한됨.
    • 에이전트가 더 다양한 작업을 안전하게 수행하도록 개방형 표준과 인프라 확충이 필요.

    4. 창작물·저작권 논쟁에 대한 입장
    • 창작자 보상을 보장하는 새로운 모델이 필요하다고 인정.
    • 예술·엔터테인먼트 분야의 창작 인센티브는 유지하되, 의료 진단 등 사회적 가치가 큰 영역에서 AI 활용이 가속되길 원함.
    • 장기적으로는 데이터 의존도를 줄이고, 구독형 접근이나 실시간 정보 연동 같은 새로운 데이터 활용 모델 가능성도 있음.

  • 시카고썬 생성형 콘텐츠

    Viral AI-Generated Summer Guide Printed by Chicago Sun-Times Was Made by Magazine Giant Hearst
    404 Media

    특별히 새로운 이야기도 아니기는 하지만…

    시카고 선타임스 와 필라델피아 인콰이어러가 공동으로 발행한 여름 가이드 신문 삽입물인 “더위 지수” 에는 AI가 생성한 잘못된 정보와 존재하지 않는 책으로 가득 찬 독서 목록이 포함되어 있었는데, 이 기사는 잡지 대기업 허스트의 자회사가 만든 것이라고 알게되었씁니다.

  • 다시 채용하는 클라르나

    Klarna changes its AI tune and again recruits humans for customer service
    CXDIVE

    클라르나(Klarna)는 AI 챗봇이 700명의 담당자 역할을 할 수 있다고 주장한 지 1년이 지났지만 , 이제 고객 서비스 업무의 더 많은 부분을 사람에게 맡기고 있습니다. […] 고객은 여전히 직접 상담하고 싶어 하며 , 특히 복잡하거나 민감한 문제에 대해서는 더욱 그렇습니다. 3월에 실시된 Five9 설문조사에 따르면 고객의 86%는 우수한 고객 경험을 제공하기 위해 공감과 인간적인 유대감이 빠른 대응보다 더 중요하다고 생각하는 것으로 나타났습니다.

  • 대학에서 AI 부정행위

    Rampant AI Cheating Is Ruining Education Alarmingly Fast
    Intelligence

    시험이 무엇을 측정해야하는 것일까

    2023년 1월, OpenAI가 ChatGPT를 출시한 지 불과 두 달 후, 1,000명의 대학생을 대상으로 한 조사에서 거의 90%가 숙제를 도와달라고 챗봇을 사용했다고 나타났다. 대형 주립대학교, 아이비리그, 뉴잉글랜드의 리버럴 아츠 스쿨, 해외 대학교, 전문대학원, 커뮤니티 칼리지의 학생들이 교육의 모든 측면을 편하게 만들기 위해 AI에 의존하고 있다. 생성형 AI 챗봇들 – ChatGPT뿐만 아니라 구글의 Gemini, Anthropic의 Claude, 마이크로소프트의 Copilot 등 – 이 수업 중 노트를 작성하고, 학습 가이드와 연습 시험을 만들고, 소설과 교과서를 요약하고, 에세이를 브레인스토밍하고 개요를 잡고 초안을 작성한다.

  • AI 전문가의 예측과 현실의 간극

    Your A.I. Radiologist Will Not Be With You Soon
    NYT

    9년 전, 세계 최고의 인공지능 과학자 중 한 명이 멸종 위기에 처한 직업 종을 골라냈습니다.

    제프리 힌튼은 “사람들은 지금 당장 방사선과 의사에 대한 교육을 멈춰야 합니다. “라고 말하며, 5년 안에 AI가 해당 분야에서 인간을 앞지르리라는 것은 “완전히 명백한 사실”이라고 덧붙였다.

    오늘날, 질병을 진단하고 치료하기 위해 신체 내부를 관찰하는 의료 영상 전문의인 방사선 전문의에 대한 수요는 여전히 높습니다. 미국 방사선학회(American College of Radiology)의 최근 연구에 따르면 2055년까지 방사선 전문의 인력은 꾸준히 증가할 것으로 예상됩니다.

  • 저널리즘 분야의 AI 활용에 대한 의견

    How We’re Using AI
    CJR

    기사에 대한 기계요약

    언론사 임원들

    지나 추아 (Gina Chua)

    • 역할: Semafor 편집장
    • 의견: “실험하거나 도태되거나” – AI를 활용해 워크플로우 간소화와 능력 확장 도구로 실험 중

    니콜라스 톰슨 (Nicholas Thompson)

    • 역할: The Atlantic CEO
    • 의견: “AI를 거짓말을 잘하는 똑똑한 조수처럼 대하라” – 연구 보조용으로만 활용, 글쓰기에는 절대 사용 안 함

    잭 세워드 (Zach Seward)

    • 역할: 뉴욕타임스 AI 이니셔티브 편집 디렉터
    • 의견: “AI 혼자로는 속임수일 뿐” – 전통적 보도와 코딩 전문성과 결합할 때만 유용

    기술 전문 기자들

    에밀리아 데이비드 (Emilia David)

    • 역할: VentureBeat 선임 AI 기자
    • 의견: “AI는 생산성용, 글쓰기용 아님” – 독자와의 신뢰 관계 유지를 위해 글쓰기는 인간이 해야 함

    제이슨 코블러 (Jason Koebler)

    • 역할: 404 Media 공동창립자
    • 의견: “인간과 연대하라, 기술회사와 말고” – AI 회사들이 기자를 대체하려 하므로 AI 사용 거부

    카리 존슨 (Khari Johnson)

    • 역할: CalMatters 기술 기자
    • 의견: AI 글쓰기 사용 시 독자에게 공개해야 하며, 기자-독자 간 신뢰 보호가 중요

    AI 회의론자들

    브라이언 머천트 (Brian Merchant)

    • 역할: “Blood in the Machine” 저자, 전 LA타임스 기술 칼럼니스트
    • 의견: “AI는 우리 업계를 잠식하고 기예를 둔화시키고 있다. 거부하라” – AI 완전 거부 주장

    트리스탄 리 (Tristan Lee)

    • 역할: 데이터 과학자, Bellingcat 조사관
    • 의견: “AI는 모든 것을 약간씩 더 나쁘게 만든다” – AI 스팸으로 인한 정보 환경 악화 우려

    AI 적극 활용자들

    벤 웰시 (Ben Welsh)

    • 역할: 로이터 뉴스 애플리케이션 데스크 창립자
    • 의견: “대형 언어모델은 게임 체인저” – 팀 코드의 약 25%를 AI가 작성

    이나 프리드 (Ina Fried)

    • 역할: Axios 수석 기술 특파원
    • 의견: “AI에 의존해서 일을 완수하라” – 판단력과 인간성 같은 대체 불가능한 기술 보강용으로 활용

    시각 저널리즘 전문가들

    사라 칼란 (Sarah Cahlan)

    • 역할: 워싱턴포스트 시각 포렌식팀 창립멤버, 퓰리처상 수상자
    • 의견: “AI를 유일한 소스로 사용하지 말라” – 위성 이미지 분석 등에 활용하지만 기자의 신중한 검토 필수

    데이비드 카슨 (David Carson)

    • 역할: 세인트루이스 포스트-디스패치 사진기자
    • 의견: “콘텐츠 자격증명 사용하라” – AI 생성 이미지는 모두 거짓이므로 C2PA 표준 도입 필요

    다양성과 환경 옹호자들

    아라셀리 고메즈-알다나 (Araceli Gómez-Aldana)

    • 역할: WBEZ 뉴스 기자, 2023년 존 S. 나이트 저널리즘 펠로우
    • 의견: “AI는 많은 언어를 구사하지만 여전히 인간 번역가가 필요” – 이중언어 저널리즘 실현 도구로 활용 희망

    시시 웨이 (Sisi Wei)

    • 역할: CalMatters와 The Markup 최고 임팩트 책임자
    • 의견: “환경 비용을 고려하라” – AI 사용 시마다 환경 영향을 생각해야 함

    국제적 관점

    카렌 뢰데 (Karen Rønde)

    • 역할: 덴마크 언론 출판 집단관리기구 CEO
    • 의견: “언론 자유를 보호하라” – AI 회사들의 정보 접근 통제가 언론 자유와 미디어 다원성에 미치는 영향 우려