[작성자:] haeyeop

  • AI를 위한 SEO

    ✨ AI Product Rankings

    검색어를 입력하면 주요 챗봇에서 몇 번째 순위가 나오는지 확인할 수 있다. 다양한 LLM이 어떤 분야에서 어떤 브랜드를 추천하는지 색인화하려는 시도

  • 테이크잇다운 법안

    Take It Down Act heads to Trump’s desk
    The Verge

    NDII(nonconsensual distribution of intimate images)를 범죄화하는 법안

    하원이 409 대 2로 통과시킨 ‘테이크 잇 다운 법(Take It Down Act)’이 도널드 트럼프 대통령의 책상으로 향하고 있습니다. 이 법안은 소셜 미디어 기업들이 동의 없이 촬영된 성적인 이미지(AI 생성 이미지 포함)로 표시된 콘텐츠를 삭제하도록 의무화하는 내용입니다. 

  • 메타의 반좌편향 인공지능

    Meta’s move on AI bias raises risk, eyebrows
    Axios

    메타는 우파의 각성에 대한 반발을 수용하여 인공지능 모델에서 편향을 제거하려고 한다고. 몇 개의 테스트에서 라마는 우편향적, 챗지피티는 좌편향적 답변을 보인다고 알려지기도 했다. 하지만 생각보다 간단한 일은 아닌듯

    작동 방식: Hugging Face의 커뮤니티 및 협업 책임자 바이바브 스리바스타브(Vaibhav Srivastav)는 Axios에 다음과 같이 설명했다.

    • 모델 학습 전 단계에서는 어떤 데이터를 포함·제외할지, 그리고 각각의 데이터 출처에 어떤 가중치를 둘지를 결정할 수 있다.
    • 후기 학습 단계(파인튜닝)에서는 여러 기법을 사용해 모델의 방향을 조정할 수 있다.
      대표적으로 인간 피드백 기반 강화학습(RLHF) 방식은 선호되는 응답 유형을 모델에 학습시키는 것이다.
    • 또 다른 방법으로는 시스템 레벨 프롬프트를 추가해 답변 방식 자체를 바꾸는 것이다.
      그러나 이 방식은 거칠고 예측 불가능한 결과를 낳을 수 있다. 실제로 Meta와 Google은 이 방식으로 편향을 보정하려다, 흑인 미국 건국의 아버지나 다양한 인종의 나치 병사 같은 역사적으로 말이 안 되는 이미지를 생성한 바 있다.

    [ … ] Meta와 Grok는 다른 AI 모델들이 좌편향되어 있다고 비판하지만, 전문가들은 실상은 훨씬 복잡하다고 말한다.

    편향의 주요 원천은 훈련 데이터이다. 대부분의 주요 AI 모델은 훈련 데이터의 구체적인 내용을 공개하지 않지만, 인터넷에 공개된 대부분의 영어 콘텐츠를 크롤링한 것으로 알려져 있다.

    이 때문에 모델은 영어(특히 미국식 영어)에 담긴 관점에 편향될 수밖에 없다.

  • 생성형 인공지능 군사적 활용사례

    Generative AI is learning to spy for the US military
    MIT Technology Review

    반네버는 AI 모델을 구축해 정보를 번역하고 위협을 탐지하며 정치적 여론을 분석하며, 결과는 ChatGPT와 유사한 채팅봇 인터페이스를 통해 제공됩니다. 이 목표는 고객에게 국제 펜타닐 공급망부터 필리핀에서 희토류 광물을 확보하려는 중국의 노력에 이르기까지 다양한 주제에 대한 중요한 정보를 제공하는 것입니다.

    군사적 판단의 오류 가능성에 대한 우려도 역시나 제기되고 있는 중

  • 앤트로픽, 대학생의 활용 보고서

    Anthropic Education Report: How University Students Use Claude
    Anthropic

    셀렉션 바이어스가 있을 가능성이 크다 하더라도 그걸 고려하며 생각해볼만한 내용이 있음

    STEM 분야 학생들은 Claude와 같은 AI 도구의 조기 채택자이며, 특히 컴퓨터 과학 전공 학생들이 과대 대표되고 있습니다(학생들의 대화의 36.8%를 차지하지만 미국 학위의 5.4%만을 차지합니다). 반면, 경영학, 보건학, 인문학 전공 학생들은 등록 인원 대비 AI 도구 채택률이 낮습니다.
    우리는 학생들이 AI와 상호작용하는 네 가지 패턴을 식별했으며, 각각의 패턴은 데이터에서 약 23-29%의 대화 비율을 차지했습니다: 직접 문제 해결, 직접 출력 생성, 협업 문제 해결, 협업 출력 생성.
    학생들은 주로 AI 시스템을 새로운 것을 배우기 위해 정보 활용(창조)과 알려진 것을 분해하고 관계를 식별하는 분석(분석)에 사용합니다. 예를 들어 코딩 프로젝트를 만들거나 법 개념을 분석하는 것이 포함됩니다. 이는 블룸의 분류법에서 고차원 인지 기능과 일치합니다. 이는 학생들이 중요한 인지 작업을 AI 시스템에 의존하지 않도록 보장하는 문제점을 제기합니다.

  • AI 전문가의 예측과 현실의 간극

    Your A.I. Radiologist Will Not Be With You Soon
    NYT

    9년 전, 세계 최고의 인공지능 과학자 중 한 명이 멸종 위기에 처한 직업 종을 골라냈습니다.

    제프리 힌튼은 “사람들은 지금 당장 방사선과 의사에 대한 교육을 멈춰야 합니다. “라고 말하며, 5년 안에 AI가 해당 분야에서 인간을 앞지르리라는 것은 “완전히 명백한 사실”이라고 덧붙였다.

    오늘날, 질병을 진단하고 치료하기 위해 신체 내부를 관찰하는 의료 영상 전문의인 방사선 전문의에 대한 수요는 여전히 높습니다. 미국 방사선학회(American College of Radiology)의 최근 연구에 따르면 2055년까지 방사선 전문의 인력은 꾸준히 증가할 것으로 예상됩니다.

  • 저널리즘 분야의 AI 활용에 대한 의견

    How We’re Using AI
    CJR

    기사에 대한 기계요약

    언론사 임원들

    지나 추아 (Gina Chua)

    • 역할: Semafor 편집장
    • 의견: “실험하거나 도태되거나” – AI를 활용해 워크플로우 간소화와 능력 확장 도구로 실험 중

    니콜라스 톰슨 (Nicholas Thompson)

    • 역할: The Atlantic CEO
    • 의견: “AI를 거짓말을 잘하는 똑똑한 조수처럼 대하라” – 연구 보조용으로만 활용, 글쓰기에는 절대 사용 안 함

    잭 세워드 (Zach Seward)

    • 역할: 뉴욕타임스 AI 이니셔티브 편집 디렉터
    • 의견: “AI 혼자로는 속임수일 뿐” – 전통적 보도와 코딩 전문성과 결합할 때만 유용

    기술 전문 기자들

    에밀리아 데이비드 (Emilia David)

    • 역할: VentureBeat 선임 AI 기자
    • 의견: “AI는 생산성용, 글쓰기용 아님” – 독자와의 신뢰 관계 유지를 위해 글쓰기는 인간이 해야 함

    제이슨 코블러 (Jason Koebler)

    • 역할: 404 Media 공동창립자
    • 의견: “인간과 연대하라, 기술회사와 말고” – AI 회사들이 기자를 대체하려 하므로 AI 사용 거부

    카리 존슨 (Khari Johnson)

    • 역할: CalMatters 기술 기자
    • 의견: AI 글쓰기 사용 시 독자에게 공개해야 하며, 기자-독자 간 신뢰 보호가 중요

    AI 회의론자들

    브라이언 머천트 (Brian Merchant)

    • 역할: “Blood in the Machine” 저자, 전 LA타임스 기술 칼럼니스트
    • 의견: “AI는 우리 업계를 잠식하고 기예를 둔화시키고 있다. 거부하라” – AI 완전 거부 주장

    트리스탄 리 (Tristan Lee)

    • 역할: 데이터 과학자, Bellingcat 조사관
    • 의견: “AI는 모든 것을 약간씩 더 나쁘게 만든다” – AI 스팸으로 인한 정보 환경 악화 우려

    AI 적극 활용자들

    벤 웰시 (Ben Welsh)

    • 역할: 로이터 뉴스 애플리케이션 데스크 창립자
    • 의견: “대형 언어모델은 게임 체인저” – 팀 코드의 약 25%를 AI가 작성

    이나 프리드 (Ina Fried)

    • 역할: Axios 수석 기술 특파원
    • 의견: “AI에 의존해서 일을 완수하라” – 판단력과 인간성 같은 대체 불가능한 기술 보강용으로 활용

    시각 저널리즘 전문가들

    사라 칼란 (Sarah Cahlan)

    • 역할: 워싱턴포스트 시각 포렌식팀 창립멤버, 퓰리처상 수상자
    • 의견: “AI를 유일한 소스로 사용하지 말라” – 위성 이미지 분석 등에 활용하지만 기자의 신중한 검토 필수

    데이비드 카슨 (David Carson)

    • 역할: 세인트루이스 포스트-디스패치 사진기자
    • 의견: “콘텐츠 자격증명 사용하라” – AI 생성 이미지는 모두 거짓이므로 C2PA 표준 도입 필요

    다양성과 환경 옹호자들

    아라셀리 고메즈-알다나 (Araceli Gómez-Aldana)

    • 역할: WBEZ 뉴스 기자, 2023년 존 S. 나이트 저널리즘 펠로우
    • 의견: “AI는 많은 언어를 구사하지만 여전히 인간 번역가가 필요” – 이중언어 저널리즘 실현 도구로 활용 희망

    시시 웨이 (Sisi Wei)

    • 역할: CalMatters와 The Markup 최고 임팩트 책임자
    • 의견: “환경 비용을 고려하라” – AI 사용 시마다 환경 영향을 생각해야 함

    국제적 관점

    카렌 뢰데 (Karen Rønde)

    • 역할: 덴마크 언론 출판 집단관리기구 CEO
    • 의견: “언론 자유를 보호하라” – AI 회사들의 정보 접근 통제가 언론 자유와 미디어 다원성에 미치는 영향 우려

  • 뉴스란 무엇인가

    What Is News?
    Pew Research Center

    자세히 읽어보면 당연하지만 재미있는 이야기들이 좀 더 있다. “편향되지 않은” 뉴스를 원하면서도 자신의 정치적 견해와 일치하는 소스 선호한다는 모순된 이용자 감정에 관한 이야기도 있다.

    • 뉴스를 정의하는 것은 이제 개인적이고 개별화된 경험이 되었습니다. 사람들은 자신의 정체성과 관심사를 포함한 다양한 요소를 바탕으로 뉴스가 자신에게 어떤 의미를 갖는지, 어떤 매체를 이용할지 결정합니다.
    • 대부분의 사람들은 뉴스로 간주되려면 정보가 사실에 기반하고, 최신이며, 사회에 중요한 정보여야 한다는 데 동의합니다. 참가자들의 말과 실제 행동 모두에서 개인적 중요성이나 관련성 또한 자주 언급되었습니다.
    • 정치와 전쟁에 대한 “경성 뉴스” 기사는 여전히 사람들이 뉴스라고 생각하는 가장 분명한 요소입니다. 미국 성인들은 선거 관련 최신 소식(66%)과 가자 전쟁 관련 정보(62%)를 “확실히 뉴스”라고 답할 가능성이 가장 높습니다.
    • 뉴스가 아닌 것에 대한 일관된 견해도 있습니다 . 사람들은 뉴스 대 오락, 뉴스 대 의견을 명확히 구분합니다.
    • 동시에, 뉴스가 “편견적”이거나 “주장적”이지 않다는 견해는 사람들의 실제 행동 및 선호도와 상충될 수 있습니다. 예를 들어, 미국인의 55%는 뉴스 매체가 자신의 정치적 견해를 공유하는 것이 적어도 어느 정도 중요하다고 생각합니다.
    • 사람들은 항상 뉴스를 좋아하는 것은 아니지만, 뉴스가 필요하다고 말합니다. 많은 사람이 뉴스에 대해 부정적인 감정(분노나 슬픔 등)을 표현하지만, 뉴스가 정보를 얻는 데 도움이 되거나 뉴스를 따라잡아야 한다고 느끼는 데 도움이 된다고도 말합니다.
    • 뉴스에 대한 사람들의 감정은 때때로 더 넓은 의미의 언론 불신이나 당시 발생했던 특정 사건과 연관되어 있으며, 개인의 정치적 정체성과 결합될 수도 있습니다. 예를 들어, 당파는 자신의 정당이나 후보에 대한 뉴스에는 긍정적으로 반응하고, 반대 정당에 대한 뉴스에는 부정적으로 반응하는 경우가 많습니다. 이는 정치적 변화에 따라 감정이 변할 수 있음을 의미합니다.
  • 독점규제의 날

    Antitrust day
    Benedict Evans

    벤 톰슨도 비슷하게 시간이 지나며 페이스북의 시장 정의는 3번이나 바뀌었다고 이야기했다. 친구기반 소셜네트워크서비스, 뉴스피드기반 콘텐츠 소비 플랫폼, 추천알고리즘 기반 엔터테인먼트 앱. 따라서 독점 규제가 쉽지 않을 것이라 말했다.

    경쟁 소송의 출발점은 시장 정의입니다. FTC는 초기 소장에서 이 정의를 포함하지 않았고, 이 때문에 소송이 기각되며 다시 제출하라는 명령을 받았습니다. 이제는 시장 정의를 포함했지만, Meta의 시장점유율이 법적 기준을 넘었다고 주장하려면 Meta가 YouTube, TikTok, iMessage와 경쟁하지 않는다고 말해야만 합니다.

    그래서 FTC의 논리는 Mark Zuckerberg의 오래된 인용문에서 시작합니다. 그는 Facebook을 ‘친구들과의 공개 공유’에 관한 플랫폼이라 했고, 이는 1:1 메시징(iMessage)이나 낯선 이들의 콘텐츠 소비(YouTube, TikTok)와는 다르다는 설명이었습니다. 하지만 이 인용은 2006년, 아이폰 출시 이전의 이야기입니다. 그 당시 Facebook에 대한 설명은 맞지만, 오늘날 Meta 사용의 상당 부분은 TikTok의 복제 서비스인 Reels에서 나오고, 또 다른 상당 부분은 Messenger에서 발생하며, 전체 사용량의 75%는 낯선 사람들의 콘텐츠 소비에서 발생합니다. Meta는 온라인의 모든 사회적 행태를 흡수하거나 모방하려 한 플랫폼입니다.

  • EU 메타와 애플에 벌금 부과

    Commission finds Apple and Meta in breach of the Digital Markets Act
    EU Commission

    오늘 유럽 집행위원회는 애플이 디지털 시장법(DMA)에 따른 반(反)조종 의무를 위반했으며, 메타(Meta)는 소비자에게 개인 정보 사용량이 적은 서비스를 선택할 수 있도록 해야 하는 DMA 의무를 위반했다고 판단했습니다. 따라서 집행위원회는 애플과 메타에 각각 5억 유로와 2억 유로의 벌금을 부과했습니다.

    […] DMA에 따르면, Apple 앱스토어를 통해 앱을 배포하는 앱 개발자는 앱스토어 외부의 대체 상품에 대해 고객에게 무료로 알리고, 해당 상품으로 고객을 유도하고, 구매를 할 수 있도록 해야 합니다. 위원회는 Apple이 이 의무를 준수하지 않았다고 판단했습니다. Apple이 부과한 여러 제한으로 인해 앱 개발자는 App Store 외부의 대체 유통 채널의 이점을 충분히 누릴 수 없습니다. 마찬가지로, Apple은 앱 개발자가 소비자에게 이러한 혜택을 직접 알리지 못하도록 금지하고 있기 때문에 소비자 또한 대체적이고 저렴한 혜택을 충분히 누릴 수 없습니다. Apple은 이러한 제한이 객관적으로 필요하고 비례적임을 입증하지 못했습니다.

    […] 2023년 11월, 메타는 ‘동의 또는 결제’ 방식의 이진 광고 모델을 도입했습니다. 이 모델에 따라 EU의 페이스북 및 인스타그램 사용자는 개인 맞춤 광고를 위한 개인 정보 결합에 동의하거나, 광고 없는 서비스를 위한 월 구독료를 지불하는 것 중 하나를 선택할 수 있었습니다. 위원회는 이 모델이 DMA(개인정보보호법)를 준수하지 않는다고 판단했습니다. 이 모델은 사용자에게 개인 정보 사용량은 적지만 ‘맞춤형 광고’ 서비스와 동등한 서비스를 선택할 수 있는 구체적인 선택권을 제공하지 않았기 때문입니다. 또한 메타 모델은 사용자가 개인 정보 조합에 자유롭게 동의할 권리를 행사할 수 있도록 허용하지 않았습니다.