[작성자:] haeyeop

  • 퍼플렉시티, 퍼블리셔 프로그램

    Perplexity is cutting checks to publishers following plagiarism accusations
    Verge

    파트너와 수익을 쉐어하는 프로그램 시작

    Perplexity는 몇 주간의 표절 혐의에 따른 대응으로 출판 파트너들과 광고 수익을 공유하는 프로그램을 시작하고 있습니다. Perplexity의 “출판사 프로그램”은 Time, Der Spiegel, Fortune, Entrepreneur, The Texas Tribune, Automattic(WordPress.com은 참여하지만 Tumblr는 제외)와 같은 유명한 출판사들과 첫 파트너십을 체결했습니다. 이 프로그램에 따라, Perplexity가 사용자 쿼리에 대한 응답으로 이러한 출판사의 콘텐츠를 사용할 때 출판사들은 광고 수익의 일부를 받게 됩니다. 출판 파트너들은 또한 Perplexity의 Enterprise Pro 티어를 1년간 무료로 구독할 수 있으며, Perplexity의 개발자 도구에 접근할 수 있습니다. 또한 AI 스타트업인 Scalepost.ai를 통해 출판사들의 기사 검색 쿼리 발생 빈도와 같은 데이터를 제공받을 수 있습니다.

  • 챗지피티 부정행위 탐지도구

    There’s a Tool to Catch Students Cheating With ChatGPT. OpenAI Hasn’t Released It.
    WSJ

    OpenAI는 에세이나 연구 논문을 챗지피티로 작성했는지 감지할 수 있는 방법을 가지고 있다. 하지만 이용자 설문조사에서 30% 가까운 사람이 워터마크 사용시 챗지피티를 덜 사용할 것이라고 답했다. 이러한 이유로 기술을 도입하는데 있어 논쟁이 있다는 기사.

    ChatGPT는 문장에서 다음에 나올 단어나 단어 조각(토큰)을 예측하는 AI 시스템으로 구동됩니다. OpenAI에서 논의 중인 반부정행위 도구는 토큰이 선택되는 방식을 약간 변경합니다. 이러한 변경 사항은 워터마크라고 불리는 패턴을 남깁니다.

    이 워터마크는 인간의 눈에는 보이지 않지만, OpenAI의 감지 기술로 발견될 수 있습니다. 감지기는 문서 전체 또는 그 일부분이 ChatGPT에 의해 작성되었을 가능성이 얼마나 높은지를 점수로 제공합니다.

    내부 문서에 따르면, 워터마크는 ChatGPT에 의해 생성된 새로운 텍스트가 충분히 많을 때 99.9%의 효과를 보입니다.

    스탠포드 연구원인 John Thickstun은 “내일 태양이 증발할 가능성이 이 리포트에 워터마크가 없을 가능성보다 높습니다”라고 말했습니다. 그는 AI 텍스트에 대한 유사한 워터마킹 방법을 개발한 팀의 일원입니다.

  • SearchGPT

    OpenAI announces SearchGPT, its AI-powered search engine
    Verge

    구글이나 퍼플렉시티 같은 경쟁자에 대응하기 위한 제품이라 생각. 내용 자체는 크게 관심가진 않지만 나중에는 인공지능 기술과 상관없이 생태계를 구축하는 기업이 주도하는 시장이 되지 않을까 싶다.

    OpenAI의 블로그 게시물에 따르면, “SearchGPT는 검색에서 퍼블리셔를 눈에 띄게 인용하고 링크함으로써 사용자가 퍼블리셔와 연결될 수 있도록 설계되었습니다.”라고 설명합니다. “응답에는 명확한 인라인 어트리뷰션과 링크가 있어 사용자는 정보의 출처를 알 수 있고 소스 링크가 있는 사이드바에서 더 많은 결과를 빠르게 확인할 수 있습니다.”

  • 누가 방송에 돈을 내야 하는가?

    In 1924, a magazine ran a contest: “Who is to pay for broadcasting and how?” A century later, we’re still asking the same question
    Nieman Lab

    1924년 Radio Broadcast 잡지는 “방송 비용을 누가 지불해야 하는가?”라는 제목의 콘테스트를 열고 현재 라디오 방송의 문제를 해결하고 실질적인 해결책을 제시하는 실행 가능한 계획을 찾고자 했음. 여전히 같은 질문을 하고 있다는 제목

    Radio Broadcast는 약 천 개의 콘테스트 응모작을 받았습니다. 그 중 승자는 당시 최첨단 라디오 수신 기술인 진공관에 대해 2달러의 연방 세금을 제안한 HD 켈로그 주니어였습니다. 그러나 심사위원들은 이 계획에 대해 회의적이었고, 당시 상무부 장관 후버도 이를 비현실적이라고 평가했습니다.

    100년이 지난 지금도 쉽지 않은 문제다.

  • 구글의 서드파티 쿠키

    A new path for Privacy Sandbox on the web
    Privacy Sandbox

    광고쪽은 관심을 가지고 잘 보지는 않지만, 2019년정도부터 계속 이야기되던 서드 파티 쿠키 중단에 관한 이야기. 구글은 규제기관과 광고업계 이해관계자를 조정하는데 실패한 것처럼 보이며, 결국 서드 파티 쿠키 중단이 아닌 다른 방법을 선택한다고 밝힘. 그런데 마치 브라우저 독점 유럽 규제방안처럼 이용자에게 선택권을 넘기는 것처럼 보이는 결정을 한 것 같음.

    이 점을 고려하여 사용자 선택을 높이는 업데이트된 접근 방식을 제안합니다. 서드 파티 쿠키를 중단하는 대신, 사용자가 웹 브라우징 전반에 걸쳐 적용되는 정보를 바탕으로 선택을 할 수 있는 새로운 경험을 Chrome에 도입할 것입니다. 사용자는 언제든지 그 선택을 조정할 수 있습니다. 우리는 이 새로운 경로를 규제 기관과 논의 중이며, 이를 롤아웃하면서 업계와 협력할 것입니다.

  • 유럽이 오픈소스AI를 수용해야하는 이유

    Mark Zuckerberg and Daniel Ek on Why Europe Should Embrace Open-Source AI: It Risks Falling Behind Because of Incoherent and Complex Regulation, Say the Two Tech CEOs
    Spotify

    마크 저커버그와 다니엘 에크가 유럽의 인공지능 규제의 문제에 대해 언급

    EU의 일반 데이터 보호 규정(GDPR)의 불균형한 적용을 살펴보겠습니다. 이 획기적인 지침은 데이터의 사용과 흐름을 조화롭게 만들기 위한 것이었지만, 대신 EU 개인정보 보호 규제 기관들이 지연과 불확실성을 만들어내고 있으며 법률을 어떻게 적용해야 하는지에 대해 서로 합의하지 못하고 있습니다. 예를 들어, Meta는 Facebook과 Instagram에서 성인들이 공개적으로 공유한 콘텐츠로 모델을 훈련하는 것을 지연하라는 지시를 받았습니다. 이는 어떤 법률 위반 때문이 아니라 규제 기관들이 어떻게 진행해야 할지 합의하지 못했기 때문입니다. 단기적으로, 다른 지역에서 일상적으로 사용되는 데이터의 사용을 지연시키는 것은 가장 강력한 AI 모델들이 유럽의 집단 지식, 문화, 언어를 반영하지 못하게 만들며, 유럽인들은 최신 AI 제품을 사용하지 못하게 될 것입니다.

    이러한 우려는 단순히 이론적인 것이 아닙니다. 현재의 규제 불확실성 때문에 Meta는 이미지를 이해할 수 있는 기능을 가진 Llama 멀티모달과 같은 향후 모델을 출시하지 못할 것입니다. 이는 유럽 조직들이 최신 오픈소스 기술에 접근할 수 없게 되고, 유럽 시민들은 다른 사람을 위해 만들어진 AI를 사용하게 될 것임을 의미합니다.

    현실은 유럽의 주권과 경쟁력을 높이기 위해 설계된 법률들이 오히려 반대의 결과를 낳고 있다는 것입니다. 이는 우리 산업에만 국한된 것이 아닙니다: 다양한 산업 분야의 많은 유럽 최고 경영자들은 복잡하고 일관성 없는 규제 환경을 대륙의 경쟁력 부족의 한 이유로 지적하고 있습니다.

  • 학술적 글쓰기와 챗지피티

    Delving into ChatGPT usage in academic writing through excess vocabulary
    Kobak, D., Márquez, R. G., Horvát, E. Á., & Lause, J. (2024). Delving into ChatGPT usage in academic writing through excess vocabulary. arXiv preprint arXiv:2406.07016. https://doi.org/10.48550/arXiv.2406.07016

    연구에서는 ‘delves’라는 단어는 사용 빈도가 25.2배 증가했으며, ‘showcasing’은 9.2배, ‘underscores’는 9.1배 증가했다고 말한다.

    최근의 대형 언어 모델(LLM)은 인간 수준의 성능으로 텍스트를 생성하고 수정할 수 있으며, ChatGPT와 같은 시스템에서 널리 상용화되었습니다. 이러한 모델에는 명백한 한계가 있습니다: 부정확한 정보를 생성할 수 있고, 기존 편견을 강화하며, 쉽게 악용될 수 있습니다. 그럼에도 불구하고 많은 과학자들이 학술 논문 작성에 LLM을 사용하고 있습니다. 현재 학술 문헌에서 LLM 사용이 얼마나 널리 퍼져 있는지를 조사하기 위해, 우리는 학술 LLM 사용에 대한 어떤 가정도 없는 공정하고 대규모의 접근 방식을 사용했습니다. 우리는 2010년부터 2024년까지의 1,400만 개의 PubMed 초록에서 어휘 변화를 연구하여 LLM의 등장으로 인해 특정 스타일 단어의 빈도가 급격히 증가한 것을 보여주었습니다. 초과 단어 사용에 기반한 우리의 분석에 따르면, 2024년 초록의 최소 10%가 LLM으로 처리된 것으로 나타났습니다. 이 하한선은 학문 분야, 국가, 학술지에 따라 달랐으며, 일부 PubMed 하위 집합에서는 최대 30%에 달했습니다. 우리는 LLM 기반 글쓰기 도우미의 등장이 과학 문헌에 전례 없는 영향을 미쳤으며, 이는 Covid 팬데믹과 같은 주요 세계 사건의 영향을 능가한다는 것을 보여줍니다.

  • 노조 계약에서AI 보호 장치

    Mashable, PC Mag, and Lifehacker win unprecedented AI protections in new union contract
    Nieman Lab

    선례가 될 만한 계약 협상에서 Mashable, Lifehacker, PC Mag의 편집 노조는 생성 인공지능에 대한 보호를 위해 성공적으로 협상을 타결했습니다. 잠정 계약서에는 생성 AI를 사용한 출판물로 인해 노조원이 해고되거나 기본급을 삭감당하는 것을 명시적으로 금지하고 있습니다.

    제너레이티브 AI가 만든 모든 콘텐츠는 편집 책임이 있는 사람의 지시에 따라 편집 검토를 거쳐야 한다고 명시하고 있으며, 사이트에 AI가 생성한 텍스트를 게시하기로 결정한 경우 “AI 생성 콘텐츠”라는 라벨을 명확하게 표시하는 것으로 되어 있다고 한다. 최근 문제가 된 특정 직원이나 팀의 동의 없이 생성형 AI를 사용하여 특정 직원이나 팀을 사칭하는 행위도 금지한다.

  • LLM 활용한 의사와 보험사 논쟁

    In Constant Battle With Insurers, Doctors Reach for a Cudgel: A.I.
    NYT

    보험 청구를 자동화하기 위해 인공지능을 사용하는 의사, 이를 신속하게 거부하기 위해 인공지능을 활용하는 보험사.

    의사들은 AI 챗봇을 사용하여 보험 회사에 보내는 편지를 초안 작성하는 데 도움을 받고 있습니다. 이 챗봇은 몇 초 만에 편지를 작성할 수 있어, 수년 간의 법률 제도와 의료 개혁 시도보다 더 빠르게 보험 청구 승인을 받을 수 있게 합니다. Dr. Tariq는 Doximity GPT라는 HIPAA 준수 챗봇을 사용하여 보험 승인 요청 시간을 절반으로 줄였고, 승인률도 크게 향상되었습니다.

    보험 회사들도 AI를 사용하여 대량의 청구를 신속하게 거부하는 데 도움을 받고 있으며, 이러한 과정이 AI 간의 “군비 경쟁”으로 발전할 가능성이 있다는 우려도 있습니다. 보험 청구 승인 과정은 의료 비용을 줄이기 위해 고안되었지만, 의사들은 이 과정이 환자들의 건강에 해로운 영향을 미친다고 생각합니다.

  • 애플을 뒤따르는 메타

    Scoop: Meta won’t offer future multimodal AI models in EU
    Axios

    현재 Meta는 EU 사용자 데이터를 사용하여 차세대 AI 모델을 학습시키고자 하며, GDPR을 준수하는 방식으로 학습시키고 있다고 생각하지만 EU에 문의했지만 답을 얻지 못함. GDPR이 너무 광범위하고 모호해서 모른다고 생각하기 때문임. 따라서 Meta는 EU 데이터로 모델을 훈련시키지 않을 것이며, EU로부터 답변을 받기 전까지는 이러한 새로운 모델을 사용자와 스타트업 모두에 제공하지 않는다고 이야기함

    메타의 문제는 아직 최종 확정되지 않은 AI 법안이 아니라, 기존의 데이터 보호법인 GDPR(일반 데이터 보호 규정)을 준수하면서 유럽 고객의 데이터를 사용해 모델을 훈련할 수 있는 방법에 관한 것입니다.

    메타는 5월에 페이스북과 인스타그램 사용자의 공개 게시물을 이용해 향후 모델을 훈련할 계획을 발표했으며, 이에 대해 유럽 사용자들에게 옵트아웃 방법을 제공하는 20억 건 이상의 알림을 발송했다고 밝혔습니다. 훈련은 6월에 시작될 예정이었습니다. 메타는 공개 발표 몇 달 전부터 EU 규제 당국에게 이 계획을 브리핑했으며, 최소한의 피드백만 받았고 이를 반영했다고 주장했습니다. 6월에는 EU 데이터로의 훈련 중단 명령을 받았고, 몇 주 후에는 지역 전역의 데이터 개인정보 보호 규제 기관들로부터 수십 가지 질문을 받았습니다.