Blog

  • Perplexity의 사이트 스크랩

    Perplexity Is a Bullshit Machine
    Wired

    챗봇을 통해 자연어로 답변을 제공하고 실시간으로 인터넷에 접근할 수 있다고 주장하지만 이를 위해 부정한 방법으로 데이터를 스크래핑 하고 있다는 와이어드 기사

    WIRED 분석 및 개발자 Robb Knight가 수행한 분석에 따르면, Perplexity는 웹 운영자가 봇의 접근을 원하지 않는 영역을 은밀히 크롤링하기 위해 널리 받아들여지는 웹 표준인 로봇 배제 프로토콜(Robots Exclusion Protocol)을 무시하는 방식으로 이를 부분적으로 달성하는 것으로 보입니다. WIRED는 Perplexity와 연결된 머신(더 구체적으로는 Amazon 서버에 위치하고 거의 확실히 Perplexity가 운영하는 머신)이 WIRED.com 및 다른 Condé Nast 출판물에서 이를 수행하는 것을 관찰했습니다.

  • AI에 관한 기대

    220. Are AI Expectations Too High or Misplaced?
    Hardcore Software by Steven Sinofsky

    스티븐 시놉스키의 글. LLM(대형 언어 모델)을 일반 웹 검색에 사용하는 것이 잘못된 방향으로 나아가고 있다고 경고. 창의적인 기술의 강점을 충분히 활용하지 못하게 되었다고 비판. LLM도 제한된 영역에 머물고 일반화되지 않을 가능성이 있다고 언급함.

    이러한 제품화 순간 중 하나가 발생하면 처음에는 AI의 진보로 찬양받습니다. 그러고 나면 거의 눈 깜짝할 사이에 그 혁신이 더 이상 AI로 여겨지지 않습니다. 세상은 매우 빠르게 새로운 정상으로 재설정되고, 새로운 것은 단지 멋진 것으로 간주되지만 AI로 언급되는 경우는 드뭅니다. 이것이 바로 “작동하면 더 이상 AI가 아니다”라는 오래된 속담입니다.

    우리는 지도 방향/경로, 필기, 철자 및 문법, 이미지 인식, Airbnb에서 Bumble까지 일어나는 매칭, 심지어 더 최근의 사진 향상까지 수십 년의 연구를 AI로 여기지 않고 단지 “작동하는 새로운 기능”으로 생각합니다.

  • 메타연구: 소셜 미디어와 정신건강

    Ferguson, C. J. (2024). Do social media experiments prove a link with mental health: A methodological and meta-analytic review. Psychology of Popular Media. Advance online publication. https://doi.org/10.1037/ppm0000541

    초록만 확인해 본 연구. 참고용

    소셜 미디어가 사용자의 정신적 웰빙에 영향을 미치는지 여부는 여전히 논란의 여지가 있습니다. 상관관계 연구와 종단 연구의 증거는 일관성이 없으며, 효과 크기는 최대한 약합니다. 그러나 일부 논평자들은 실험적 연구에 더 확신을 갖고 있습니다. 이러한 실험적 연구에서는 실험 그룹이 일정 기간 동안 소셜 미디어 사용을 자제하도록 요청받고, 이를 정상적으로 사용하는 통제 그룹과 비교합니다. 이 메타 분석 리뷰는 이러한 연구들이 제공한 증거를 검토합니다. 결과와 관계없이 모든 연구는 수요 특성에 관련된 상당히 명백한 약점을 가지고 있습니다. 따라서 이러한 연구 설계가 인과적 질문에 답할 수 있는지 여부는 불분명합니다. 그럼에도 불구하고, 인과적 효과에 대한 메타 분석 증거는 통계적으로 0과 다르지 않았습니다. 그러나 연구 간 이질성이 두드러졌습니다. 인용 편향이 있는 연구는 더 높은 효과 크기를 보였으며, 이는 일부 연구에서 연구 기대 효과가 나타났음을 시사합니다. 더 나은 설계와 개방 과학 원칙을 더 잘 준수하고, 약한 효과 크기의 중요성을 과장하지 않도록 주의하는 것이 이 분야의 엄격성을 향상시키는 데 도움이 될 수 있습니다.

  • BeReal 5억 유로에 인수

    BeReal is being acquired by mobile apps and games company Voodoo for €500M
    TechCrunch

    소셜 서비스란 쉽지 않다. 참신한 아이디어 이후에도 계속 이용자의 관심을 유지할 수 있는지, 기능이 다른 소셜 업체가 카피할 수 있는 단순 기능인지(마치 스토리처럼)가 중요하다. 5억 유로에 인수라고 하지만 금액의 대부분이 성과에 따라 지급된다는 이야기.

    프랑스의 모바일 앱 및 게임 퍼블리셔인 Voodoo가 5억 유로에 BeReal을 인수했습니다. 이번 인수의 일환으로 BeReal의 공동 창립자이자 CEO인 Alexis Barreyat는 과도기를 거쳐 회사를 떠날 예정입니다. 부두의 소셜 미디어 앱 중 하나인 Wizz의 CEO인 아이메릭 로페가 BeReal의 CEO로 취임할 예정입니다.

    4,000만 명 이상의 활성 사용자를 보유한 BeReal은 팬데믹 기간 동안 인기를 얻었습니다. 초기 성공에도 불구하고 이 회사는 사용자 기반을 늘리는 데 어려움을 겪어 왔으며, 자금이 부족해 구매자를 찾고 있었습니다.

  • ‘중독성’ 소셜 미디어 알고리즘을 금지하는 법안 

    New York passes legislation to ban ‘addictive’ social media algorithms for kids 
    NBC News

    ‘중독성 피드 착취 방지(SAFE) 법안’은 TikTok과 Instagram과 같은 소셜 미디어 플랫폼이 추천 알고리즘을 기반으로 18세 이하 사용자에게 콘텐츠를 제공하는 것을 금지합니다. 대신 소셜 미디어 회사들은 어린이 사용자에게 역순 연대기 피드를 제공해야 합니다.

    이 법안은 알고리즘 피드를 “중독성”이라고 설명하며, 이는 어린이의 정신 건강에 부정적인 영향을 미친다고 말합니다.

    뉴욕 법안은 “중독성 피드”를 사용자 또는 장치와 관련된 정보를 기반으로 미디어를 추천, 선택 또는 우선순위를 매기는 피드로 정의합니다. 이 법안은 주 법무장관에게 집행 규칙을 발표하도록 하고, 위반한 회사는 문제를 해결할 30일의 시간이 주어지며, 그렇지 않을 경우 18세 미만 사용자 한 명당 최대 $5,000의 벌금을 부과받게 됩니다.

    월요일에 법안이 수정되어 자정에서 오전 6시 사이에 어린이에게 알림을 보내는 것을 금지하는 조항이 삭제되었습니다.

  • 인간이 생성한 데이터가 고갈되는 시점

    Will We Run Out of Data? Limits of LLM Scaling Based on Human-Generated Data
    EPOCH AI

    현재 추세가 계속된다면, 언어 모델들은 2026년에서 2032년 사이에 이 데이터를 완전히 사용할 것으로 예상하는 연구 결과. 따라서 2030년 이후에는 새로운 방식의 혁신이 없다면 꾸준한 성장이 이루어지기 어려울 수도 있다고 이야기함

    우리는 인간이 생성한 공개 텍스트 데이터의 총량을 약 300조 토큰으로 추정합니다. 이 추정치는 훈련에 사용할 수 있을 만큼 충분히 고품질인 데이터만 포함하며, 여러 차례 훈련에 사용할 가능성을 고려한 것입니다.

    데이터의 총량을 추정한 후, 이 데이터가 언제 완전히 사용될지를 예측합니다. 우리는 데이터셋 크기의 역사적 성장률을 단순히 외삽하는 모델과 훈련 계산량 성장을 예측하고 이에 상응하는 데이터셋 크기를 도출하는 모델을 개발했습니다. 우리의 종합적인 예측에 따르면, 데이터는 2026년에서 2032년 사이에 완전히 사용될 것입니다.

  • 변호사 시험에서 과장된 챗지피티 점수

    Why ChatGPT-4’s Score on the Bar Exam May Not Be So Impressive
    NYSBA

    OpenAI가 ChatGPT-4가 바 시험에서 상위 90%에 들었고, 단 6분 만에 시험을 완료했다고 발표했었지만 이러한 결과가 과장되었을 수 있다는 이야기.

    그는 또한 2월 시험 응시자들과의 비교가 GPT-4에게 불공평한 이점을 제공했다고 말했습니다. 2월 시험에 응시하는 예비 변호사들은 주로 7월에 실패한 사람들로, 재시험 응시자들은 처음 시험을 보는 사람들보다 점수가 낮기 때문입니다. … Martinez는 단기적으로 AI가 연구를 간소화하고 사례를 인용하는 데 도움이 될 수 있지만, 변호사들이 해당 사례가 실제로 존재하는지 확인해야 한다고 말했습니다. 하지만 문서를 작성하거나 고객에게 조언을 제공하는 데 있어서의 효율성은 아직 명확하지 않다고 말했습니다.

  • ‘역피라미드’ 접근 방식과 부정적 감정

    News avoidance: Publisher rewrites journalism rulebook for most contentious stories
    Press Gadzette

    뉴질랜드의 Stuff는 뉴스 회피에 대응하기 위해 가장 논란이 많은 이야기들에 대해 전통적인 역피라미드 구조를 포기하고, 독자들이 감정적 반응을 제공할 수 있는 감정 추적기를 도입. 이를 통해 특정 기사의 작성 방식을 변경한 결과, “훨씬 덜 부정적인” 감정을 초래했다는 사실을 발견함.

    뉴질랜드의 Stuff는 뉴스 회피에 맞서 싸우기 위해 가장 논란이 많은 이야기들에 대해 전통적인 역피라미드 구조를 “포기”했습니다.

    Stuff.co.nz는 독자들에게 기사에 대한 감정적 반응을 묻는 감정 추적기를 도입했으며, 특정 기사의 작성 방식을 변경한 결과 “훨씬 덜 부정적인” 감정을 초래했다는 사실을 발견했습니다.

    모회사 Stuff의 최고 제품 책임자인 Ben Haywood는 최근 런던에서 열린 INMA 세계 뉴스 미디어 회의에서 뉴스 회피에 대한 뉴스 브랜드의 대응을 설명했습니다.

    전통적인 역피라미드 접근법은 독자에게 가장 중요한 정보를 먼저 제공하는 ‘하드 인트로’로 시작합니다 – 즉 이야기의 누가, 무엇을, 언제, 어디서, 왜에 대한 정보입니다.

    하지만 논란을 일으킬 수 있는 이야기의 경우, Stuff는 사람들을 이야기의 가장 중요한 요소와 논란의 여지가 있는 요소로 안내하는 부드러운 설명형 접근 방식을 채택했습니다. 여기에는 주관적인 견해가 포함됩니다.

  • 로이터, AI와 뉴스의 미래

    What Does the Public in Six Countries Think of Generative AI in News?
    Reuter Institute

    AI가 대부분의 뉴스를 생산할 경우, 뉴스의 품질이 덜 신뢰할 수 있고 덜 투명해질 것으로 예상하지만, 더 최신의 정보를 제공하며 제작 비용이 크게 절감될 것으로 생각. 단지 8%만이 AI가 생산한 뉴스가 인간이 생산한 뉴스보다 더 가치가 있을 것이라고 응답함. 아래는 세 가지 큰 파트 중 저널리즘 관련 세부 내용

    • 많은 대중은 기자들이 현재 생성 AI를 사용하여 특정 작업을 완료하고 있다고 생각합니다. 43%는 맞춤법 및 문법 검사에, 29%는 헤드라인 작성에, 27%는 기사 작성에 생성 AI를 항상 또는 자주 사용한다고 생각합니다.
    • 응답자의 약 32%는 인간 편집자가 AI 출력물이 출판되기 전에 올바르거나 높은 품질인지 확인한다고 생각합니다.
    • 사람들은 일반적으로 인간 기자가 작성한 뉴스가 AI가 작성한 뉴스보다 더 신뢰할 수 있다고 생각합니다.
    • 사람들이 일반적으로 조심스러워하지만, 패션(+7)과 스포츠(+5)와 같은 소프트 뉴스 주제에서는 ‘국제 문제(-21)’ 및 ‘특히 정치(-33)’와 같은 하드 뉴스 주제보다 AI가 대부분 생산한 뉴스를 사용하는 것에 대해 다소 더 편안함을 느낍니다.
    • AI가 주로 작성하고 일부 인간이 감독한 뉴스가 표시되어야 하는지 묻는 질문에 대해, 대다수의 응답자들은 최소한 일부 공개 또는 라벨링을 원합니다. 단지 5%만이 나열된 사용 사례 중 어느 것도 공개될 필요가 없다고 응답했습니다.
    • 어떤 사용 사례를 공개해야 하는지에 대한 합의는 적습니다. 약 32%는 ‘기사의 맞춤법 및 문법 검사’와 ‘헤드라인 작성’을 공개해야 한다고 생각하며, 이는 ‘기사의 텍스트 작성(47%)’ 및 ‘데이터 분석(47%)’에 대해 약 절반으로 증가합니다.
    • 다시 한번, 언론에서의 생성 AI 사용에 대한 견해를 묻는 질문에서, 응답자의 3분의 1에서 절반은 중립적인 선택을 하거나 ‘모르겠다’고 답하여 큰 불확실성과/또는 복잡성의 인식을 반영합니다.
  • 동력을 잃어가는 AI혁명

    The AI Revolution Is Already Losing Steam

    AI 혁신이 둔화되었다. OpenAI의 ChatGPT와 Google의 Gemini 같은 대형 언어 모델은 더 많은 데이터를 투입해 성능이 향상되었으나, 이제 추가할 데이터가 부족해 발전에 한계를 겪고 있다. AI 기술이 상업화되면서 성능 개선보다 비용 절감이 더 중요한 문제가 되었고, AI 스타트업들은 자금 부족으로 대기업과 경쟁하기 어려운 상황에 처했다. AI 운영 비용이 막대하여 수익성에 큰 영향을 미쳤으며, 예를 들어 Google은 AI로 생성된 검색 결과를 제공하는 데 드는 비용이 커서 이익률이 감소할 수 있다. 많은 기업들이 AI 도구를 사용하고 있지만, 실제 업무에 필수적으로 사용하는 경우는 적고 유료 사용 비율도 낮아 AI 기술의 실제 업무 활용도가 낮음을 시사했다. 기사 중 생산성에 관한 한 부분.

    AI가 생산성 증대 도구로 광고된 것만큼 생산성을 높이지 않는다는 증거도 있다. 예를 들어, University of Pennsylvania의 Wharton School 경영학 교수인 Peter Cappelli는 이러한 시스템이 일부 사람들이 업무를 수행하는 데 도움을 줄 수는 있지만 실제로 그들을 대체할 수는 없다고 말한다. 이는 AI가 급여를 절감하는 데 도움이 되지 않음을 의미한다. 그는 자율주행 트럭이 천천히 도입된 이유 중 하나는 트럭 운전이 트럭 운전사의 업무의 일부일 뿐이라는 점을 예로 들었다.