Gen AI: too much spend, too little benefit?
인공지능에 향후 1조 달러 투자가 예정되어 있으나 노동 생산성이 얼마나 증가하게 될지는 자동화의 범위, 비용 효율성, 노동 재배치에 대한 가정 차이로 큰 차이를 보이며, 기술 혁신에 대해 부정하지는 않지만 장기적 관점에서 비용절감과 가격인하가 이루어져야 할 것이라고 본다.
Gen AI: too much spend, too little benefit?
인공지능에 향후 1조 달러 투자가 예정되어 있으나 노동 생산성이 얼마나 증가하게 될지는 자동화의 범위, 비용 효율성, 노동 재배치에 대한 가정 차이로 큰 차이를 보이며, 기술 혁신에 대해 부정하지는 않지만 장기적 관점에서 비용절감과 가격인하가 이루어져야 할 것이라고 본다.
In Constant Battle With Insurers, Doctors Reach for a Cudgel: A.I.
NYT
보험 청구를 자동화하기 위해 인공지능을 사용하는 의사, 이를 신속하게 거부하기 위해 인공지능을 활용하는 보험사.
의사들은 AI 챗봇을 사용하여 보험 회사에 보내는 편지를 초안 작성하는 데 도움을 받고 있습니다. 이 챗봇은 몇 초 만에 편지를 작성할 수 있어, 수년 간의 법률 제도와 의료 개혁 시도보다 더 빠르게 보험 청구 승인을 받을 수 있게 합니다. Dr. Tariq는 Doximity GPT라는 HIPAA 준수 챗봇을 사용하여 보험 승인 요청 시간을 절반으로 줄였고, 승인률도 크게 향상되었습니다.
보험 회사들도 AI를 사용하여 대량의 청구를 신속하게 거부하는 데 도움을 받고 있으며, 이러한 과정이 AI 간의 “군비 경쟁”으로 발전할 가능성이 있다는 우려도 있습니다. 보험 청구 승인 과정은 의료 비용을 줄이기 위해 고안되었지만, 의사들은 이 과정이 환자들의 건강에 해로운 영향을 미친다고 생각합니다.
AI’s Second Order Effects
a16z, by Alex Rampell
Uber와 같은 것의 “왜 지금인가”는 스마트폰이었고, Workday와 같은 것의 “왜 지금인가”는 클라우드의 수용이었으며, Adobe와 같은 것의 “왜 지금인가”는 GUI PC의 확산이었다고 말한다.
과거에 높은 지원 비용, 영업 비용 등으로 인해 실패했던 비즈니스 모델이 AI 도구의 극적으로 새로운 비용 구조에서 “왜 지금인가”를 발견할 수 있을 것입니다.
AI가 기존 기업의 비용을 절감할 것이라는 데는 의문의 여지가 없습니다 — 여기에 알려진 사실에 대한 것입니다. 그러나 AI는 아마도 AI가 주요 “제공”이 아니지만 소비자가 지불할 의사가 있는 가격대에서 지속 가능한 비즈니스를 허용하는 더 많은 클래식 소프트웨어 회사와 시장을 생성할 것입니다.
The AI Revolution Is Already Losing Steam
AI 혁신이 둔화되었다. OpenAI의 ChatGPT와 Google의 Gemini 같은 대형 언어 모델은 더 많은 데이터를 투입해 성능이 향상되었으나, 이제 추가할 데이터가 부족해 발전에 한계를 겪고 있다. AI 기술이 상업화되면서 성능 개선보다 비용 절감이 더 중요한 문제가 되었고, AI 스타트업들은 자금 부족으로 대기업과 경쟁하기 어려운 상황에 처했다. AI 운영 비용이 막대하여 수익성에 큰 영향을 미쳤으며, 예를 들어 Google은 AI로 생성된 검색 결과를 제공하는 데 드는 비용이 커서 이익률이 감소할 수 있다. 많은 기업들이 AI 도구를 사용하고 있지만, 실제 업무에 필수적으로 사용하는 경우는 적고 유료 사용 비율도 낮아 AI 기술의 실제 업무 활용도가 낮음을 시사했다. 기사 중 생산성에 관한 한 부분.
AI가 생산성 증대 도구로 광고된 것만큼 생산성을 높이지 않는다는 증거도 있다. 예를 들어, University of Pennsylvania의 Wharton School 경영학 교수인 Peter Cappelli는 이러한 시스템이 일부 사람들이 업무를 수행하는 데 도움을 줄 수는 있지만 실제로 그들을 대체할 수는 없다고 말한다. 이는 AI가 급여를 절감하는 데 도움이 되지 않음을 의미한다. 그는 자율주행 트럭이 천천히 도입된 이유 중 하나는 트럭 운전이 트럭 운전사의 업무의 일부일 뿐이라는 점을 예로 들었다.
Why ChatGPT-4’s Score on the Bar Exam May Not Be So Impressive
NYSBA
OpenAI가 ChatGPT-4가 바 시험에서 상위 90%에 들었고, 단 6분 만에 시험을 완료했다고 발표했었지만 이러한 결과가 과장되었을 수 있다는 이야기.
그는 또한 2월 시험 응시자들과의 비교가 GPT-4에게 불공평한 이점을 제공했다고 말했습니다. 2월 시험에 응시하는 예비 변호사들은 주로 7월에 실패한 사람들로, 재시험 응시자들은 처음 시험을 보는 사람들보다 점수가 낮기 때문입니다. … Martinez는 단기적으로 AI가 연구를 간소화하고 사례를 인용하는 데 도움이 될 수 있지만, 변호사들이 해당 사례가 실제로 존재하는지 확인해야 한다고 말했습니다. 하지만 문서를 작성하거나 고객에게 조언을 제공하는 데 있어서의 효율성은 아직 명확하지 않다고 말했습니다.
Will We Run Out of Data? Limits of LLM Scaling Based on Human-Generated Data
EPOCH AI
현재 추세가 계속된다면, 언어 모델들은 2026년에서 2032년 사이에 이 데이터를 완전히 사용할 것으로 예상하는 연구 결과. 따라서 2030년 이후에는 새로운 방식의 혁신이 없다면 꾸준한 성장이 이루어지기 어려울 수도 있다고 이야기함
우리는 인간이 생성한 공개 텍스트 데이터의 총량을 약 300조 토큰으로 추정합니다. 이 추정치는 훈련에 사용할 수 있을 만큼 충분히 고품질인 데이터만 포함하며, 여러 차례 훈련에 사용할 가능성을 고려한 것입니다.
데이터의 총량을 추정한 후, 이 데이터가 언제 완전히 사용될지를 예측합니다. 우리는 데이터셋 크기의 역사적 성장률을 단순히 외삽하는 모델과 훈련 계산량 성장을 예측하고 이에 상응하는 데이터셋 크기를 도출하는 모델을 개발했습니다. 우리의 종합적인 예측에 따르면, 데이터는 2026년에서 2032년 사이에 완전히 사용될 것입니다.

220. Are AI Expectations Too High or Misplaced?
Hardcore Software by Steven Sinofsky
스티븐 시놉스키의 글. LLM(대형 언어 모델)을 일반 웹 검색에 사용하는 것이 잘못된 방향으로 나아가고 있다고 경고. 창의적인 기술의 강점을 충분히 활용하지 못하게 되었다고 비판. LLM도 제한된 영역에 머물고 일반화되지 않을 가능성이 있다고 언급함.
이러한 제품화 순간 중 하나가 발생하면 처음에는 AI의 진보로 찬양받습니다. 그러고 나면 거의 눈 깜짝할 사이에 그 혁신이 더 이상 AI로 여겨지지 않습니다. 세상은 매우 빠르게 새로운 정상으로 재설정되고, 새로운 것은 단지 멋진 것으로 간주되지만 AI로 언급되는 경우는 드뭅니다. 이것이 바로 “작동하면 더 이상 AI가 아니다”라는 오래된 속담입니다.
우리는 지도 방향/경로, 필기, 철자 및 문법, 이미지 인식, Airbnb에서 Bumble까지 일어나는 매칭, 심지어 더 최근의 사진 향상까지 수십 년의 연구를 AI로 여기지 않고 단지 “작동하는 새로운 기능”으로 생각합니다.
Perplexity Is a Bullshit Machine
Wired
챗봇을 통해 자연어로 답변을 제공하고 실시간으로 인터넷에 접근할 수 있다고 주장하지만 이를 위해 부정한 방법으로 데이터를 스크래핑 하고 있다는 와이어드 기사
WIRED 분석 및 개발자 Robb Knight가 수행한 분석에 따르면, Perplexity는 웹 운영자가 봇의 접근을 원하지 않는 영역을 은밀히 크롤링하기 위해 널리 받아들여지는 웹 표준인 로봇 배제 프로토콜(Robots Exclusion Protocol)을 무시하는 방식으로 이를 부분적으로 달성하는 것으로 보입니다. WIRED는 Perplexity와 연결된 머신(더 구체적으로는 Amazon 서버에 위치하고 거의 확실히 Perplexity가 운영하는 머신)이 WIRED.com 및 다른 Condé Nast 출판물에서 이를 수행하는 것을 관찰했습니다.
‘Little Tech’ brings a big flex to Sacramento
Politico
잘못된 규제 정책에 대한 사례를 자꾸 스크랩하게 되는데 아마도 최근에 이런 일이 많이 발생하기 때문은 아닌지. 인공지능에 대한 과도한 우려때문에 그런건 아닌가 싶음. 벤처쪽 입장은 엑셀로 인해 발생한 사기사건에 대한 책임을 마이크로소프트가 져야한다는 것과 같다는 식으로 비유하기도 함. AB5에 대한 언급도 나오는 중.
에어비앤비, 드롭박스, 도어대시를 탄생시킨 벤처 캐피탈 회사인 Y Combinator가 오늘 주 상원의원 스콧 위너의 법안에 반대하는 첫 포문을 열었습니다. 이 법안은 대형 AI 모델이 안전성 테스트를 거치도록 요구하는 내용을 담고 있습니다.
… 위너의 상원 법안 1047은 2월에 처음 도입된 이후 규제를 경계하는 테크 기업들의 표적이 되어왔지만, 큰 저항 없이 원래의 하원을 통과했습니다. 이제 이 법안은 주 의회에서 강한 반대에 직면하고 있으며, 반대자들은 이 법안이 자국 산업을 저해할 것이라고 주장하며 압력을 높이고 있습니다.
이 법안은 훈련에 1억 달러 이상의 비용이 드는 가장 큰 AI ‘프런티어 모델’의 개발자가 시스템의 위험 평가를 실시하도록 요구하여, 재앙적 피해를 예방하는 것을 목표로 하고 있습니다. 위너는 오랫동안 이 요구 사항을 합리적이라고 주장해 왔습니다. 이번 주 초 그는 이 법안이 “가벼운 접근”이라고 말했습니다. 많은 기업들은 동의하지 않습니다.
Apple Won’t Roll Out AI Tech In EU Market Over Regulatory Concerns
개인보호와 경쟁 사이 절충안이 제시되어야하지만, 명확하지 않기 때문에 기능을 출시하지 않겠다고 말한 애플.
애플은 디지털 시장법(DMA)이 자사 제품과 서비스의 보안을 저하시킬 수 있다는 이유로 애플 인텔리전스, 아이폰 미러링 및 SharePlay 화면 공유 기능을 올해 EU 사용자들에게 제공하지 않겠다고 발표했습니다.
애플은 성명에서 “DMA의 상호 운용성 요구사항이 제품의 무결성을 손상시켜 사용자 개인정보와 데이터 보안을 위험에 빠뜨릴 수 있다”고 밝혔습니다.