[작성자:] haeyeop

  • 스테이블디퓨전 활용 그래픽노블

    거의 대부분 SD를 활용해서 만든 그래픽 노블. iComix 모델을 사용하고, 얼굴 일관성을 위해서 프롬프트에 유명인을 활용했고, 의상 일관성을 위해 ControlNet 레퍼런스 모델 활용했다고 밝히고 있음.

  • 인공지능 과도한 지출, 적은 수익

    Gen AI: too much spend, too little benefit?

    인공지능에 향후 1조 달러 투자가 예정되어 있으나 노동 생산성이 얼마나 증가하게 될지는 자동화의 범위, 비용 효율성, 노동 재배치에 대한 가정 차이로 큰 차이를 보이며, 기술 혁신에 대해 부정하지는 않지만 장기적 관점에서 비용절감과 가격인하가 이루어져야 할 것이라고 본다.

  • LLM 활용한 의사와 보험사 논쟁

    In Constant Battle With Insurers, Doctors Reach for a Cudgel: A.I.
    NYT

    보험 청구를 자동화하기 위해 인공지능을 사용하는 의사, 이를 신속하게 거부하기 위해 인공지능을 활용하는 보험사.

    의사들은 AI 챗봇을 사용하여 보험 회사에 보내는 편지를 초안 작성하는 데 도움을 받고 있습니다. 이 챗봇은 몇 초 만에 편지를 작성할 수 있어, 수년 간의 법률 제도와 의료 개혁 시도보다 더 빠르게 보험 청구 승인을 받을 수 있게 합니다. Dr. Tariq는 Doximity GPT라는 HIPAA 준수 챗봇을 사용하여 보험 승인 요청 시간을 절반으로 줄였고, 승인률도 크게 향상되었습니다.

    보험 회사들도 AI를 사용하여 대량의 청구를 신속하게 거부하는 데 도움을 받고 있으며, 이러한 과정이 AI 간의 “군비 경쟁”으로 발전할 가능성이 있다는 우려도 있습니다. 보험 청구 승인 과정은 의료 비용을 줄이기 위해 고안되었지만, 의사들은 이 과정이 환자들의 건강에 해로운 영향을 미친다고 생각합니다.

  • 연구: 환각과 의미적 엔트로피

    Farquhar, S., Kossen, J., Kuhn, L. et al. Detecting hallucinations in large language models using semantic entropy. Nature 630, 625–630 (2024). https://doi.org/10.1038/s41586-024-07421-0

    환각을 탐지하는 방법에 관한 네이처 논문. 동일 질문에 대한 답변을 샘플링하여 의미적으로 클러스터를 만들어 엔트로피를 측정하는 방식을 활용. 하지만 언어 모델의 체계적으로(?) 잘못된 답변을 생성한다면, 이를 탐지할 수 있는 방법은 아닐 수도 있음.

    대형 언어 모델(LLM) 시스템, 예를 들어 ChatGPT1이나 Gemini2와 같은 시스템은 인상적인 추론 및 질문 응답 능력을 보여줄 수 있지만 종종 잘못된 출력과 근거 없는 답변을 생성하는 ‘환각(hallucinations)’을 보입니다. 신뢰할 수 없거나 필요한 정보 없이 답변하는 것은 다양한 분야에서의 채택을 저해하며, 여기에는 법적 판례의 날조, 뉴스 기사에서의 거짓 사실, 그리고 방사선학과 같은 의료 분야에서 인명에 위협을 가하는 경우가 포함됩니다. 감독 또는 강화 학습을 통해 진실성을 장려하려는 시도는 부분적으로만 성공했습니다. 연구자들은 인간이 답을 모를 수 있는 새로운 질문에 대해서도 작동하는 일반적인 환각 탐지 방법이 필요합니다. 여기서 우리는 통계에 기반한 새로운 방법을 개발하여, LLM의 임의적이고 잘못된 생성물인 일부 환각(특히 confabulations)을 탐지하는 엔트로피 기반 불확실성 추정기를 제안합니다. 이 방법은 하나의 아이디어가 여러 방식으로 표현될 수 있다는 사실을 고려하여 특정 단어 시퀀스가 아닌 의미 수준에서 불확실성을 계산합니다. 이 방법은 작업에 대한 사전 지식 없이 데이터셋과 작업 전반에 걸쳐 작동하며, 이전에 보지 못한 새로운 작업에도 강건하게 일반화됩니다. 입력이 confabulation을 일으킬 가능성이 높은 경우를 탐지함으로써, 이 방법은 사용자가 LLM을 사용할 때 특별히 주의해야 할 상황을 이해하도록 도우며, LLM의 불신으로 인해 방해받는 새로운 가능성을 열어줍니다.

  • 애플 EU규제로 AI 기능 출시 중단

    Apple Won’t Roll Out AI Tech In EU Market Over Regulatory Concerns

    개인보호와 경쟁 사이 절충안이 제시되어야하지만, 명확하지 않기 때문에 기능을 출시하지 않겠다고 말한 애플.

    애플은 디지털 시장법(DMA)이 자사 제품과 서비스의 보안을 저하시킬 수 있다는 이유로 애플 인텔리전스, 아이폰 미러링 및 SharePlay 화면 공유 기능을 올해 EU 사용자들에게 제공하지 않겠다고 발표했습니다.

    애플은 성명에서 “DMA의 상호 운용성 요구사항이 제품의 무결성을 손상시켜 사용자 개인정보와 데이터 보안을 위험에 빠뜨릴 수 있다”고 밝혔습니다.

  • Perplexity의 사이트 스크랩

    Perplexity Is a Bullshit Machine
    Wired

    챗봇을 통해 자연어로 답변을 제공하고 실시간으로 인터넷에 접근할 수 있다고 주장하지만 이를 위해 부정한 방법으로 데이터를 스크래핑 하고 있다는 와이어드 기사

    WIRED 분석 및 개발자 Robb Knight가 수행한 분석에 따르면, Perplexity는 웹 운영자가 봇의 접근을 원하지 않는 영역을 은밀히 크롤링하기 위해 널리 받아들여지는 웹 표준인 로봇 배제 프로토콜(Robots Exclusion Protocol)을 무시하는 방식으로 이를 부분적으로 달성하는 것으로 보입니다. WIRED는 Perplexity와 연결된 머신(더 구체적으로는 Amazon 서버에 위치하고 거의 확실히 Perplexity가 운영하는 머신)이 WIRED.com 및 다른 Condé Nast 출판물에서 이를 수행하는 것을 관찰했습니다.

  • 메타연구: 소셜 미디어와 정신건강

    Ferguson, C. J. (2024). Do social media experiments prove a link with mental health: A methodological and meta-analytic review. Psychology of Popular Media. Advance online publication. https://doi.org/10.1037/ppm0000541

    초록만 확인해 본 연구. 참고용

    소셜 미디어가 사용자의 정신적 웰빙에 영향을 미치는지 여부는 여전히 논란의 여지가 있습니다. 상관관계 연구와 종단 연구의 증거는 일관성이 없으며, 효과 크기는 최대한 약합니다. 그러나 일부 논평자들은 실험적 연구에 더 확신을 갖고 있습니다. 이러한 실험적 연구에서는 실험 그룹이 일정 기간 동안 소셜 미디어 사용을 자제하도록 요청받고, 이를 정상적으로 사용하는 통제 그룹과 비교합니다. 이 메타 분석 리뷰는 이러한 연구들이 제공한 증거를 검토합니다. 결과와 관계없이 모든 연구는 수요 특성에 관련된 상당히 명백한 약점을 가지고 있습니다. 따라서 이러한 연구 설계가 인과적 질문에 답할 수 있는지 여부는 불분명합니다. 그럼에도 불구하고, 인과적 효과에 대한 메타 분석 증거는 통계적으로 0과 다르지 않았습니다. 그러나 연구 간 이질성이 두드러졌습니다. 인용 편향이 있는 연구는 더 높은 효과 크기를 보였으며, 이는 일부 연구에서 연구 기대 효과가 나타났음을 시사합니다. 더 나은 설계와 개방 과학 원칙을 더 잘 준수하고, 약한 효과 크기의 중요성을 과장하지 않도록 주의하는 것이 이 분야의 엄격성을 향상시키는 데 도움이 될 수 있습니다.

  • BeReal 5억 유로에 인수

    BeReal is being acquired by mobile apps and games company Voodoo for €500M
    TechCrunch

    소셜 서비스란 쉽지 않다. 참신한 아이디어 이후에도 계속 이용자의 관심을 유지할 수 있는지, 기능이 다른 소셜 업체가 카피할 수 있는 단순 기능인지(마치 스토리처럼)가 중요하다. 5억 유로에 인수라고 하지만 금액의 대부분이 성과에 따라 지급된다는 이야기.

    프랑스의 모바일 앱 및 게임 퍼블리셔인 Voodoo가 5억 유로에 BeReal을 인수했습니다. 이번 인수의 일환으로 BeReal의 공동 창립자이자 CEO인 Alexis Barreyat는 과도기를 거쳐 회사를 떠날 예정입니다. 부두의 소셜 미디어 앱 중 하나인 Wizz의 CEO인 아이메릭 로페가 BeReal의 CEO로 취임할 예정입니다.

    4,000만 명 이상의 활성 사용자를 보유한 BeReal은 팬데믹 기간 동안 인기를 얻었습니다. 초기 성공에도 불구하고 이 회사는 사용자 기반을 늘리는 데 어려움을 겪어 왔으며, 자금이 부족해 구매자를 찾고 있었습니다.

  • AI에 관한 기대

    220. Are AI Expectations Too High or Misplaced?
    Hardcore Software by Steven Sinofsky

    스티븐 시놉스키의 글. LLM(대형 언어 모델)을 일반 웹 검색에 사용하는 것이 잘못된 방향으로 나아가고 있다고 경고. 창의적인 기술의 강점을 충분히 활용하지 못하게 되었다고 비판. LLM도 제한된 영역에 머물고 일반화되지 않을 가능성이 있다고 언급함.

    이러한 제품화 순간 중 하나가 발생하면 처음에는 AI의 진보로 찬양받습니다. 그러고 나면 거의 눈 깜짝할 사이에 그 혁신이 더 이상 AI로 여겨지지 않습니다. 세상은 매우 빠르게 새로운 정상으로 재설정되고, 새로운 것은 단지 멋진 것으로 간주되지만 AI로 언급되는 경우는 드뭅니다. 이것이 바로 “작동하면 더 이상 AI가 아니다”라는 오래된 속담입니다.

    우리는 지도 방향/경로, 필기, 철자 및 문법, 이미지 인식, Airbnb에서 Bumble까지 일어나는 매칭, 심지어 더 최근의 사진 향상까지 수십 년의 연구를 AI로 여기지 않고 단지 “작동하는 새로운 기능”으로 생각합니다.

  • 인공지능 법안에 실리콘벨리 반발

    ‘Little Tech’ brings a big flex to Sacramento
    Politico

    잘못된 규제 정책에 대한 사례를 자꾸 스크랩하게 되는데 아마도 최근에 이런 일이 많이 발생하기 때문은 아닌지. 인공지능에 대한 과도한 우려때문에 그런건 아닌가 싶음. 벤처쪽 입장은 엑셀로 인해 발생한 사기사건에 대한 책임을 마이크로소프트가 져야한다는 것과 같다는 식으로 비유하기도 함. AB5에 대한 언급도 나오는 중.

    에어비앤비, 드롭박스, 도어대시를 탄생시킨 벤처 캐피탈 회사인 Y Combinator가 오늘 주 상원의원 스콧 위너의 법안에 반대하는 첫 포문을 열었습니다. 이 법안은 대형 AI 모델이 안전성 테스트를 거치도록 요구하는 내용을 담고 있습니다.

    … 위너의 상원 법안 1047은 2월에 처음 도입된 이후 규제를 경계하는 테크 기업들의 표적이 되어왔지만, 큰 저항 없이 원래의 하원을 통과했습니다. 이제 이 법안은 주 의회에서 강한 반대에 직면하고 있으며, 반대자들은 이 법안이 자국 산업을 저해할 것이라고 주장하며 압력을 높이고 있습니다.

    이 법안은 훈련에 1억 달러 이상의 비용이 드는 가장 큰 AI ‘프런티어 모델’의 개발자가 시스템의 위험 평가를 실시하도록 요구하여, 재앙적 피해를 예방하는 것을 목표로 하고 있습니다. 위너는 오랫동안 이 요구 사항을 합리적이라고 주장해 왔습니다. 이번 주 초 그는 이 법안이 “가벼운 접근”이라고 말했습니다. 많은 기업들은 동의하지 않습니다.