[작성자:] haeyeop

  • 메타의 반좌편향 인공지능

    Meta’s move on AI bias raises risk, eyebrows
    Axios

    메타는 우파의 각성에 대한 반발을 수용하여 인공지능 모델에서 편향을 제거하려고 한다고. 몇 개의 테스트에서 라마는 우편향적, 챗지피티는 좌편향적 답변을 보인다고 알려지기도 했다. 하지만 생각보다 간단한 일은 아닌듯

    작동 방식: Hugging Face의 커뮤니티 및 협업 책임자 바이바브 스리바스타브(Vaibhav Srivastav)는 Axios에 다음과 같이 설명했다.

    • 모델 학습 전 단계에서는 어떤 데이터를 포함·제외할지, 그리고 각각의 데이터 출처에 어떤 가중치를 둘지를 결정할 수 있다.
    • 후기 학습 단계(파인튜닝)에서는 여러 기법을 사용해 모델의 방향을 조정할 수 있다.
      대표적으로 인간 피드백 기반 강화학습(RLHF) 방식은 선호되는 응답 유형을 모델에 학습시키는 것이다.
    • 또 다른 방법으로는 시스템 레벨 프롬프트를 추가해 답변 방식 자체를 바꾸는 것이다.
      그러나 이 방식은 거칠고 예측 불가능한 결과를 낳을 수 있다. 실제로 Meta와 Google은 이 방식으로 편향을 보정하려다, 흑인 미국 건국의 아버지나 다양한 인종의 나치 병사 같은 역사적으로 말이 안 되는 이미지를 생성한 바 있다.

    [ … ] Meta와 Grok는 다른 AI 모델들이 좌편향되어 있다고 비판하지만, 전문가들은 실상은 훨씬 복잡하다고 말한다.

    편향의 주요 원천은 훈련 데이터이다. 대부분의 주요 AI 모델은 훈련 데이터의 구체적인 내용을 공개하지 않지만, 인터넷에 공개된 대부분의 영어 콘텐츠를 크롤링한 것으로 알려져 있다.

    이 때문에 모델은 영어(특히 미국식 영어)에 담긴 관점에 편향될 수밖에 없다.

  • 테이크잇다운 법안

    Take It Down Act heads to Trump’s desk
    The Verge

    NDII(nonconsensual distribution of intimate images)를 범죄화하는 법안

    하원이 409 대 2로 통과시킨 ‘테이크 잇 다운 법(Take It Down Act)’이 도널드 트럼프 대통령의 책상으로 향하고 있습니다. 이 법안은 소셜 미디어 기업들이 동의 없이 촬영된 성적인 이미지(AI 생성 이미지 포함)로 표시된 콘텐츠를 삭제하도록 의무화하는 내용입니다. 

  • 대학에서 AI 부정행위

    Rampant AI Cheating Is Ruining Education Alarmingly Fast
    Intelligence

    시험이 무엇을 측정해야하는 것일까

    2023년 1월, OpenAI가 ChatGPT를 출시한 지 불과 두 달 후, 1,000명의 대학생을 대상으로 한 조사에서 거의 90%가 숙제를 도와달라고 챗봇을 사용했다고 나타났다. 대형 주립대학교, 아이비리그, 뉴잉글랜드의 리버럴 아츠 스쿨, 해외 대학교, 전문대학원, 커뮤니티 칼리지의 학생들이 교육의 모든 측면을 편하게 만들기 위해 AI에 의존하고 있다. 생성형 AI 챗봇들 – ChatGPT뿐만 아니라 구글의 Gemini, Anthropic의 Claude, 마이크로소프트의 Copilot 등 – 이 수업 중 노트를 작성하고, 학습 가이드와 연습 시험을 만들고, 소설과 교과서를 요약하고, 에세이를 브레인스토밍하고 개요를 잡고 초안을 작성한다.

  • 과소평가되는 플랫폼 파워

    Platform Power Is Underrated
    Stratechery

    플랫폼 권력의 본질을 “사용자 수요” 그 자체라고 이야기하며, 사용자가 많으면 개발자들은 어떤 조건이라도 받아들인다고 말함

    현실은 플랫폼이 닭이 먼저냐 달걀이 먼저냐의 문제가 아니라는 것입니다. 무엇이 먼저냐는 매우 명확하며, 바로 사용자입니다. 사용자가 생기면 애플리케이션에 대한 수요가 발생하고, 이것이 개발자들이 앱을 개발하도록 하는 유일한 동기입니다. 더욱이, 이러한 인센티브는 매우 강력해서 그 사용자들에게 도달하기 위해 얼마나 많은 장애물을 극복해야 하는지는 중요하지 않습니다. 그렇기 때문에 애플의 오랜 앱스토어 정책은, 비록 그 정책이 아무리 악랄했더라도, 궁극적으로 아이폰이 완벽한 앱을 제공하는 것을 막지 못했고, 더 나아가 아이폰의 최종 사용자로서의 매력을 떨어뜨리지 못했습니다.

  • 다시 채용하는 클라르나

    Klarna changes its AI tune and again recruits humans for customer service
    CXDIVE

    클라르나(Klarna)는 AI 챗봇이 700명의 담당자 역할을 할 수 있다고 주장한 지 1년이 지났지만 , 이제 고객 서비스 업무의 더 많은 부분을 사람에게 맡기고 있습니다. […] 고객은 여전히 직접 상담하고 싶어 하며 , 특히 복잡하거나 민감한 문제에 대해서는 더욱 그렇습니다. 3월에 실시된 Five9 설문조사에 따르면 고객의 86%는 우수한 고객 경험을 제공하기 위해 공감과 인간적인 유대감이 빠른 대응보다 더 중요하다고 생각하는 것으로 나타났습니다.

  • EU 메타와 애플에 벌금 부과

    Commission finds Apple and Meta in breach of the Digital Markets Act
    EU Commission

    오늘 유럽 집행위원회는 애플이 디지털 시장법(DMA)에 따른 반(反)조종 의무를 위반했으며, 메타(Meta)는 소비자에게 개인 정보 사용량이 적은 서비스를 선택할 수 있도록 해야 하는 DMA 의무를 위반했다고 판단했습니다. 따라서 집행위원회는 애플과 메타에 각각 5억 유로와 2억 유로의 벌금을 부과했습니다.

    […] DMA에 따르면, Apple 앱스토어를 통해 앱을 배포하는 앱 개발자는 앱스토어 외부의 대체 상품에 대해 고객에게 무료로 알리고, 해당 상품으로 고객을 유도하고, 구매를 할 수 있도록 해야 합니다. 위원회는 Apple이 이 의무를 준수하지 않았다고 판단했습니다. Apple이 부과한 여러 제한으로 인해 앱 개발자는 App Store 외부의 대체 유통 채널의 이점을 충분히 누릴 수 없습니다. 마찬가지로, Apple은 앱 개발자가 소비자에게 이러한 혜택을 직접 알리지 못하도록 금지하고 있기 때문에 소비자 또한 대체적이고 저렴한 혜택을 충분히 누릴 수 없습니다. Apple은 이러한 제한이 객관적으로 필요하고 비례적임을 입증하지 못했습니다.

    […] 2023년 11월, 메타는 ‘동의 또는 결제’ 방식의 이진 광고 모델을 도입했습니다. 이 모델에 따라 EU의 페이스북 및 인스타그램 사용자는 개인 맞춤 광고를 위한 개인 정보 결합에 동의하거나, 광고 없는 서비스를 위한 월 구독료를 지불하는 것 중 하나를 선택할 수 있었습니다. 위원회는 이 모델이 DMA(개인정보보호법)를 준수하지 않는다고 판단했습니다. 이 모델은 사용자에게 개인 정보 사용량은 적지만 ‘맞춤형 광고’ 서비스와 동등한 서비스를 선택할 수 있는 구체적인 선택권을 제공하지 않았기 때문입니다. 또한 메타 모델은 사용자가 개인 정보 조합에 자유롭게 동의할 권리를 행사할 수 있도록 허용하지 않았습니다.

  • MCP 문제

    AI middleware
    Benedict Evans

    첫째, 매우 다양하고 복잡한 소프트웨어를 표준화된 범용 계층으로 추상화하려고 하는데, 이는 ‘최소공약수’ 문제를 야기합니다. 미들웨어는 기반 도구가 생성하는 모든 기능을 지원할 수 없습니다(스티브 잡스의 ‘플래시에 대한 메모’ 참조). 둘째, Instacart가 왜 다른 회사의 수조 달러 규모 기업을 위한 단순한 API 호출이 되고 싶어 할까요? Instacart는 광고로 모든 수익을 창출하고, Uber는 검은색 승용차와 구독 상품을 판매하고 싶어 하며, Salesforce는 새로운 LLM 도구를 사용하기를 원합니다. 다른 누군가가 사용자 경험을 통제하고 고객을 소유하는 것을 원하지 않기 때문입니다.

    스티브 잡스는 플래시와 관련해 Flash는 너무 복잡하고, 배터리를 소모하며, 보안 문제도 많고, 터치 인터페이스에도 맞지 않는다. 그리고 Flash 같은 미들웨어는 개발자가 플랫폼의 고급 기능을 쓰지 못하게 만든다는 요지로 말했었다. 너무 오래 전 이야기. 요즘 사람들은 플래시를 기억하기는 할까?

  • AI를 활용해 워터마크 지우는 사람들

    People are using Google’s new AI model to remove watermarks from images
    TechCrunch

    지난주, 구글은 제미니 2.0 플래시 모델의 이미지 생성 기능에 대한 접근성을 확대했습니다. 이 기능을 통해 제미니는 이미지 콘텐츠를 자체적으로 생성하고 편집할 수 있습니다. 모든 면에서 강력한 기능 입니다 . 하지만 몇 가지 단점도 있는 것 같습니다. 제미니 2.0 플래시는 유명인 과 저작권이 있는 캐릭터를 묘사한 이미지를 아무런 문제없이 생성할 수 있으며, 앞서 언급했듯이 기존 사진의 워터마크도 제거합니다.

  • 저널리즘의 워라밸

    State of Work-Life Balance in Journalism 2025
    MuchRack

    언젠가 인용했던 자료인데 저장할 용도

    • 언론인들 사이에서는 여전히 번아웃 현상이 심각합니다. 50%가 작년에 그만두는 것을 고려했습니다 .
    • 61%는 업무 특성상 스트레스가 많음에도 불구하고 직장에서 정신 건강 서비스를 전혀 제공하지 않는다고 답했습니다.
    • 기자들은 정신 건강 지원 , 더 나은 보상 , 더 많은 직원 , 하이브리드/원격 근무가 회사가 일과 삶의 균형을 개선할 수 있는 몇 가지 주요 방법이라고 말합니다 .
    • 언론인의 38%는 직업 불안정과 업계 불안정을 이유로 지난해 정신 건강이 악화되었다고 보고했습니다.
  • AI 채택 관련 기업 내 갈등

    AI is “tearing apart” companies, survey finds
    Axios

    “직장 내 AI 도입으로 인해 분열이 심화되고 리더와 직원 간의 새로운 권력 투쟁이 촉발되고 있으며, 경영진의 절반은 AI가 ‘회사를 찢어놓고 있다’고 답했습니다.” […] “직원의 절반 미만(45%)과 최고 경영진의 75%는 지난 12개월 동안 회사의 AI 도입이 성공적이었다고 생각합니다.” […] “직원의 약 절반은 AI가 생성한 정보가 부정확하고 혼란스럽고 편향적이라고 답했습니다.”