[카테고리:] IT

  • 앤트로픽, 대학생의 활용 보고서

    Anthropic Education Report: How University Students Use Claude
    Anthropic

    셀렉션 바이어스가 있을 가능성이 크다 하더라도 그걸 고려하며 생각해볼만한 내용이 있음

    STEM 분야 학생들은 Claude와 같은 AI 도구의 조기 채택자이며, 특히 컴퓨터 과학 전공 학생들이 과대 대표되고 있습니다(학생들의 대화의 36.8%를 차지하지만 미국 학위의 5.4%만을 차지합니다). 반면, 경영학, 보건학, 인문학 전공 학생들은 등록 인원 대비 AI 도구 채택률이 낮습니다.
    우리는 학생들이 AI와 상호작용하는 네 가지 패턴을 식별했으며, 각각의 패턴은 데이터에서 약 23-29%의 대화 비율을 차지했습니다: 직접 문제 해결, 직접 출력 생성, 협업 문제 해결, 협업 출력 생성.
    학생들은 주로 AI 시스템을 새로운 것을 배우기 위해 정보 활용(창조)과 알려진 것을 분해하고 관계를 식별하는 분석(분석)에 사용합니다. 예를 들어 코딩 프로젝트를 만들거나 법 개념을 분석하는 것이 포함됩니다. 이는 블룸의 분류법에서 고차원 인지 기능과 일치합니다. 이는 학생들이 중요한 인지 작업을 AI 시스템에 의존하지 않도록 보장하는 문제점을 제기합니다.

  • 생성형 인공지능을 위한 검색 최적화

    Marketing’s New Middleman: AI Agents
    Bain & Company

    생성형 인공지능을 위한 최적화 이야기. 그림이 직관적이다

    • 구매자가 제품 추천, 비교, 조사를 위해 AI 도구를 점점 더 많이 사용함에 따라 마케팅 방식이 뒤바뀌고 있습니다.
    • AI 기반 “제로클릭” 여정은 발견에서 결정까지의 프로세스를 압축하여 브랜드가 소비자에게 영향을 미치고, 차별화를 꾀하고, 심지어 구매 여정 중에 나타날 수 있는 기회를 줄입니다.
    • 기존 검색 엔진을 통한 웹사이트 방문은 감소하고 AI 추천 트래픽은 증가하기 시작하면서 트래픽과 전환 양상이 변화하고 있으며, 마케터의 가시성이 제한되고 리드 데이터를 수집할 기회도 줄어들고 있습니다.
    • 관련성을 유지하려면 마케터는 대규모 언어 모델에 맞춰 콘텐츠를 최적화하고, 새로운 성과 지표에 투자하고, 구매자가 아닌 AI 에이전트가 통제하는 미래를 중심으로 디지털 전략을 재고해야 합니다.
  • 독점규제의 날

    Antitrust day
    Benedict Evans

    벤 톰슨도 비슷하게 시간이 지나며 페이스북의 시장 정의는 3번이나 바뀌었다고 이야기했다. 친구기반 소셜네트워크서비스, 뉴스피드기반 콘텐츠 소비 플랫폼, 추천알고리즘 기반 엔터테인먼트 앱. 따라서 독점 규제가 쉽지 않을 것이라 말했다.

    경쟁 소송의 출발점은 시장 정의입니다. FTC는 초기 소장에서 이 정의를 포함하지 않았고, 이 때문에 소송이 기각되며 다시 제출하라는 명령을 받았습니다. 이제는 시장 정의를 포함했지만, Meta의 시장점유율이 법적 기준을 넘었다고 주장하려면 Meta가 YouTube, TikTok, iMessage와 경쟁하지 않는다고 말해야만 합니다.

    그래서 FTC의 논리는 Mark Zuckerberg의 오래된 인용문에서 시작합니다. 그는 Facebook을 ‘친구들과의 공개 공유’에 관한 플랫폼이라 했고, 이는 1:1 메시징(iMessage)이나 낯선 이들의 콘텐츠 소비(YouTube, TikTok)와는 다르다는 설명이었습니다. 하지만 이 인용은 2006년, 아이폰 출시 이전의 이야기입니다. 그 당시 Facebook에 대한 설명은 맞지만, 오늘날 Meta 사용의 상당 부분은 TikTok의 복제 서비스인 Reels에서 나오고, 또 다른 상당 부분은 Messenger에서 발생하며, 전체 사용량의 75%는 낯선 사람들의 콘텐츠 소비에서 발생합니다. Meta는 온라인의 모든 사회적 행태를 흡수하거나 모방하려 한 플랫폼입니다.

  • 메타의 반좌편향 인공지능

    Meta’s move on AI bias raises risk, eyebrows
    Axios

    메타는 우파의 각성에 대한 반발을 수용하여 인공지능 모델에서 편향을 제거하려고 한다고. 몇 개의 테스트에서 라마는 우편향적, 챗지피티는 좌편향적 답변을 보인다고 알려지기도 했다. 하지만 생각보다 간단한 일은 아닌듯

    작동 방식: Hugging Face의 커뮤니티 및 협업 책임자 바이바브 스리바스타브(Vaibhav Srivastav)는 Axios에 다음과 같이 설명했다.

    • 모델 학습 전 단계에서는 어떤 데이터를 포함·제외할지, 그리고 각각의 데이터 출처에 어떤 가중치를 둘지를 결정할 수 있다.
    • 후기 학습 단계(파인튜닝)에서는 여러 기법을 사용해 모델의 방향을 조정할 수 있다.
      대표적으로 인간 피드백 기반 강화학습(RLHF) 방식은 선호되는 응답 유형을 모델에 학습시키는 것이다.
    • 또 다른 방법으로는 시스템 레벨 프롬프트를 추가해 답변 방식 자체를 바꾸는 것이다.
      그러나 이 방식은 거칠고 예측 불가능한 결과를 낳을 수 있다. 실제로 Meta와 Google은 이 방식으로 편향을 보정하려다, 흑인 미국 건국의 아버지나 다양한 인종의 나치 병사 같은 역사적으로 말이 안 되는 이미지를 생성한 바 있다.

    [ … ] Meta와 Grok는 다른 AI 모델들이 좌편향되어 있다고 비판하지만, 전문가들은 실상은 훨씬 복잡하다고 말한다.

    편향의 주요 원천은 훈련 데이터이다. 대부분의 주요 AI 모델은 훈련 데이터의 구체적인 내용을 공개하지 않지만, 인터넷에 공개된 대부분의 영어 콘텐츠를 크롤링한 것으로 알려져 있다.

    이 때문에 모델은 영어(특히 미국식 영어)에 담긴 관점에 편향될 수밖에 없다.

  • EU 메타와 애플에 벌금 부과

    Commission finds Apple and Meta in breach of the Digital Markets Act
    EU Commission

    오늘 유럽 집행위원회는 애플이 디지털 시장법(DMA)에 따른 반(反)조종 의무를 위반했으며, 메타(Meta)는 소비자에게 개인 정보 사용량이 적은 서비스를 선택할 수 있도록 해야 하는 DMA 의무를 위반했다고 판단했습니다. 따라서 집행위원회는 애플과 메타에 각각 5억 유로와 2억 유로의 벌금을 부과했습니다.

    […] DMA에 따르면, Apple 앱스토어를 통해 앱을 배포하는 앱 개발자는 앱스토어 외부의 대체 상품에 대해 고객에게 무료로 알리고, 해당 상품으로 고객을 유도하고, 구매를 할 수 있도록 해야 합니다. 위원회는 Apple이 이 의무를 준수하지 않았다고 판단했습니다. Apple이 부과한 여러 제한으로 인해 앱 개발자는 App Store 외부의 대체 유통 채널의 이점을 충분히 누릴 수 없습니다. 마찬가지로, Apple은 앱 개발자가 소비자에게 이러한 혜택을 직접 알리지 못하도록 금지하고 있기 때문에 소비자 또한 대체적이고 저렴한 혜택을 충분히 누릴 수 없습니다. Apple은 이러한 제한이 객관적으로 필요하고 비례적임을 입증하지 못했습니다.

    […] 2023년 11월, 메타는 ‘동의 또는 결제’ 방식의 이진 광고 모델을 도입했습니다. 이 모델에 따라 EU의 페이스북 및 인스타그램 사용자는 개인 맞춤 광고를 위한 개인 정보 결합에 동의하거나, 광고 없는 서비스를 위한 월 구독료를 지불하는 것 중 하나를 선택할 수 있었습니다. 위원회는 이 모델이 DMA(개인정보보호법)를 준수하지 않는다고 판단했습니다. 이 모델은 사용자에게 개인 정보 사용량은 적지만 ‘맞춤형 광고’ 서비스와 동등한 서비스를 선택할 수 있는 구체적인 선택권을 제공하지 않았기 때문입니다. 또한 메타 모델은 사용자가 개인 정보 조합에 자유롭게 동의할 권리를 행사할 수 있도록 허용하지 않았습니다.

  • 사진에서 위치를 추측하는 인공지능

    Watching o3 guess a photo’s location is surreal, dystopian and wildly entertaining
    Simon Willison’s Weblog

    사진으로 위치를 추정하게 하는게 한창 유행했었다고. 이런 주제로 방송하는 사람도 있지만 인공지능도 꽤나 유사한 일을 꽤나 정확하게 할 수 있다

    이걸 어떻게 이해해야 할까요 ?

    우선, 정말 재밌습니다. 모델이 사진을 넘기고, 팬과 줌을 돌리고, 자신이 어디에 있을지에 대한 여러 가지 이론을 논의하는 사고 과정을 지켜보는 건 정말 재밌습니다 . 마치 CSI 드라마 한 편 속에 사는 것 같아요.

    또한 매우 디스토피아적 입니다 . 기술은 이제 사진에서 위치를 식별할 수 있습니다. 사람들이 이것이 얼마나 쉬운지 이해하는 것이 매우 중요합니다. 만약 자신의 안전에 대해 조금이라도 걱정할 이유가 있다면, 공유하는 모든 사진, 심지어 제가 위에서 예로 든 것처럼 밋밋한 사진일지라도, 그것이 자신의 위치를 식별하는 데 사용될 수 있다는 것을 알아야 합니다.

  • 비자 마스터, 성인물 그림자 규제자

    The real reason Civit is cracking down
    Raddit

    CivitAI는 Stable Diffusion 기반 모델과 LORA, 체크포인트 등 사용자 제작 콘텐츠를 공유하는 AI 이미지 생성 모델 플랫폼. 성인 콘텐츠 공유가 활발한 곳 중 하나로, 여러 생성형 모델의 성능을 시험하거나 다운로드하는 사용자 커뮤니티가 있다.

    신용카드 시스템은 사람들이 생각하는 것보다 훨씬 더 복잡합니다. 비자와 마스터카드는 누구나 알지만, 실제로는 ‘종합은행’이라는 중개 회사가 많습니다. 여러모로, 좀 더 단순화해서 설명하자면, 비자는 마케팅 회사이며, 실제로 모든 결제 처리는 이 은행들이 비자라는 이름으로 처리합니다. 예를 들어, 비자 신용카드를 발급받는다고 해서 실제로는 캐피털 원 비자 카드나 피델리티 비자 카드인 것은 아닙니다. CivitAI (https://civitai.com/)**는 AI 이미지 생성 모델, 특히 Stable Diffusion 기반 모델과 LORA, 체크포인트 등 사용자 제작 콘텐츠를 공유하는 플랫폼입니다.

    성인 콘텐츠 공유가 활발한 곳 중 하나로, 여러 생성형 모델의 성능을 시험하거나 다운로드하는 사용자 커뮤니티가 큽니다.CivitAI (https://civitai.com/)**는 AI 이미지 생성 모델, 특히 Stable Diffusion 기반 모델과 LORA, 체크포인트 등 사용자 제작 콘텐츠를 공유하는 플랫폼입니다.

    성인 콘텐츠 공유가 활발한 곳 중 하나로, 여러 생성형 모델의 성능을 시험하거나 다운로드하는 사용자 커뮤니티가 큽니다.CivitAI (https://civitai.com/)**는 AI 이미지 생성 모델, 특히 Stable Diffusion 기반 모델과 LORA, 체크포인트 등 사용자 제작 콘텐츠를 공유하는 플랫폼입니다.

    성인 콘텐츠 공유가 활발한 곳 중 하나로, 여러 생성형 모델의 성능을 시험하거나 다운로드하는 사용자 커뮤니티가 큽니다..

    미국에서 성인 이미지 AI를 허용하는 상업은행은 에스콰이어 은행 하나뿐이며, 이 은행은 ECSuite라는 회사와 협력합니다. 이 두 회사는 거의 모든 성인 AI 회사, 특히 성인 이미지 생성 분야의 결제를 함께 처리합니다.

    최근 비자는 성인 AI에 대한 훨씬 더 엄격한 지침을 담은 새로운 VAMP 프로그램을 도입했습니다. 비자는 에스콰이어 은행/ECSuite가 규정을 준수하지 않는다는 이유로 막대한 벌금을 부과했습니다. 그 결과, 두 회사는 AI 관련 모든 것에 대해 매우 엄격하게 단속하고 있으며, 다른 모든 종합금융기관들은 비자의 과징금 부과를 우려하여 AI 분야 진출을 꺼리고 있습니다.

    그래서 성인 AI 기업들은 하나둘씩 비자(또는 비자를 대신하는 상업은행)로부터 접근을 받고 “검열하지 않으면 결제를 처리할 수 없습니다”라는 말을 듣습니다. 대부분의 경우, 관련 기업들은 저항할 힘이 없어 즉시 문을 닫습니다.

  • 인공지능이 고용에 미치는 영향

    The geography of generative AI’s workforce impacts will likely differ from those of previous technologies
    Brookings

    긍정적이든 부정적이든 교육수준이나 임금이 높을수록 AI도구에 노출이 많아질 것이다. 인지적 업무에 인공지능이 적절하기 때문.

    특히, 우리의 분석은 ChatGPT 창시자인 OpenAI가 1년 전 제공한 직업별 “노출” 데이터를 기반으로, 대체로 직업의 교육 수준이나 임금이 높을수록 해당 직업이 생성형 AI 도구에 (긍정적이든 부정적이든) 더 많이 노출될 가능성이 높다는 것을 예측했습니다 (다만, 가장 상위 직종에서는 약간의 감소가 관찰됨). 이는 생성형 AI가 특히 프로그래머, 작가, 재무 분석가, 엔지니어, 변호사 등 화이트칼라 지식 작업의 인지적 업무에 적합하기 때문입니다. 반면, 생성형 AI는 고객 서비스 및 사무 행정과 같은 ‘일상적인’ 업무(예를 들어, 주로 여성 직원이 담당하는 콜센터, 고객 서비스 라인, 인사팀 등)를 위협할 수 있지만, 현재는 제조업, 숙련 기술직, 건설업 및 다수의 대면 서비스 산업에서의 수작업 업무를 처리할 수 있는 능력은 부족합니다.

  • OpenAI 에이전트 모델 비용

    OpenAI Plots Charging $20,000 a Month For PhD-Level Agents
    The Information ($)

    OpenAI가 ‘고소득 지식 근로자’에 해당하는 업무의 경우 월 2,000달러부터 ‘박사급 연구 에이전트’의 경우 월 2만 달러까지 딥 리서치 스타일 에이전트에 대한 단계별 가격 책정을 고려하고 있다는 기사. 사람보다 비싸다

  • 기업의AI 채택

    The state of AI: How organizations are rewiring to capture value
    McKinsey

    1. AI 활용 확산
    • 전체 응답자의 78%가 AI를 최소 1개 기능에 도입했다고 응답 (2023년 55% → 2024년 72% → 2025년 78%)
    • 생성형 AI 사용률도 급증 (2023년 33% → 2024년 65% → 2025년 71%)
    • 가장 많이 활용되는 분야: 마케팅/영업, IT, 서비스 운영
    2. 조직 구조 및 거버넌스
    • 워크플로우 재설계가 생성형 AI 도입 효과(EBIT 증가)에 가장 큰 영향을 미침
    • CEO 또는 이사회가 AI 거버넌스를 주도하는 경우 성과가 높음
    • 위험 관리와 데이터 거버넌스는 중앙집중화, 기술 인재와 AI 솔루션 도입은 부분적 분산 모델 채택
    3. AI 관련 리스크 대응
    • 정확성, IP 침해, 프라이버시 등의 리스크 대응 활동 증가
    • 대기업일수록 사이버보안 및 개인정보 보호 리스크 대응에 적극적
    4. AI 도입과 확산을 위한 모범 사례 부족
    • 단 1%의 조직만 생성형 AI 도입을 ‘성숙’ 단계로 평가
    • 성과에 가장 큰 영향을 미치는 요인: 명확한 KPI 설정과 도입 로드맵 수립
    • 대기업이 중소기업보다 도입 및 확산 전략 수립에 적극적
    5. 인재와 재교육
    • AI 데이터 과학자, 머신러닝 엔지니어 등 수요 지속
    • AI 컴플라이언스, 윤리 전문가 채용도 증가
    • 다수의 조직이 기존 인력 재교육(reskilling) 진행 및 계획 중
    6. AI 도입의 조직적 영향
    • 절감된 시간은 신규 업무 또는 기존 업무에 재투자하는 경우가 많음
    • 그러나 일부 대기업은 인력 감축으로 연결
    • 향후 3년 내 인력 변화는 ‘변화 없음’이 다수 전망 (38%)
    7. 비즈니스 성과에 대한 영향
    • 대다수 조직은 아직 기업 전체 수준에서 의미 있는 EBIT 향상은 경험하지 못함
    • 그러나 비즈니스 유닛 수준에서는 매출 증가 및 비용 절감 효과가 점차 나타나고 있음