Blog

  • 인도의 인공지능 규제

    India reverses AI stance, requires government approval for model launches

    규제 당국이 기술을 잘못 이해하고 있는 사례. 인도 정부는 모든 AI 모델은 정부의 사전 승인을 받아야 하며, 편견이나 차별이 없는지 확인해야 한다는 권고안을 발표. 비결정적 시스템에서 결정론적 결과를 보장할 수 없다.

    기술 기업들에게 AI 모델이 생성하는 결과물에 “내재된 오류 가능성 또는 신뢰성”을 “적절하게” 표시하도록 요구하는 이 새로운 권고안은 인도의 AI 규제에 대한 이전의 손 놓고 있던 접근 방식에서 반전된 것입니다. 1년 전만 해도 인도 교육부는 AI 성장을 규제하지 않는 대신 이 분야를 인도의 전략적 이익에 필수적인 분야로 규정했습니다. 인도의 이러한 움직임은 많은 업계 임원들을 놀라게 했습니다. 많은 인도 스타트업과 VC들은 새로운 권고에 겁을 먹었으며, 이러한 규제가 이미 뒤처져 있는 인도가 글로벌 경쟁에서 경쟁하는 데 방해가 될 것이라고 생각합니다.

  • 미, 틱톡 금지 관련 법안

    Gallagher, Bipartisan Coalition Introduce Legislation to Protect Americans From Foreign Adversary Controlled Applications, Including TikTok

    틱톡 금지 법안과 관련된 내용. 플랫폼 규제와 관련해 국가 안보 입장에서 접근 사례

    미국과 중국 공산당 간의 전략적 경쟁에 관한 하원 선정위원회 위원장 겸 순위 위원인 마이크 갤러거 의원(마이크 갤러거, R-WI)과 라자 크리슈나무르티 의원(라자 크리슈나무르티, D-IL)이 오늘 ‘외국의 적대적 통제 애플리케이션으로부터 미국인 보호법안’을 발의했습니다. 이 법안은 의회가 제10장에 정의한 대로 외국 적국의 통제를 받는 바이트댄스와 같은 단체와 연계된 애플리케이션이 아닌 한, 틱톡을 포함한 바이트댄스 통제 애플리케이션의 미국 내 앱 스토어 제공 또는 웹 호스팅 서비스를 금지하는 내용을 담고 있습니다.

    또한 이 법안은 대통령이 타이틀 10에 따라 외국 적국의 통제 하에 있고 국가 안보에 위험을 초래할 수 있는 특정 소셜 미디어 애플리케이션을 지정할 수 있는 절차를 마련했습니다. 지정된 애플리케이션은 매각을 통해 외국 적대 세력의 통제 하에 있는 기업과의 관계를 끊지 않는 한 미국 내 앱 스토어 및 웹 호스팅 서비스 제공이 금지됩니다.

    다음은 의원의 발언 인용

    “틱톡은 우리 다음 세대의 정신을 오염시키고 중국 공산당이 미국인의 방대한 데이터에 자유롭게 접근할 수 있도록 하는 중국 공산주의 악성코드입니다. 저는 마이크 갤러거 위원장과 함께 미국에서 틱톡을 마침내 금지하는 ‘외국의 적으로부터 미국인 보호법’을 발의하게 된 것을 자랑스럽게 생각합니다. 불법으로 국경을 넘는 방법에 대한 동영상 유포부터 오사마 빈 라덴의 ‘미국에 보내는 편지’ 지지까지, 공산주의 중국은 틱톡을 미국의 국가 안보를 약화시키는 위험한 선전을 퍼뜨리는 도구로 사용하고 있습니다. 우리는 중국 공산당이 이 디지털 무기를 계속 활용하는 것을 허용할 수 없습니다.”라고 스테파닉 의원은 말했습니다

  • EU, DMA와 게이트키퍼

    EU’s new rules for tech “gatekeepers” kick in
    Axios

    유럽 관련 사례 정리해 놓은게 없어 메모용을 남겨 놓는 글.

    ‘게이트키퍼’로 지정된 기업으로는 메타, TikTok의 모기업인 ByteDance, 알파벳, 애플, 아마존, 마이크로소프트 등이 있습니다. DMA는 유럽의 의제를 설정하는 일반 데이터 보호 규정, 디지털 서비스법 및 곧 시행될 AI 법을 따릅니다. 유럽정책분석센터의 선임 연구원 빌 에칙슨은 기자들에게 “10년 전만 해도 기술 기업들은 10대 청소년과 같았고 규제가 거의 없었습니다.”라고 말했습니다. “이제 그들은 어른이 되었고 은행, 통신 및 우리 삶에 막대한 영향을 미치는 다른 산업과 마찬가지로 규제를 받게 될 것입니다.” 대부분의 기업들은 데이터 이동성과 광고 투명성을 강화하겠다고 약속하고 있습니다.

  • 챗봇 광고 실험

    AI 챗봇을 만들고 운영하는 데는 많은 비용이 들 수 있으며, 광고는 수익성을 높이기 위한 하나의 아이디어이다. 구글은 현재 제미니에 광고가 없지만, 순다르 피차이 CEO는 구글이 SGE로 알려진 AI 기반 검색에 기본으로 제공되는 새로운 유형의 광고를 포함하여 광고가 들어갈 수 있는 곳을 찾고 있다고 밝히기도 했다.

    Adzedek은 검색어에 대한 응답의 일부로 스폰서 결과를 반환하는데, 이는 Google이 주도하는 검색 광고 비즈니스와 다소 유사합니다. 수치로 보면 애드제덱은 클릭당 지불 모델을 사용하며, 광고 수익의 75%는 챗봇 제작자에게 돌아가고 애드제덱은 25%를 보유합니다. 이 회사는 자사 시스템을 사용한 광고가 100만 회 이상 노출되었으며, 그 중 4분의 3이 지난 한 달여 동안 노출되었다고 말합니다.

  • BBC의 생성형 인공지능 가이드라인

    Guidance: The use of Artificial Intelligence
    BBC

    BBC의 생성형 인공지능 가이드라인. AI의 발전은 BBC의 창의성, 혁신, 생산성 향상에 기회를 제공하지만, 편집 가이드라인과 가치를 준수해야 하며, AI 사용의 투명성과 책임성을 유지하고, 정확성, 공평성, 개인정보 보호를 준수해야 한다고 밝히고 있음. 아래는 주요 사용 사례.

    • 생성형 AI를 사용한 콘텐츠 제작: 뉴스 콘텐츠 직접 제작에 생성형 AI 사용 금지. 예외적으로 그래픽 제작에 사용 가능.
    • 편집 제작 또는 연구 지원: AI 도구를 정보, 인사이트, 분석 제공 용도로 사용 가능. 편집 감독 필요.
    • 콘텐츠 배포 또는 큐레이션: AI를 사용한 개인화 및 추천 엔진에 인간의 감독 필요.
    • 제3자의 AI 사용: 제3자의 AI 사용에도 편집 가이드라인을 준수해야 합니다.
  • 메타, 뉴스에서 더 물러나다

    An Update on Facebook News
    Facebook

    올해 2월에 있었던 메타의 공지. 페이스북은 뉴스 전용 섹션을 폐쇄하고, 신문사에 대한 보조금을 지급하거나 갱신하지 않으며, 뉴스 게시자를 대상으로 하는 새로운 기능을 개발하지 않을 것이라고 함. 뉴스는 사람들이 피드에서 보는 콘텐츠의 극히 일부(약 3%)에 불과하다고 보고했음.

    Facebook은 숏폼 동영상 등 사람들이 플랫폼에서 더 많이 보고 싶다고 말하는 콘텐츠에 시간과 리소스를 집중해야 합니다. 호주와 미국에서 Facebook 뉴스를 이용하는 사람들의 수는 작년에 80% 이상 감소했습니다. 사람들은 뉴스와 정치 콘텐츠를 보기 위해 Facebook을 찾는 것이 아니라 사람들과 소통하고 새로운 기회와 열정, 관심사를 발견하기 위해 찾아온다는 사실을 잘 알고 있습니다. 2023년에 공유한 바와 같이, 뉴스는 전 세계 사람들이 Facebook 피드에서 보는 콘텐츠의 3% 미만을 차지하며, 대다수의 사람들에게는 Facebook 경험의 작은 부분입니다.

  • 핑크 슬라임 저널리즘

    “Pink Slime Journalism” and a history of media manipulation in America
    CJR

    핑크 슬라임 언론 매체는 지역 저널리즘이 공익에 뿌리를 두고 있다는 독자들의 믿음을 이용해서 당파적 또는 기업적 논점을 강조합니다. 그리고 새로운 인공지능 기술 덕분에 이러한 콘텐츠를 더 빠르고 쉽고 저렴하게 제작할 수 있게 되었다. 글에서는 벤자민 프랭클린의 가짜 뉴스에서 헨리 포드의 반유대주의 선전에 이르기까지 미국 역사 속 미디어 조작 사례를 소개하고 있다.

    미국 전역에서 저비용, 저품질의 지역 뉴스 콘텐츠가 확산되면서 ‘핑크 슬라임 저널리즘 ‘이라는 명칭이처음 사용된 지 10년이넘었습니다 . 이 기간 동안 핑크 슬라임 생산자( 예: 1,200개 이상의 웹사이트 네트워크를 운영하는 메트릭 미디어)는 컬럼비아 대학교의 디지털 저널리즘을 위한 견인 센터의 새보고서에 자세히 설명된 대로 초당파적 콘텐츠와 느슨한 윤리적 기준의 대명사가 되었습니다.

    이러한 사이트는 친숙하지만 오해의 소지가 있으며, 신뢰할 수 있는 전통적인 지역 기반의 디지털 신문으로 가장하지만 실제로는 전략적으로 중요한 위치에서 정치적, 이념적, 상업적 이해관계를 홍보하고 있습니다. 핑크 슬라임 출판물은 정치 후보자 지원부터 경영난에 처한 기업에 대한 긍정적인 홍보까지, ‘뉴스’ 조직이 게시하는 콘텐츠 유형에 대한 수용자의 가정, 특히 저널리즘( 특히 지역 저널리즘)이 상업적 거래나 숨겨진 정치적 의제가 아니라 공익과 뉴스 가치에 의해 동기 부여 된다는기대를이용하려고 합니다.

  • 구글 독점과 선택화면

    ‘Choice Screen’ Fever Dream: Enforcers’ New Favorite Remedy Won’t Blunt Google’s Search Monopoly
    techpolicy.press

    규제 기관은 선택화면을 선호하지만 현실적으로 작동하는 방식이라고 보기 어렵다. 인간이 그런 방식으로 행동하지 않기 때문이다.

    Google은 3월에 디지털 시장법 준수를 위해 EU에서 검색 엔진 선택 화면을 출시할 예정입니다. 구글은 선택 화면을 아예 표시하지 않기를 원하지만, 선택 화면이 많으면 그 영향력이 무력화될 수 있다는 사실을 현명하게 깨달았습니다. …… 시행자들은 오늘날에도 다른 상황에서 볼 수 있는 소비자 보호 원칙에 따라 선택 화면을 채택했을 것입니다. 그러나 이러한 원칙은 이제 실패한 모델로 널리 알려져 있습니다. 예를 들어, 유럽의 쿠키 팝업 상자는 이론적인 선택 화면(쿠키를 원하십니까, 원하지 않으십니까?)라는 이론적인 선택 화면으로, 소비자는 원하는 결과를 얻지 못한 채 금방 사라집니다. 마찬가지로 미국의 수많은 법적 고지 사항과 게시된 개인정보 보호정책은 ‘고지 및 동의’ 프레임워크로서 소비자에게 권한을 부여하기보다는 좌절감을 안겨줍니다.

    선택 화면이 실질적인 경쟁 증진 수단이 아니라, 단순히 소비자의 선택을 억제하는 기본 설정과 현 상황을 바탕으로 한 착각에 불과할 수 있다.

  • 인공지능의 현실적 활용법

    The AI Industry Is Stuck on One Very Specific Way to Use a Chatbot

    인공지능을 어떻게 활용해야 하는지 여전히 많은 사람들이 혼란스러워하는 것 같다. “나 대신 휴가 예약해줘”와 같은 방식은 현실적 활용 사례라 보기 어렵다.

    상하이 푸단대학교, 오하이오주립대학교, 펜실베이니아주립대학교, 메타의 연구팀도 비슷한 결론에 도달했습니다. 이들은 “2022년 3월 25일부터 3월 27일까지 3일간 잭슨빌에서 출발하여 로스앤젤레스로 향하는 혼자 여행하는 여행자의 여행 일정을 만들어 주세요”와 같은 1,000개의 샘플 쿼리에 대해 챗봇을 테스트했습니다. 이 여행의 예산은 현재 2,400달러로 설정되어 있습니다.” 그런 다음 챗봇이 프롬프트의 모든 기준을 충족하는 답변을 제공할 수 있는지 평가했습니다. 챗봇은 전반적으로 거의 실패했습니다. 테스트한 4개 모델 중 OpenAI의 GPT-4 모델이 가장 우수한 성능을 보였지만, 이 모델도 1,000개 중 0.6%인 6개 쿼리에만 성공적으로 답변했습니다. (이 연구는 아직 동료 검토를 거치지 않았습니다.)

    챗봇은 다양한 요인으로 인해 실패했습니다: 챗봇은 추론 오류를 범하기도 하고, 때로는 엉뚱한 말을 지어내기도 했습니다. “이 점은 아무리 강조해도 지나치지 않습니다: 이런 종류의 도구는 의사 결정 과정을 대체하는 것이 아니라 보완하는 것입니다.”라고 AI 회사인 Hugging Face의 커뮤니케이션 책임자인 브리짓 투시그넌트는 말합니다.

  • 고급 머신 인텔리전스(AMI) 비전을 위한 V-JEPA 아키텍처

    V-JEPA: The next step toward Yann LeCun’s vision of advanced machine intelligence (AMI)
    Meta

    LLM이 ‘인간 수준의’ 지능까지 갈 것인지, 아니면 다른 돌파구가 필요한지 여부에 관한 논쟁이 있다. Meta의 얀 르쿤은 새로운 아키텍처(‘V-JEPA’)를 제안하는데, 유아 포유류가 하는 행동을 보고 원인과 결과 및 물리학을 추론하는 것처럼, AI 모델이 방대한 양의 비디오를 보고 어떤 일이 일어나는지 학습하도록 하는 것이다.

    인간으로서 우리가 주변 세계에 대해 배우는 것의 대부분은, 특히 인생의 초기 단계에서는 관찰을 통해 얻게 됩니다. 뉴턴의 제3운동 법칙을 예로 들어보겠습니다: 유아(또는 고양이)도 테이블에서 여러 가지 물건을 떨어뜨리고 그 결과를 관찰하면 올라간 것은 반드시 내려온다는 것을 직감할 수 있습니다. 이러한 결과에 도달하기 위해 몇 시간 동안 교육을 받거나 수천 권의 책을 읽지 않아도 됩니다. 세상에 대한 정신적 모델에 기반한 맥락적 이해인 내적 세계 모델은 이러한 결과를 예측하며, 이는 매우 효율적입니다.

    “V-JEPA는 기계가 보다 일반화된 추론과 계획을 세울 수 있도록 세상을 보다 근거 있게 이해하기 위한 단계입니다.”라고 2022년 최초의 JEPA(Joint Embedding Predictive Architectures)를 제안한 Meta의 부사장 겸 수석 AI 과학자 얀 르쿤(Yann LeCun)이 말합니다. “우리의 목표는 인간처럼 더 많이 학습할 수 있는 고급 기계 지능을 구축하여 주변 세계에 대한 내부 모델을 형성하여 복잡한 작업을 효율적으로 학습하고 적응하며 계획을 수립하는 것입니다.”