[카테고리:] IT

  • 애플, 하드웨어에서 서비스로

    Boomer Apple
    Stratechery

    서비스 수익과 이익은 실제로 하드웨어 판매에서 비롯된 것이라고 볼 수 있다. 즉, 하드웨어가 없으면 서비스도 존재할 수 없다. 하지만 애플은 3년 연속 아이폰 실질 가격을 낮춤으로써 서비스 사업의 성장을 위해 하드웨어의 접근성을 높였고, 이는 애플이 과거처럼 제품 가격을 쉽게 올릴 수 있는 힘이 약해졌다는 것을 의미한다고 말한다. 즉, 장기적인 성장 전략은 서비스에 더 초점을 맞추고 있다고 분석한다.

    Apple의 제품 및 서비스에서 발생한 총 이익 달러

    스넬은 애플에 “어디서 왔는지 기억하라”고 촉구하며 글을 마무리합니다. 하드웨어가 모든 것을 작동하게 하는 것입니다. 저는 스넬의 주장에 공감합니다. 통합 하드웨어 회사인 애플은 제가 존경하는 존재이자 어제 제가 잘못 예측한 것에서 알 수 있듯이 여전히 제 마음속에 크게 자리 잡고 있기 때문입니다. 게다가 서비스 수익과 이익은 하드웨어 수익과 이익에 대한 회계적 구분일 뿐이라고 주장할 수 있습니다(그리고 그래야 합니다). 왜냐하면 후자가 전자를 잠금 해제하기 때문입니다.

    하지만 제가 iPhone을 특별히 분류한 이유는 바로 그것입니다. 저는 Snell이 말하는 보이지 않는 선은 이미 넘어섰다고 생각합니다. 네, 다음 분기 iPhone 숫자는 계절성 덕분에 다시 급증할 것이지만, 이제 Apple은 3년 연속으로 더 안정적으로 성장하는 서비스 사업을 선호하거나(실제 가격을 낮춰 iPhone의 접근 가능한 시장을 늘림으로써) 중년기에 제품 매출을 끌어올린 가격 책정력이 없다는 것을 인정했습니다.

  • 인터페이스로서 LLM

    We’re Entering Uncharted Territory for Math
    The Atlantic

    순수 수학에서 LLM이 어떤 의미가 있을지에 관한 글. 수학자 테런스 타오(Terence Tao) 인터뷰. GPT4 o1 모델을 보통이지만 완전히 무능하지 않은 대학원생에 비교한 말이 화제가 된 바 있다. 하지만 의미가 곡해된 부분이 있다며 아래와 같이 이야기한다.

    제가 해결할 수 있는 문제를 주고 모델을 안내하려고 했습니다. 먼저 힌트를 주었고, 모델은 힌트를 무시하고 다른 작업을 했는데, 작동하지 않았습니다. 제가 이것을 설명하자, 모델은 사과하고 “좋아요, 당신 방식대로 할게요.”라고 말했습니다. 그런 다음 제 지시를 상당히 잘 수행했지만, 다시 막혔고, 저는 다시 수정해야 했습니다. 모델은 가장 영리한 단계를 결코 알아내지 못했습니다. 그것은 모든 일상적인 일을 할 수 있었지만, 매우 상상력이 부족했습니다.

    대학원생은 과제를 완전히 해결하지 못하더라도 학습하고 수정할 잠재력이 있다고 보지만 o1은 지속적인 학습과 다르다고 말한다.

    그렇다면 어디에 이를 활용할 수 있을까? 이와 관련해 인터페이스로서 LLM에 대한 언급을 한다.

    증명 지원 도구를 사용하면 함께 일하는 사람을 신뢰할 필요가 없습니다. 이 프로그램이 100% 보장을 제공하기 때문입니다. 그러면 지금은 실제로 존재하지 않는 공장 생산 유형의 산업 규모 수학을 할 수 있습니다. 한 사람은 현대 공급망과 같이 특정 유형의 결과만 증명하는 데 집중합니다.
    문제는 이러한 프로그램이 매우 까다롭다는 것입니다. 전문 언어로 주장을 작성해야 합니다. 그냥 영어로 작성할 수는 없습니다. AI는 인간 언어에서 프로그램으로 일부 번역을 할 수 있습니다. 한 언어를 다른 언어로 번역하는 것은 거의 대규모 언어 모델이 하도록 설계된 것과 정확히 같습니다. 꿈은 챗봇과 대화를 나누며 증명을 설명하고, 챗봇이 진행하면서 증명 시스템 언어로 변환하는 것입니다.
    Wong: 그러니까 챗봇은 지식이나 아이디어의 원천이 아니라 인터페이스 방식이라는 거죠. Tao: 네, 정말 유용한 접착제가 될 수 있습니다.

  • 메타 AI학습을 위한 호주이용자 공개 게시물 스크래핑

    Facebook admits to scraping every Australian adult user’s public photos and posts to train AI, with no opt-out option
    ABC News

    옵트아웃 옵션이 제공되지 않았다는 부분을 지적하는데, 이와 관련해서 호주 상원위원은 유럽과 같은 강한 규제가 없었기 때문이라 답했다.

    슈브리지 상원의원은 ABC와의 인터뷰에서 정부가 청소년들이 겪는 온라인 피해에 대해 우려한다면, 개인정보 보호법을 정비하는 것이 가장 중요한 우선순위가 되어야 한다고 말했습니다.

    “유럽에서는 사람들의 프라이버시가 보호되지만 호주에서는 보호되지 않는 데는 이유가 있습니다. 유럽 의원들이 엄격한 프라이버시 법률을 만들었기 때문입니다. Meta는 오늘 호주에 이와 동일한 법률이 있다면 호주인의 데이터도 보호되었을 것이라고 분명히 밝혔습니다.”라고 그는 말했습니다.

  • 고양이보다 멍청한 인공지능

    This AI Pioneer Thinks AI Is Dumber Than a Cat
    WSJ

    뉴욕대학 교수이자 메타 수석 AI과학자인 얀 르쿤은 대표적인 인공지능 회의론자. 인간과 같은 지능을 가지게 될 것이라는 우려에 대해 고양이에 비유하여 인공지능을 설명한다. 그의 입장은 얼마나 더 많은 데이터나 인프라를 투자하는지가 아닌 새로운 모델이 필요하다는 것. 이미지를 통해 학습하는 방식에 기대를 하고 있다는 이야기도 얼핏 나온다. 결국 지금 방식의 모델은 사람들이 걱정하는 수준에 다다를 수 없다고 본다

    LeCun는 이러한 논의가 시기상조일 가능성이 크다고 말한다. 지난 5월, 떠나는 오픈AI 연구원이 초지능 AI를 제어하는 방법을 배우는 것이 필요하다고 언급했을 때, LeCun은 즉각 반응했다. 그는 X(구 트위터)에서 “우리보다 훨씬 더 똑똑한 AI 시스템을 긴급히 제어하는 방법을 알아내기 전에, 집 고양이보다 더 똑똑한 시스템을 설계할 수 있는 최소한의 단서라도 필요하다고 생각한다”고 답했다.

    LeCun은 고양이 비유를 좋아한다. 그는 고양이가 물리적 세계에 대한 정신 모델, 지속적인 기억, 일정 수준의 추론 능력, 계획 수립 능력을 가지고 있다고 말한다. 그러나 메타를 포함해 오늘날의 최첨단 AI에는 이러한 특성이 전혀 존재하지 않는다.

  • 기업 지식관리에 LLM 적용

    Top companies ground Microsoft Copilot over data governance concerns
    The Register

    Copilot 같은 LLM이 조직에 적용될 때 발생할 수 있는 문제에 관해 언급. 접근권한이 없는 사람에게도 정보가 노출될 수 있어 적용에 문제가 발생.

    “특히 SharePoint나 Office 365 또는 이와 유사한 복잡한 권한 설정이 있는 대기업들의 경우, Copilot들이 기본적으로 사람들이 기술적으로는 접근할 수 있지만 접근해서는 안 되는 정보를 적극적으로 요약하고 있습니다,” 그가 설명했습니다.

    Berkowitz는 예를 들어 급여 정보가 Copilot 서비스에 의해 포착될 수 있다고 말했습니다.

    “처음부터 완전히 깨끗한 Microsoft 환경을 설정했다면 이 문제가 완화될 수 있겠죠,” 그가 우리에게 말했습니다. “하지만 그런 환경을 가진 곳은 없습니다. 특히 정말 큰 회사들은 시간이 지나면서 이런 시스템들을 구현해 왔죠. 그래서 상충되는 권한이나 데이터 접근 권한이 생기게 됩니다.”

    […] AI 소프트웨어에는 특정한 보안 우려가 있지만, Berkowitz는 그가 듣고 있는 문제들이 내부 직원들이 접근해서는 안 되는 정보에 접근하는 것과 더 관련이 있다고 말했습니다. (이는 우리가 이전에 Copilot에 대해 들었던 불만입니다.)

    15년 전 Google이 기업 문서를 색인화하고 직원들이 이용할 수 있게 만드는 Search Appliance를 도입했을 때의 IT 보안 과제와 비슷한 상황인지 묻자, Berkowitz는 “정확히 그렇습니다”라고 답했습니다.

  • AI 거버넌스에 정보를 제공할 수 있는 역사적 유사 사례

    Historical Analogues That Can Inform AI Governance
    RAND

    4가지 기술(핵기술, 인터넷, 암호화, 유전공학)을 AI와 비교하여 AI 거버넌스에 적용할 수 있는 교훈을 도출하고자 함. 예를 들어 AI가 심각한 위험을 초래한다면 핵기술 거버넌스 모델을, 위험이 적다면 인터넷 거버넌스 모델을 참고할 수 있다고 봄. 나중에 좀 더 자세히 읽어보기 위한 기록용.

    인공지능(AI)의 기능이 향상됨에 따라 인공지능이 가져올 수 있는 위험을 최소화하면서 이점을 극대화하는 방법에 대한 의문이 제기되고 있습니다. 최근 수십 년 동안 핵 기술, 인터넷, 암호화 제품, 유전 공학 등 네 가지 기술에 대해서도 거버넌스와 관련된 유사한 질문이 제기되었습니다. 이들 기술의 거버넌스의 역사는 기술에 대한 규범에 대한 합의의 필요성, 물리적 자산과 비물리적 자산의 거버넌스에서 중요한 차이, 거버넌스에서 공공 부문과 민간 부문 간의 파트너십의 역할이라는 세 가지 주제를 보여줍니다. 이러한 기술은 개발 경쟁에 필요한 자원, 주로 공공 또는 민간 부문에서 사용되는지 여부, 보안 위험, 이러한 위험에 대한 합의, 통제 가능한 물리적 자산, 거버넌스를 위한 공동의 이해관계 커뮤니티를 조성할 수 있는지 여부, 위험을 최소화하고 이익을 극대화하는 데 공공 또는 민간 거버넌스가 가장 적합한지 여부 등 다양한 측면에서 차이가 있습니다.

    주요 결과

    • 광범위한 해를 끼칠 수 있는 심각한 위험을 초래하고, 획득 및 사용에 상당한 자원이 필요하며, 모니터링 및 제어가 가능한 물리적 자산을 보유한 AI는 원자력 기술과 유사한 광범위한 국제 거버넌스 구조에 적합할 수 있습니다.
    • 최소한의 위험을 초래하는 AI는 인터넷을 위해 만들어진 거버넌스 모델과 같은 거버넌스 모델에 적합할 수 있습니다.
    • 접근이 가능하지만 큰 위험을 초래할 수 있는 AI는 유전 공학에 사용되는 것과 유사한 거버넌스 모델이 적합할 수 있지만 이해관계자는 암호화에 사용되는 것과 유사한 거버넌스 모델을 적용하는 데 신중해야 합니다.
  • 프로크리에이터의 AI 비사용 선언

    AI is not our future.
    Procreate

    진짜인지 믿기 어려운 이야기. 베네딕트 에반스는 “Procreate 팀은 너무 어려서 사람들이 포토샵이나 일러스트레이터를 사용하는 것이 창의적이지 않다고 말했던 때를 기억하지 못할 것 같습니다”라고 코멘트 하기도 했다. 이 이야기를 들으니 엑셀 함수 사용하지 말라던 이야기가 생각난다

    창의성은 만들어지는 것이지, 생성되는 것이 아닙니다.
    생성형 AI는 사물에서 인간성을 앗아가고 있습니다. 도용을 기반으로 구축된 이 기술은 우리를 황폐한 미래로 이끌고 있습니다. 우리는 기계 학습이 많은 장점을 가진 매력적인 기술이라고 생각하지만, 생성형 AI가 가고 있는 길은 우리에게 옳지 않습니다.
    우리는 인간을 위해 여기 있습니다. 우리는 우리의 가장 귀중한 보석인 인간의 창의성에 도덕적 위협이 되는 기술을 쫓지 않습니다. 이러한 기술적 급류 속에서, 이는 우리를 예외적으로 만들거나 뒤처질 위험이 있어 보일 수 있습니다. 하지만 우리는 이 덜 걸어본 길이 우리 커뮤니티에게 더 흥미롭고 결실 있는 길이라고 봅니다.

  • Nvidia칩을 비축하는 4개 회사

    Just four companies are hoarding tens of billions of dollars worth of Nvidia GPU chips
    Sherwood

    보도를 확인해 준 것은 아니지만 흥미로운 이야기. The Information에 따르면 벤처 캐피털 회사인 Andreesen Horowitz는 값비싼 GPU 20,000개 이상을 비축해 AI 스타트업에 지분을 대가로 임대해주고 있다고 한다 .

  • 우버 벌금과 GDPR

    Dutch DPA imposes a fine of 290 million euro on Uber because of transfers of drivers’ data to the US

    네덜란드 데이터 프라이버시 규제 기관이 우버(Uber)에 2억 9천만 유로(약 4,100억 원)의 벌금을 부과했다. 이는 우버가 일부 운전자 데이터를 미국 서버에 저장했기 때문이다.

    네덜란드 DPA는 Uber가 유럽 운전자의 민감한 정보를 수집하여 미국 서버에 보관했다는 사실을 발견했습니다. 계정 세부 정보와 택시 면허증에 관한 것이지만, 위치 데이터, 사진, 결제 세부 정보, 신분증, 어떤 경우에는 운전자의 범죄 및 의료 데이터도 포함됩니다.

    2년 이상 동안 Uber는 전송 도구를 사용하지 않고 해당 데이터를 미국에 있는 Uber 본사로 전송했습니다 . 이로 인해 개인 데이터 보호가 충분하지 않았습니다. EU 사법 재판소는 2020년에 EU-US Privacy Shield를 무효화했습니다. 

    법원에 따르면, 표준 계약 조항은 여전히 ​​EU 외부 국가로 데이터를 전송하는 데 유효한 근거를 제공할 수 있지만, 이는 실무적으로 동일한 수준의 보호를 보장할 수 있는 경우에만 가능합니다. 

    네덜란드 DPA에 따르면 Uber는 2021년 8월부터 표준 계약 조항을 더 이상 사용하지 않았기 때문에 EU 운전자의 데이터가 충분히 보호되지 않았습니다. 작년 말부터 Uber는 Privacy Shield의 후속 조항을 사용합니다.

    클라우드 인프라 기반으로 글로벌 서비스를 하는 IT기업이 GDPR 규정을 준수한다는게 쉬운 일은 아닌 것 같다. 참고로 Privacy Shield의 경우 EU 시민들의 개인정보를 미국으로 전송할 때 적절한 보호 수준을 보장하는 것이 목적이었으나 2020년 유럽사법재판소에서 이를 무효화한 이후에 새로운 방식을 재검토하고 대안을 모색해야하는 상황으로 안다.

  • 미국의 스트리밍 사기혐의 기소

    North Carolina Musician Charged With Music Streaming Fraud Aided By Artificial Intelligence
    U.S. DOJ

    미국에서는 인공지능을 활용해 수십만 개의 트랙을 생성하고 봇을 사용하여 재생을 생성하여 스트리밍 플랫폼으로부터 1천만 달러의 부정한 대금을 챙긴 인물이 기소되었다.

    뉴욕 남부 지방 검사인 데미안 윌리엄스와 연방수사국(FBI) 뉴욕 현장 사무소의 대행 부국장인 크리스티 M. 커티스는 인공지능으로 수십만 곡을 만들고 “봇”이라는 자동화 프로그램을 사용하여 인공지능으로 생성된 곡을 수십억 번 스트리밍하는 계획과 관련하여 마이클 스미스를 기소한 3건의 형사 기소장을 공개한다고 발표했습니다. 스미스는 자신의 계획을 통해 1,000만 달러 이상의 로열티를 사기로 획득했습니다. 스미스는 오늘 체포되어 노스캐롤라이나 주 연방 지방법원 판사 앞에 서게 됩니다.