[카테고리:] IT

  • 기술의 두 가지 철학

    Enterprise Philosophy and The First Wave of AI
    Stratechery

    AI가 새로운 컴퓨팅 패러다임으로 기업 생산성을 높이고 인력을 대체하는 방식으로 자리 잡고 있다고 분석하는 글. 벤 톰슨이 과거에 작성했던 내용이지만 인상적 이야기.

    Google의 관점에서 컴퓨터는 여러분을 대신하여 일을 처리함으로써 여러분이 일을 처리하고 시간을 절약할 수 있도록 도와줍니다. Duplex는 가장 인상적인 사례였습니다. 컴퓨터가 여러분을 대신하여 전화 통화를 하는 것이었지만, 일반적인 개념은 Google의 다른 많은 데모, 특히 AI를 기반으로 하는 데모에도 적용되었습니다. Google Photos는 사진을 분류하고 태그를 지정할 뿐만 아니라 이제 특정 편집을 제안합니다. Google News는 여러분을 대신하여 뉴스를 찾아주고, Maps는 여러분의 동네에 있는 새로운 레스토랑과 상점을 찾아줍니다. 

    […] 기대하는 바는 컴퓨터가 당신을 대신해서 일을 해준다는 것이 아니라, 컴퓨터가 당신이 더 잘, 더 효율적으로 일을 할 수 있도록 해준다는 것입니다. 그리고 이 철학과 함께 책임에 대한 다른 견해가 생겨납니다. 피차이는 Google의 기조연설 서두에서 “우리는 이것을 제대로 해야 한다는 깊은 책임감을 느낍니다”라고 인정했지만, 그 진술에는 Google의 전반적인 중심성과 관리자들의 직접적인 책임이 내재되어 있습니다. 반면 나델라는 책임이 기술 산업 전체에 있으며, 개인적으로 그것을 활용하려는 우리 모두에게 있다고 주장합니다

  • 샘알트면의 AI 유토피아

    Sam Altman’s hand-wavy AI utopia
    Axios

    샘 알트먼은 인공지능이 지금 누구도 설명하기 어려운 엄청난 번영을 가져올 것이라고 말한다. “딥러닝은 작동하며 나머지 문제는 우리가 해결할 것입니다.”라고 하지만 당연히 반대 입장도 많다. 기술 전문성을 갖춘 상당수의 사람들은 OpenAI 접근 방식만으로는 “남은 문제를 해결할 수 없다”며 오늘날의 genAI 표준을 넘어서는 다른 종류의 머신러닝 접근 방식이 필요하다고 생각한다. 월스트리트의 일부에서는 AI가 단기적으로 주식 시장이 AI 기업에 부여한 막대한 가치를 뒷받침할 만한 수익을 창출할 수 있을지 의구심을 가진다.

    오늘날의 AI는 약속된 풍요의 땅으로 안내할 수 있으며, 이는 업계의 많은 사람들이 위험을 감수할 만한 가치가 있다고 생각하는 도박입니다. 하지만 기술의 역사를 연구하는 사람들에게는 알트먼의 고상한 수사가 증기기관에서 전기, 자동차, 전화와 TV, 인터넷에 이르기까지 모든 기술 혁신의 물결에 동반된 유사한 예측의 메아리가 될 수 있습니다. 물론 이러한 기술들은 세상을 변화시켰지만, 그 중 어느 하나도 선동가들이 예측한 대로 세상의 고질적인 문제를 해결하지는 못했습니다.

    뉴욕타임스에 따르면 TSMC는 샘 알트먼의 7조 달러 투자 이야기가 너무 황당해서 그를 ‘팟캐스팅 브로’라고 부른다는 보도도 있었다. 7조 달러는 거의 1경(10,000조)에 가까운 금액이다.

  • 캘리포니아 AI 규제안 거부

    California Governor Vetoes Sweeping A.I. Legislation
    NYT

    인공지능에 대한 비관론자 입장에서의 규제안에 캘리포니아 주지사가 거부권을 행사했다. 사실 너무 광범위한 형태의 규제가 아닌지.

    가빈 뉴섬 주지사는 일요일 캘리포니아 인공지능 안전 법안에 거부권을 행사하여, 새로운 기술의 성장을 억제하는 것을 목표로 한 미국에서 가장 야심찬 제안을 차단했습니다.

    최초로 제정된 법안인 SB 1047은 대중에 공개하기 전에 대규모 AI 시스템 또는 모델의 안전 테스트를 요구했습니다. 또한 주 법무 장관에게 사망이나 재산 피해와 같이 기술로 인해 발생한 심각한 피해에 대해 회사를 고소할 권리를 부여했습니다. 그리고 잠재적인 생물전, 대량 사상자 또는 재산 피해의 경우 AI 시스템을 끄는 킬 스위치를 의무화했습니다.

    하지만 주지사는 상대적으로 구체적인 인공지능 적용 사례에 대한 규제안에 서명했다(링크).

    상원의원 조쉬 베커(민주당-멘로 파크)의 SB 942는 대중이 AI 생성 콘텐츠를 보다 신뢰할 수 있게 식별하도록 돕는 데 중점을 두고 있습니다. 널리 사용되는 생성 AI 시스템이 생성하는 콘텐츠에 출처 공개를 포함하도록 요구합니다. 이러한 공개는 인간에게는 보이지 않지만 이러한 시스템과 함께 제공되는 무료 도구로는 감지할 수 있어야 합니다. 사용자는 이러한 도구를 사용하여 AI 생성 콘텐츠를 식별할 수 있습니다. 이 새로운 조치는 빠르게 진화하는 디지털 콘텐츠 생성의 세계에서 투명성과 책임을 보장합니다.

    이샤 와합(D-헤이워드) 박사의 SB 926은 AI가 생성한 성적으로 노골적인 딥페이크 콘텐츠를 표적으로 삼는 새로운 범죄를 만듭니다. 이 법안은 해당 사람에게 심각한 정서적 고통을 유발하려는 의도로 진짜인 것처럼 보이는 실제 사람의 성적으로 노골적인 이미지를 만들고 배포하는 것을 불법으로 만듭니다.

    SB 981 역시 Wahab 박사가 제안한 것으로, 성적으로 노골적인 디지털 신원 도용 문제를 다룹니다. 이 법안은 소셜 미디어 플랫폼에서 사용자가 자신의 성적으로 노골적인 딥페이크를 신고할 수 있는 메커니즘을 구축하도록 요구합니다. 신고가 접수되면 플랫폼에서 조사하는 동안 해당 콘텐츠를 일시적으로 차단해야 하며, 확인되면 영구적으로 삭제해야 합니다. 이 법안은 개인이 자신의 모습이 오용되는 경우 디지털 신원과 프라이버시를 보호하기 위한 신속한 조치를 취할 수 있도록 권한을 부여합니다.

  • 공기처럼 저렴한 지능

    President’s Lecture Series: Sundar Pichai

    구글 순다 피차이의 카네기 멜론 강연. 인공지능의 혁신적 가능성을 이야기하며 지속가능성을 위한 노력이 필요함을 이야기한다. 인공지능 잠재력에 관해 이야기하는 부분에서 빅데이터 이야기때부터 많이 보이던 그래프를 확인할 수 있는데, 인공지능 모델 사용 비용의 급격한 하락은 더 많은 사람이 인공지능을 활용할 수 있게 한다고 말하며, 공기처럼 저렴한 지능(intelligence just like air, too cheap to meter)이 될 수 있음을 말한다.

    스크린샷 2024-11-27 오후 3.30.31.png

    이미 비용이 낮아지는 것을 목격하고 있습니다. 지난 18개월 동안 주력 모델의 토큰당 비용을 살펴보면 100만 토큰당 4달러였던 것이 지금은 13센트에 불과하며, 이러한 추세는 계속될 것입니다. 공기와 같은 인텔리전스를 계량화할 수 없을 정도로 저렴하게 사용할 수 있게 될 것이며, 이는 차트처럼 보일 수도 있지만 제게는 앞으로 다가올 흥미로운 미래입니다.

  • DMA가 구글맵에 미치는 영향

    Is Competition Only One Click Away? The Digital Markets Act Impact on Google Maps
    CESifo Working Paper No. 11226

    페이퍼에서 이야기하고 있는 내용에 따르면 결국 이용자의 혜택만 감소하게 된 것으로 보인다. 서비스 이용에서 마찰이 증가하고 불편함을 느끼는 이용자가 증가했다고 예상해볼 수 있는 결과.

    이 백서에서는 유럽연합(EU)에서의 Google 검색 결과 표시 변경에 초점을 맞춰 디지털 시장법(DMA)이 소비자 행동에 미치는 영향을 조사합니다. 특히 2024년 1월에 시행된 Google의 검색 결과에서 클릭 가능한 지도 제거의 영향을 조사합니다. 이 변경으로 인해 사용자는 Google 지도 또는 대체 매핑 서비스에 액세스하기 위해 추가 검색을 수행해야 하므로 검색 비용이 증가합니다. 차이점 접근법을 사용하여 DMA 시행 전후의 EU 국가와 비 EU 국가의 Google 검색량을 비교했습니다. Google 검색 사용자가 클릭 한 번으로 이용할 수 있는 Google 지도의 이점이 사라짐에 따라 EU 소비자들이 온라인 지도 서비스를 훨씬 더 많이 검색하는 것으로 나타났습니다. 지도 및 구글 지도라는 검색어에 대한 Google 검색량이 25% 및 18% 증가하여 6개월 동안 각각 34,407,000건 및 8,901,000건이 초과 검색된 것으로 측정되었습니다. 이러한 검색 증가는 대체 지도 서비스에 대한 잠재적 노출 가능성을 시사합니다. 그러나 애플 맵이나 빙 맵과 같은 서비스에 대한 검색도 증가했지만 그다지 큰 폭으로 증가하지는 않았습니다. 또한 트래픽 데이터에 따르면 Google 지도 방문이 크게 감소하지 않은 것으로 나타나 대체 서비스로의 이동이 미미한 것으로 나타났습니다. 이러한 결과는 Google의 원클릭 이점을 제거해도 단기적으로 대체 매핑 서비스의 검색이나 채택이 크게 증가하지 않고 사용자의 검색 비용이 증가할 수 있음을 나타냅니다.

  • 미국 지방 정부 소프트웨어 독점 기업사례

    How Local Governments Got Hooked on One Company’s Janky Software
    Bloomberg

    미국 지방 정부 소프트웨어를 거의 독점하다시피 하는 타일러 테크에 관한 기사. 모두가 그 소프트웨어가 형편없다는 데 동의하지만 선택의 여지가 없나보다. 정부라는 조직이 크고 복잡하고 느리기 때문에 소프트웨어를 만드는 기업의 어려움도 있을거라고 생각은 하지만… 국내를 봐도 작은 분야를 독점하고 있는 솔루션 기업이라든지, 정부 과제라는 이유로 말도 안 되는 결과물을 던져놓는 사례가 너무 많으니…

    정중하게 말하자면, 타일러의 98%라는 엄청난 고객 유지율이 순전히 제품 만족도 때문일 가능성은 매우 낮습니다. 공급업체에 대한 고정관념도 분명히 존재합니다. 고객들 사이에서 흔히 하는 말은 자신들이 너무 깊이 빠져서 물러설 수 없다고 느낀다는 것입니다. 수년과 수백만 달러를 위험한 구현에 투자한 후, 덜 알려진 대안으로 다시 할 여유가 있을까요? 법정 기록 소프트웨어와 관련하여 Needham & Co. 의 연구 분석가 조쉬 라일리는 타일러가 거의 독점적이며 경쟁업체 중 하나의 웹사이트를 찾는 것조차 어렵다고 말합니다.

  • 기업 지식관리에 LLM 적용

    Top companies ground Microsoft Copilot over data governance concerns
    The Register

    Copilot 같은 LLM이 조직에 적용될 때 발생할 수 있는 문제에 관해 언급. 접근권한이 없는 사람에게도 정보가 노출될 수 있어 적용에 문제가 발생.

    “특히 SharePoint나 Office 365 또는 이와 유사한 복잡한 권한 설정이 있는 대기업들의 경우, Copilot들이 기본적으로 사람들이 기술적으로는 접근할 수 있지만 접근해서는 안 되는 정보를 적극적으로 요약하고 있습니다,” 그가 설명했습니다.

    Berkowitz는 예를 들어 급여 정보가 Copilot 서비스에 의해 포착될 수 있다고 말했습니다.

    “처음부터 완전히 깨끗한 Microsoft 환경을 설정했다면 이 문제가 완화될 수 있겠죠,” 그가 우리에게 말했습니다. “하지만 그런 환경을 가진 곳은 없습니다. 특히 정말 큰 회사들은 시간이 지나면서 이런 시스템들을 구현해 왔죠. 그래서 상충되는 권한이나 데이터 접근 권한이 생기게 됩니다.”

    […] AI 소프트웨어에는 특정한 보안 우려가 있지만, Berkowitz는 그가 듣고 있는 문제들이 내부 직원들이 접근해서는 안 되는 정보에 접근하는 것과 더 관련이 있다고 말했습니다. (이는 우리가 이전에 Copilot에 대해 들었던 불만입니다.)

    15년 전 Google이 기업 문서를 색인화하고 직원들이 이용할 수 있게 만드는 Search Appliance를 도입했을 때의 IT 보안 과제와 비슷한 상황인지 묻자, Berkowitz는 “정확히 그렇습니다”라고 답했습니다.

  • AI 거버넌스에 정보를 제공할 수 있는 역사적 유사 사례

    Historical Analogues That Can Inform AI Governance
    RAND

    4가지 기술(핵기술, 인터넷, 암호화, 유전공학)을 AI와 비교하여 AI 거버넌스에 적용할 수 있는 교훈을 도출하고자 함. 예를 들어 AI가 심각한 위험을 초래한다면 핵기술 거버넌스 모델을, 위험이 적다면 인터넷 거버넌스 모델을 참고할 수 있다고 봄. 나중에 좀 더 자세히 읽어보기 위한 기록용.

    인공지능(AI)의 기능이 향상됨에 따라 인공지능이 가져올 수 있는 위험을 최소화하면서 이점을 극대화하는 방법에 대한 의문이 제기되고 있습니다. 최근 수십 년 동안 핵 기술, 인터넷, 암호화 제품, 유전 공학 등 네 가지 기술에 대해서도 거버넌스와 관련된 유사한 질문이 제기되었습니다. 이들 기술의 거버넌스의 역사는 기술에 대한 규범에 대한 합의의 필요성, 물리적 자산과 비물리적 자산의 거버넌스에서 중요한 차이, 거버넌스에서 공공 부문과 민간 부문 간의 파트너십의 역할이라는 세 가지 주제를 보여줍니다. 이러한 기술은 개발 경쟁에 필요한 자원, 주로 공공 또는 민간 부문에서 사용되는지 여부, 보안 위험, 이러한 위험에 대한 합의, 통제 가능한 물리적 자산, 거버넌스를 위한 공동의 이해관계 커뮤니티를 조성할 수 있는지 여부, 위험을 최소화하고 이익을 극대화하는 데 공공 또는 민간 거버넌스가 가장 적합한지 여부 등 다양한 측면에서 차이가 있습니다.

    주요 결과

    • 광범위한 해를 끼칠 수 있는 심각한 위험을 초래하고, 획득 및 사용에 상당한 자원이 필요하며, 모니터링 및 제어가 가능한 물리적 자산을 보유한 AI는 원자력 기술과 유사한 광범위한 국제 거버넌스 구조에 적합할 수 있습니다.
    • 최소한의 위험을 초래하는 AI는 인터넷을 위해 만들어진 거버넌스 모델과 같은 거버넌스 모델에 적합할 수 있습니다.
    • 접근이 가능하지만 큰 위험을 초래할 수 있는 AI는 유전 공학에 사용되는 것과 유사한 거버넌스 모델이 적합할 수 있지만 이해관계자는 암호화에 사용되는 것과 유사한 거버넌스 모델을 적용하는 데 신중해야 합니다.
  • 프로크리에이터의 AI 비사용 선언

    AI is not our future.
    Procreate

    진짜인지 믿기 어려운 이야기. 베네딕트 에반스는 “Procreate 팀은 너무 어려서 사람들이 포토샵이나 일러스트레이터를 사용하는 것이 창의적이지 않다고 말했던 때를 기억하지 못할 것 같습니다”라고 코멘트 하기도 했다. 이 이야기를 들으니 엑셀 함수 사용하지 말라던 이야기가 생각난다

    창의성은 만들어지는 것이지, 생성되는 것이 아닙니다.
    생성형 AI는 사물에서 인간성을 앗아가고 있습니다. 도용을 기반으로 구축된 이 기술은 우리를 황폐한 미래로 이끌고 있습니다. 우리는 기계 학습이 많은 장점을 가진 매력적인 기술이라고 생각하지만, 생성형 AI가 가고 있는 길은 우리에게 옳지 않습니다.
    우리는 인간을 위해 여기 있습니다. 우리는 우리의 가장 귀중한 보석인 인간의 창의성에 도덕적 위협이 되는 기술을 쫓지 않습니다. 이러한 기술적 급류 속에서, 이는 우리를 예외적으로 만들거나 뒤처질 위험이 있어 보일 수 있습니다. 하지만 우리는 이 덜 걸어본 길이 우리 커뮤니티에게 더 흥미롭고 결실 있는 길이라고 봅니다.

  • Nvidia칩을 비축하는 4개 회사

    Just four companies are hoarding tens of billions of dollars worth of Nvidia GPU chips
    Sherwood

    보도를 확인해 준 것은 아니지만 흥미로운 이야기. The Information에 따르면 벤처 캐피털 회사인 Andreesen Horowitz는 값비싼 GPU 20,000개 이상을 비축해 AI 스타트업에 지분을 대가로 임대해주고 있다고 한다 .