[카테고리:] IT

  • 중국 직장 내 인공지능

    Workplace AI in China

    인공지능 때문인지 원래 중국의 996 문화때문인지 불분명하지만 요약 파트를 보면 노동자를 착취하는 방향으로 활용되는 것으로 보인다.

    중국 직장에서의 인공지능(AI) 통합은 주로 시장 세력과 경쟁에 의해 주도되며, 이는 노동자들보다 기업의 이익을 우선시합니다. 그 결과, 직장에서의 권력 균형은 데이터를 통제하고 알고리즘을 관리하는 고용주 쪽으로 더욱 기울어지며, 노동자들은 협상력이 약화되고 착취에 대한 취약성이 증가합니다.

    AI가 직장에서의 효율성을 높이는 역할을 하고 있음에도 불구하고, 이는 중국 노동자들의 직업 질을 향상시키지 못했습니다. AI 솔루션은 종종 유급 및 무급 노동 착취를 극대화하기 위해 설계되며, 이로 인해 노동 조건이 악화되고 직업 불안정성이 증가하는 경향이 있습니다.

    중국 노동자들은 AI 도구로 인해 더 많은 작업량과 스트레스를 겪고 있다고 보고합니다. 인간 감독자의 기대와 알고리즘 지표를 모두 충족해야 하는 압박은 종종 장시간 근무와 더 강도 높은 작업으로 이어지며, 이는 장기적으로 직원들의 성과 평가에 영향을 미칠 수 있습니다.

    중국 직장에서 AI의 급속한 도입은 노동자들이 적응할 수 있는 능력을 초과하여, 그들에게 빠르게 새로운 기술을 습득할 것을 요구하며, 따라잡지 못하는 사람들은 일자리를 잃을 위험에 처하게 합니다.

    부품 제조나 원자재 가공과 같은 낮은 부가가치 산업에 속한 소규모이거나 경쟁력이 낮은 중국 기업들은 더 좁은 이익 마진으로 인해 인력 관리에서 AI 솔루션을 더 공격적으로 사용하는 경향이 있으며, 이는 저숙련 일자리에 불균형적으로 영향을 미칩니다.

    기업들의 AI 역량 차이는 글로벌 가치 사슬에서 노동 관행을 양극화하고 있습니다. AI의 도입으로 인해, 자원이 제한적이고 경쟁 압박을 받는 기업들은 AI를 효과적이고 윤리적으로 사용할 동기가 부족하고 역량이 부족하기 때문에, 글로벌 남반구의 노동자들은 더 높은 착취 위험에 직면하고 있습니다.

  • 생성형 인공지능의 교육활용 효과

    Generative AI Can Harm Learning

    와튼스쿨에서 한 연구결과. 학습에 생성 인공지능 활용시 성과 향상을 가져오지만, 이러한 접근이 제거되었을 때 접근해보지 못한 학생에 비해 더 나쁜 성적을 보였다는 연구 결과. 즉 스스로 수행하는 능력이 더 나빠진다는 것을 시사한다. 후방카메라 있던 차를 운전하다 후방카메라가 없어지면 주차하기 어려운 것과 같다

    생성형 인공지능(AI)은 인간의 업무 방식을 혁신할 준비가 되어 있으며, 이미 인간의 생산성을 크게 향상시킬 수 있음을 입증했습니다. 그러나 남아있는 중요한 질문은 생성형 AI가 학습, 즉 인간이 작업을 수행하면서 새로운 기술을 습득하는 방식에 어떤 영향을 미치는가입니다. 이러한 기술 학습은 특히 생성형 AI가 오류를 범할 수 있고 인간 전문가가 그 결과를 확인해야 하는 영역에서 장기적인 생산성 향상에 중요합니다. 우리는 고등학교 수학 수업 맥락에서 생성형 AI, 특히 OpenAI의 GPT-4가 인간의 학습에 미치는 영향을 연구했습니다.

    거의 천 명의 학생들이 참여한 현장 실험에서, 우리는 표준 ChatGPT 인터페이스를 모방한 튜터(GPT Base라고 함)와 학습을 보호하도록 설계된 프롬프트가 있는 튜터(GPT Tutor라고 함) 두 가지 GPT 기반 튜터를 배포하고 평가했습니다. 이 튜터들은 3개 학년 각각의 커리큘럼 중 약 15%를 차지합니다. 이전 연구와 일치하게, 우리의 결과는 GPT-4에 대한 접근이 성과를 크게 향상시킨다는 것을 보여줍니다(GPT Base의 경우 48% 향상, GPT Tutor의 경우 127% 향상).

    그러나 우리는 추가로 접근이 이후에 제거되었을 때, 학생들이 실제로 접근 권한이 전혀 없었던 학생들보다 더 나쁜 성과를 보인다는 것을 발견했습니다(GPT Base의 경우 17% 감소). 즉, GPT-4에 대한 접근이 교육 결과에 해를 끼칠 수 있습니다. 이러한 부정적인 학습 효과는 GPT Tutor에 포함된 안전장치에 의해 크게 완화됩니다.

    우리의 결과는 학생들이 연습 문제 세션 동안 GPT-4를 “지팡이”로 사용하려고 시도하며, 성공했을 때 스스로 수행하는 능력이 더 나빠진다는 것을 시사합니다. 따라서 장기적인 생산성을 유지하기 위해서는 인간이 계속해서 중요한 기술을 학습할 수 있도록 생성형 AI를 배포할 때 주의해야 합니다. *HB, OB, AS가 동등하게 기여함

    키워드: 생성형 AI, 인적 자본 개발, 교육, 인간-AI 협력, 대규모 언어 모델

  • 인공지능 활용 스마트 스크린샷

    Google makes your Pixel screenshots searchable with Recall-like AI feature
    The Verge

    인공지능을 어떤 방식으로 제품화하는지가 더 중요할 수 있는데 스마트 스크린샷을 보면 그런게 아닐지. 마이크로소프트의 리콜과 유사해보이지만 검색 범위를 스크린샷으로 제한했다. 구글 트윗 글처럼 내 폰 안에도 수많은 스크린샷이 잠자고 있는지도.

  • 인공지능 참여의 아키텍처

    How to Fix “AI’s Original Sin”
    O’Reilly

    생성형 인공지능 학습데이터의 권리와 귀속에 관한 오라일리의 글. 중앙집권적 시스템(OpenAI)을 떠올리지만, 이는 초기 온라인 정보 제공자(AOL, MS) 모델과 유사하며, 인공지능도 웹과 같은 아키텍처를 가지는 그림을 제시.

    잠시 상상해보세요, AI가 월드 와이드 웹이나 리눅스와 같은 방식으로 작동하는 세상을. 기초 모델은 인간의 프롬프트를 이해하고 다양한 콘텐츠를 생성할 수 있습니다. 그러나 이들은 저작권 자료를 인식하고 이를 어떻게 다룰 수 있는지를 알고 있습니다. 중앙집중식 모델은 모든 것을 자유롭게 읽을 수 있는 것(세계 접근 권한)으로 훈련되어 있습니다. 다른 모델은 특정 그룹(회사나 조직, 사회, 국가 또는 언어 그룹 등)에 속한 콘텐츠를 기반으로 작동하며, 또 다른 모델은 개인의 고유한 콘텐츠를 기반으로 작동합니다.

    이런 세상을 ChatGPT나 Claude 또는 대형 중앙집중식 모델 위에서 구축할 수도 있겠지만, 협력하는 소규모 분산 모델로 구축하는 것이 더 가능성이 큽니다. 웹이 AOL이나 마이크로소프트 네트워크 위에서 구축된 것이 아니라 협력하는 웹 서버들에 의해 구축된 것과 마찬가지입니다. 오픈 소스 AI 모델이 대형 중앙집중식 모델보다 더 위험하다고 들었지만, 그 혜택과 위험을 명확하게 평가하는 것이 중요합니다. 오픈 소스는 혁신뿐만 아니라 통제도 더 잘 가능하게 합니다. 콘텐츠 소유자가 AI 검색 제공자에게 자신의 저장소를 열어주되, 콘텐츠가 어떻게 다뤄지는지 그리고 특히 어떻게 수익화되는지에 대한 통제와 포렌식을 제공하는 오픈 프로토콜이 있다면 어떨까요?

    유튜브의 콘텐츠ID를 언급하기도 한다. 그리고 자기네가 할 수 있다면 (이런 시스템을 구축하고자 하고 있음) 다른 사람들도 할 수 있다는 것을 알고 있다고 말한다.

  • robot.txt의 짧은 역사

    The text file that runs the internet
    Verge

    Robot.txt에 관한 짧은 역사를 설명하는 더버지 기사

    “Google은 우리에게 가장 중요한 스파이더입니다,”라고 Medium의 CEO Tony Stubblebine은 말합니다. Google은 Medium의 모든 페이지를 다운로드할 수 있으며, “그 대가로 우리는 상당한 트래픽을 얻습니다. 이것은 윈-윈입니다. 모두가 그렇게 생각합니다.” 이는 Google이 전체 인터넷과 맺은 거래로, 검색 결과에 광고를 판매하면서 다른 웹사이트로 트래픽을 유도하는 것입니다. 그리고 Google은 robots.txt의 좋은 시민이었습니다.

    …… 하지만 지난 1년 동안, AI의 부상은 그 방정식을 뒤집었습니다. 많은 출판사와 플랫폼에게, 그들의 데이터를 학습 데이터로 크롤링하는 것은 거래가 아니라 도둑질처럼 느껴졌습니다. “우리가 AI 회사들과 꽤 빨리 알게 된 것은,”라고 Stubblebine은 말합니다, “이는 가치 교환이 아니라는 것이었습니다. 우리는 대가로 아무것도 받지 못하고 있습니다. 문자 그대로 제로입니다.” Stubblebine이 작년 가을 Medium이 AI 크롤러를 차단할 것이라고 발표했을 때, 그는 “AI 회사들이 작가들로부터 가치를 빼앗아 인터넷 독자들에게 스팸을 보내기 위해 사용했습니다,”라고 썼습니다.

  • 상황 인식: 앞으로의 10년

    Situational Awareness: AI from now to 2034

    “상황 인식: 앞으로의 10년”은 이전 OpenAI의 Superalignment 팀 출신이며 현재 인공지능 일반(AI) 투자 회사를 설립한 레오폴드 아쉔브레너의 작품. Axios에 나온 10가지 요약

    1. “트렌드라인을 신뢰하라… 트렌드라인은 강력하고, 옳았다.”
    2. “해마다 회의론자들은 ‘딥 러닝이 X를 할 수 없다’고 주장해왔고, 그들은 빠르게 틀렸음이 입증되었습니다.”
    3. 2027년까지 모델이 AI 연구자/엔지니어의 작업을 수행할 수 있을 가능성이 “놀라울 정도로 그럴듯합니다.”
    4. “2027년까지, 챗봇 대신 동료처럼 보이는 에이전트를 가지게 될 것입니다.”
    5. 데이터 벽: “우리는 인터넷 데이터가 부족해지고 있습니다. 이는 매우 조만간 더 많은 스크랩 데이터를 사용한 대규모 언어 모델의 사전 훈련 접근 방식이 심각한 병목 현상에 직면하게 될 수 있음을 의미합니다.”
    6. “AI의 발전은 인간 수준에서 멈추지 않을 것입니다… 우리는 인간 수준에서 매우 초인적인 AI 시스템으로 빠르게 전환할 것입니다.”
    7. AI 제품은 “미국의 대기업들에게 가장 큰 수익 동력이 되고, 그들의 가장 큰 성장 영역이 될 가능성이 큽니다. 이 회사들의 전체 수익 성장 예측은 급증할 것입니다.”
    8. 인공지능 일반 연구에 대한 충분한 장벽을 세우지 못한 “오늘날의 실패는 곧 되돌릴 수 없게 될 것입니다: 향후 12-24개월 내에 우리는 중국 공산당에 주요 AGI 돌파구를 유출할 것입니다. 이는 이번 10년이 끝나기 전에 국가 안보 수립의 가장 큰 후회가 될 것입니다.”
    9. 초지능은 “미국의 가장 중요한 국가 방위 프로젝트가 될 것입니다.”
    10. “이 문제를 처리할 특공대는 없습니다. … 현재 상황을 이해하고 얼마나 미친 상황이 닥쳐올지 인식하는 사람은 전 세계적으로 수백 명에 불과합니다.”

    얼마나 받아들일지는 개인마다 다르겠지만 2번과 5번은 큰 이견 없이 받아들일만하다.

  • EU의 MS 반독점

    Microsoft charged with EU antitrust violations for bundling Teams
    Verge

    슬랙이 제기했던 논리를 그대로 적용하면 일정 점유율을 넘어선 소프트웨어는 새로운 기능을 추가하는게 불가능한걸까? 워드프로세서에 포함된 맞춤법 검사기는 반독점 조사가 필요한게 아닐까? 엑셀에 포함된 차트 도구는 어떨까.

    규제 차원에서 논의가되는 문제 중 하나는 결정이 늦다는 점이다. 2020년 7월이지만 지금은 2024년이다. 아마 국내 법안에서도 이런 부분에 대해 고민하고 있는 듯 하다.

    EU 법률 제정자들은 지난해 Microsoft Teams 번들링에 대한 반독점 조사를 처음으로 시작했으며, 이는 2020년 7월 Slack이 제기한 반경쟁적인 불만에 따른 것입니다. Slack의 원래 불만은 Microsoft가 Office에 Microsoft Teams 제품을 “불법적으로 묶어” 수백만 명에게 강제로 설치하고, 제거를 막고, 기업 고객에게 실제 비용을 숨겼다고 주장했습니다.

  • 미 대법원 쉐브론 원칙

    The Supreme Court just kneecapped tech regulation
    Axios

    적절한 타이밍에 기술 기업을 규제하는 것이 가능할까. 미국에서도 쉐브론 원칙이라고 부르던 것이 축소되면서 기술 기업 규제에 어려움이 생길 것이라고 예상.

    대법원의 이번 결정은 의회가 오랫동안 건강 관리, 환경, 통신과 같은 복잡한 기술 영역에 대한 규칙을 제정하는 데 사용해 온 규제 전략을 사실상 무산시켰습니다.

    지난 40년간, “Chevron deference”로 알려진 대법원 원칙 하에서 의회는 목표와 계획을 설정하는 폭넓은 원칙을 작성하고, 복잡한 시행 세부 사항과 사례별 결정을 행정부의 전문가에게 맡길 수 있다고 가정해 왔습니다.

    Chevron 원칙을 뒤집음으로써, 대법원은 의회가 미래를 예측하는 법을 작성해야 한다고 요구하고 있습니다. 입법자들은 더 이상 기본 규칙을 설정하고, 기관이 새로운 상황에 그 규칙을 적용하도록 할 수 없습니다. 이제는 점점 더 보수적인 법원이 기관들이 권한을 남용했는지 여부를 결정하게 될 것입니다.

    이 규제 혁명은 미국 정부가 인공지능의 부상을 새로운 기술 플랫폼으로 인식하기 시작한 시점에 발생했습니다. Chevron 원칙의 종말은 인공지능의 위험에 대한 가드레일을 설정하려는 정부의 어떤 노력도 통과되고 집행되기 어렵게 만듭니다.

  • 유럽 규제에 관한 평가

    The E.U. Goes Too Far
    Stratechery

    유럽에서 신제품 기능을 출시하는것을 유보한 애플의 결정에 대한 코멘트 (기타 규제 사례도 참고)

    유럽연합 집행위원회 부위원장 마그레테 베스타게르는 포럼 유럽에서 다음과 같이 말했다:

    “우리가 경쟁을 촉진해야 하는 곳에서 AI를 배치하지 않겠다고 말하는 것은 매우 흥미롭다. 이것은 이미 강력한 위치에 있는 곳에서 경쟁을 무력화하는 또 다른 방법이라는 것을 100% 인식하는 가장 놀라운 공개 선언이다.”

    이것은 전혀 말이 되지 않는다; Apple이 AI를 배치하지 않는 것은 사실 경쟁을 촉진시키는 것이며, 이는 Apple의 전화기가 그렇지 않은 경우보다 덜 완전하게 만들기 때문이다! 만약 그녀의 입장이 조금이라도 합리적이라면, 베스타게르는 승리의 축배를 들고 있어야 한다.

    벤톰슨은 아무리 규제가 있다 하더라도 기존 빅테크는 유럽 시장에 머무를 가능성이 많지만 오히려 다른 기업이 시장에 진입하는 것은 더욱 어려워질 것이라고 보았다. 결국 유럽 소비자는 더 적은 기능과 혁신을 제공받게 될 것이라고 말한다.

  • 인공지능 과도한 지출, 적은 수익

    Gen AI: too much spend, too little benefit?

    인공지능에 향후 1조 달러 투자가 예정되어 있으나 노동 생산성이 얼마나 증가하게 될지는 자동화의 범위, 비용 효율성, 노동 재배치에 대한 가정 차이로 큰 차이를 보이며, 기술 혁신에 대해 부정하지는 않지만 장기적 관점에서 비용절감과 가격인하가 이루어져야 할 것이라고 본다.