[카테고리:] IT

  • 챗지피티 부정행위 탐지도구

    There’s a Tool to Catch Students Cheating With ChatGPT. OpenAI Hasn’t Released It.
    WSJ

    OpenAI는 에세이나 연구 논문을 챗지피티로 작성했는지 감지할 수 있는 방법을 가지고 있다. 하지만 이용자 설문조사에서 30% 가까운 사람이 워터마크 사용시 챗지피티를 덜 사용할 것이라고 답했다. 이러한 이유로 기술을 도입하는데 있어 논쟁이 있다는 기사.

    ChatGPT는 문장에서 다음에 나올 단어나 단어 조각(토큰)을 예측하는 AI 시스템으로 구동됩니다. OpenAI에서 논의 중인 반부정행위 도구는 토큰이 선택되는 방식을 약간 변경합니다. 이러한 변경 사항은 워터마크라고 불리는 패턴을 남깁니다.

    이 워터마크는 인간의 눈에는 보이지 않지만, OpenAI의 감지 기술로 발견될 수 있습니다. 감지기는 문서 전체 또는 그 일부분이 ChatGPT에 의해 작성되었을 가능성이 얼마나 높은지를 점수로 제공합니다.

    내부 문서에 따르면, 워터마크는 ChatGPT에 의해 생성된 새로운 텍스트가 충분히 많을 때 99.9%의 효과를 보입니다.

    스탠포드 연구원인 John Thickstun은 “내일 태양이 증발할 가능성이 이 리포트에 워터마크가 없을 가능성보다 높습니다”라고 말했습니다. 그는 AI 텍스트에 대한 유사한 워터마킹 방법을 개발한 팀의 일원입니다.

  • 중국 직장 내 인공지능

    Workplace AI in China

    인공지능 때문인지 원래 중국의 996 문화때문인지 불분명하지만 요약 파트를 보면 노동자를 착취하는 방향으로 활용되는 것으로 보인다.

    중국 직장에서의 인공지능(AI) 통합은 주로 시장 세력과 경쟁에 의해 주도되며, 이는 노동자들보다 기업의 이익을 우선시합니다. 그 결과, 직장에서의 권력 균형은 데이터를 통제하고 알고리즘을 관리하는 고용주 쪽으로 더욱 기울어지며, 노동자들은 협상력이 약화되고 착취에 대한 취약성이 증가합니다.

    AI가 직장에서의 효율성을 높이는 역할을 하고 있음에도 불구하고, 이는 중국 노동자들의 직업 질을 향상시키지 못했습니다. AI 솔루션은 종종 유급 및 무급 노동 착취를 극대화하기 위해 설계되며, 이로 인해 노동 조건이 악화되고 직업 불안정성이 증가하는 경향이 있습니다.

    중국 노동자들은 AI 도구로 인해 더 많은 작업량과 스트레스를 겪고 있다고 보고합니다. 인간 감독자의 기대와 알고리즘 지표를 모두 충족해야 하는 압박은 종종 장시간 근무와 더 강도 높은 작업으로 이어지며, 이는 장기적으로 직원들의 성과 평가에 영향을 미칠 수 있습니다.

    중국 직장에서 AI의 급속한 도입은 노동자들이 적응할 수 있는 능력을 초과하여, 그들에게 빠르게 새로운 기술을 습득할 것을 요구하며, 따라잡지 못하는 사람들은 일자리를 잃을 위험에 처하게 합니다.

    부품 제조나 원자재 가공과 같은 낮은 부가가치 산업에 속한 소규모이거나 경쟁력이 낮은 중국 기업들은 더 좁은 이익 마진으로 인해 인력 관리에서 AI 솔루션을 더 공격적으로 사용하는 경향이 있으며, 이는 저숙련 일자리에 불균형적으로 영향을 미칩니다.

    기업들의 AI 역량 차이는 글로벌 가치 사슬에서 노동 관행을 양극화하고 있습니다. AI의 도입으로 인해, 자원이 제한적이고 경쟁 압박을 받는 기업들은 AI를 효과적이고 윤리적으로 사용할 동기가 부족하고 역량이 부족하기 때문에, 글로벌 남반구의 노동자들은 더 높은 착취 위험에 직면하고 있습니다.

  • 인공지능 참여의 아키텍처

    How to Fix “AI’s Original Sin”
    O’Reilly

    생성형 인공지능 학습데이터의 권리와 귀속에 관한 오라일리의 글. 중앙집권적 시스템(OpenAI)을 떠올리지만, 이는 초기 온라인 정보 제공자(AOL, MS) 모델과 유사하며, 인공지능도 웹과 같은 아키텍처를 가지는 그림을 제시.

    잠시 상상해보세요, AI가 월드 와이드 웹이나 리눅스와 같은 방식으로 작동하는 세상을. 기초 모델은 인간의 프롬프트를 이해하고 다양한 콘텐츠를 생성할 수 있습니다. 그러나 이들은 저작권 자료를 인식하고 이를 어떻게 다룰 수 있는지를 알고 있습니다. 중앙집중식 모델은 모든 것을 자유롭게 읽을 수 있는 것(세계 접근 권한)으로 훈련되어 있습니다. 다른 모델은 특정 그룹(회사나 조직, 사회, 국가 또는 언어 그룹 등)에 속한 콘텐츠를 기반으로 작동하며, 또 다른 모델은 개인의 고유한 콘텐츠를 기반으로 작동합니다.

    이런 세상을 ChatGPT나 Claude 또는 대형 중앙집중식 모델 위에서 구축할 수도 있겠지만, 협력하는 소규모 분산 모델로 구축하는 것이 더 가능성이 큽니다. 웹이 AOL이나 마이크로소프트 네트워크 위에서 구축된 것이 아니라 협력하는 웹 서버들에 의해 구축된 것과 마찬가지입니다. 오픈 소스 AI 모델이 대형 중앙집중식 모델보다 더 위험하다고 들었지만, 그 혜택과 위험을 명확하게 평가하는 것이 중요합니다. 오픈 소스는 혁신뿐만 아니라 통제도 더 잘 가능하게 합니다. 콘텐츠 소유자가 AI 검색 제공자에게 자신의 저장소를 열어주되, 콘텐츠가 어떻게 다뤄지는지 그리고 특히 어떻게 수익화되는지에 대한 통제와 포렌식을 제공하는 오픈 프로토콜이 있다면 어떨까요?

    유튜브의 콘텐츠ID를 언급하기도 한다. 그리고 자기네가 할 수 있다면 (이런 시스템을 구축하고자 하고 있음) 다른 사람들도 할 수 있다는 것을 알고 있다고 말한다.

  • robot.txt의 짧은 역사

    The text file that runs the internet
    Verge

    Robot.txt에 관한 짧은 역사를 설명하는 더버지 기사

    “Google은 우리에게 가장 중요한 스파이더입니다,”라고 Medium의 CEO Tony Stubblebine은 말합니다. Google은 Medium의 모든 페이지를 다운로드할 수 있으며, “그 대가로 우리는 상당한 트래픽을 얻습니다. 이것은 윈-윈입니다. 모두가 그렇게 생각합니다.” 이는 Google이 전체 인터넷과 맺은 거래로, 검색 결과에 광고를 판매하면서 다른 웹사이트로 트래픽을 유도하는 것입니다. 그리고 Google은 robots.txt의 좋은 시민이었습니다.

    …… 하지만 지난 1년 동안, AI의 부상은 그 방정식을 뒤집었습니다. 많은 출판사와 플랫폼에게, 그들의 데이터를 학습 데이터로 크롤링하는 것은 거래가 아니라 도둑질처럼 느껴졌습니다. “우리가 AI 회사들과 꽤 빨리 알게 된 것은,”라고 Stubblebine은 말합니다, “이는 가치 교환이 아니라는 것이었습니다. 우리는 대가로 아무것도 받지 못하고 있습니다. 문자 그대로 제로입니다.” Stubblebine이 작년 가을 Medium이 AI 크롤러를 차단할 것이라고 발표했을 때, 그는 “AI 회사들이 작가들로부터 가치를 빼앗아 인터넷 독자들에게 스팸을 보내기 위해 사용했습니다,”라고 썼습니다.

  • 상황 인식: 앞으로의 10년

    Situational Awareness: AI from now to 2034

    “상황 인식: 앞으로의 10년”은 이전 OpenAI의 Superalignment 팀 출신이며 현재 인공지능 일반(AI) 투자 회사를 설립한 레오폴드 아쉔브레너의 작품. Axios에 나온 10가지 요약

    1. “트렌드라인을 신뢰하라… 트렌드라인은 강력하고, 옳았다.”
    2. “해마다 회의론자들은 ‘딥 러닝이 X를 할 수 없다’고 주장해왔고, 그들은 빠르게 틀렸음이 입증되었습니다.”
    3. 2027년까지 모델이 AI 연구자/엔지니어의 작업을 수행할 수 있을 가능성이 “놀라울 정도로 그럴듯합니다.”
    4. “2027년까지, 챗봇 대신 동료처럼 보이는 에이전트를 가지게 될 것입니다.”
    5. 데이터 벽: “우리는 인터넷 데이터가 부족해지고 있습니다. 이는 매우 조만간 더 많은 스크랩 데이터를 사용한 대규모 언어 모델의 사전 훈련 접근 방식이 심각한 병목 현상에 직면하게 될 수 있음을 의미합니다.”
    6. “AI의 발전은 인간 수준에서 멈추지 않을 것입니다… 우리는 인간 수준에서 매우 초인적인 AI 시스템으로 빠르게 전환할 것입니다.”
    7. AI 제품은 “미국의 대기업들에게 가장 큰 수익 동력이 되고, 그들의 가장 큰 성장 영역이 될 가능성이 큽니다. 이 회사들의 전체 수익 성장 예측은 급증할 것입니다.”
    8. 인공지능 일반 연구에 대한 충분한 장벽을 세우지 못한 “오늘날의 실패는 곧 되돌릴 수 없게 될 것입니다: 향후 12-24개월 내에 우리는 중국 공산당에 주요 AGI 돌파구를 유출할 것입니다. 이는 이번 10년이 끝나기 전에 국가 안보 수립의 가장 큰 후회가 될 것입니다.”
    9. 초지능은 “미국의 가장 중요한 국가 방위 프로젝트가 될 것입니다.”
    10. “이 문제를 처리할 특공대는 없습니다. … 현재 상황을 이해하고 얼마나 미친 상황이 닥쳐올지 인식하는 사람은 전 세계적으로 수백 명에 불과합니다.”

    얼마나 받아들일지는 개인마다 다르겠지만 2번과 5번은 큰 이견 없이 받아들일만하다.

  • EU의 MS 반독점

    Microsoft charged with EU antitrust violations for bundling Teams
    Verge

    슬랙이 제기했던 논리를 그대로 적용하면 일정 점유율을 넘어선 소프트웨어는 새로운 기능을 추가하는게 불가능한걸까? 워드프로세서에 포함된 맞춤법 검사기는 반독점 조사가 필요한게 아닐까? 엑셀에 포함된 차트 도구는 어떨까.

    규제 차원에서 논의가되는 문제 중 하나는 결정이 늦다는 점이다. 2020년 7월이지만 지금은 2024년이다. 아마 국내 법안에서도 이런 부분에 대해 고민하고 있는 듯 하다.

    EU 법률 제정자들은 지난해 Microsoft Teams 번들링에 대한 반독점 조사를 처음으로 시작했으며, 이는 2020년 7월 Slack이 제기한 반경쟁적인 불만에 따른 것입니다. Slack의 원래 불만은 Microsoft가 Office에 Microsoft Teams 제품을 “불법적으로 묶어” 수백만 명에게 강제로 설치하고, 제거를 막고, 기업 고객에게 실제 비용을 숨겼다고 주장했습니다.

  • 미 대법원 쉐브론 원칙

    The Supreme Court just kneecapped tech regulation
    Axios

    적절한 타이밍에 기술 기업을 규제하는 것이 가능할까. 미국에서도 쉐브론 원칙이라고 부르던 것이 축소되면서 기술 기업 규제에 어려움이 생길 것이라고 예상.

    대법원의 이번 결정은 의회가 오랫동안 건강 관리, 환경, 통신과 같은 복잡한 기술 영역에 대한 규칙을 제정하는 데 사용해 온 규제 전략을 사실상 무산시켰습니다.

    지난 40년간, “Chevron deference”로 알려진 대법원 원칙 하에서 의회는 목표와 계획을 설정하는 폭넓은 원칙을 작성하고, 복잡한 시행 세부 사항과 사례별 결정을 행정부의 전문가에게 맡길 수 있다고 가정해 왔습니다.

    Chevron 원칙을 뒤집음으로써, 대법원은 의회가 미래를 예측하는 법을 작성해야 한다고 요구하고 있습니다. 입법자들은 더 이상 기본 규칙을 설정하고, 기관이 새로운 상황에 그 규칙을 적용하도록 할 수 없습니다. 이제는 점점 더 보수적인 법원이 기관들이 권한을 남용했는지 여부를 결정하게 될 것입니다.

    이 규제 혁명은 미국 정부가 인공지능의 부상을 새로운 기술 플랫폼으로 인식하기 시작한 시점에 발생했습니다. Chevron 원칙의 종말은 인공지능의 위험에 대한 가드레일을 설정하려는 정부의 어떤 노력도 통과되고 집행되기 어렵게 만듭니다.

  • 유럽 규제에 관한 평가

    The E.U. Goes Too Far
    Stratechery

    유럽에서 신제품 기능을 출시하는것을 유보한 애플의 결정에 대한 코멘트 (기타 규제 사례도 참고)

    유럽연합 집행위원회 부위원장 마그레테 베스타게르는 포럼 유럽에서 다음과 같이 말했다:

    “우리가 경쟁을 촉진해야 하는 곳에서 AI를 배치하지 않겠다고 말하는 것은 매우 흥미롭다. 이것은 이미 강력한 위치에 있는 곳에서 경쟁을 무력화하는 또 다른 방법이라는 것을 100% 인식하는 가장 놀라운 공개 선언이다.”

    이것은 전혀 말이 되지 않는다; Apple이 AI를 배치하지 않는 것은 사실 경쟁을 촉진시키는 것이며, 이는 Apple의 전화기가 그렇지 않은 경우보다 덜 완전하게 만들기 때문이다! 만약 그녀의 입장이 조금이라도 합리적이라면, 베스타게르는 승리의 축배를 들고 있어야 한다.

    벤톰슨은 아무리 규제가 있다 하더라도 기존 빅테크는 유럽 시장에 머무를 가능성이 많지만 오히려 다른 기업이 시장에 진입하는 것은 더욱 어려워질 것이라고 보았다. 결국 유럽 소비자는 더 적은 기능과 혁신을 제공받게 될 것이라고 말한다.

  • 인공지능 과도한 지출, 적은 수익

    Gen AI: too much spend, too little benefit?

    인공지능에 향후 1조 달러 투자가 예정되어 있으나 노동 생산성이 얼마나 증가하게 될지는 자동화의 범위, 비용 효율성, 노동 재배치에 대한 가정 차이로 큰 차이를 보이며, 기술 혁신에 대해 부정하지는 않지만 장기적 관점에서 비용절감과 가격인하가 이루어져야 할 것이라고 본다.

  • LLM 활용한 의사와 보험사 논쟁

    In Constant Battle With Insurers, Doctors Reach for a Cudgel: A.I.
    NYT

    보험 청구를 자동화하기 위해 인공지능을 사용하는 의사, 이를 신속하게 거부하기 위해 인공지능을 활용하는 보험사.

    의사들은 AI 챗봇을 사용하여 보험 회사에 보내는 편지를 초안 작성하는 데 도움을 받고 있습니다. 이 챗봇은 몇 초 만에 편지를 작성할 수 있어, 수년 간의 법률 제도와 의료 개혁 시도보다 더 빠르게 보험 청구 승인을 받을 수 있게 합니다. Dr. Tariq는 Doximity GPT라는 HIPAA 준수 챗봇을 사용하여 보험 승인 요청 시간을 절반으로 줄였고, 승인률도 크게 향상되었습니다.

    보험 회사들도 AI를 사용하여 대량의 청구를 신속하게 거부하는 데 도움을 받고 있으며, 이러한 과정이 AI 간의 “군비 경쟁”으로 발전할 가능성이 있다는 우려도 있습니다. 보험 청구 승인 과정은 의료 비용을 줄이기 위해 고안되었지만, 의사들은 이 과정이 환자들의 건강에 해로운 영향을 미친다고 생각합니다.