[작성자:] haeyeop

  • 업무에서 인공지능 활용에 관한 인식

    Western countries are more pessimistic about AI

    서양권이 인공지능을 업무 활용하는데 더 부정적 인식을 가지고 있다는 기시

  • 뉴스보다 자신을 믿는 사람들

    People trust themselves more than they trust the news. They shouldn’t.
    CJR

    저널리즘을 믿지 않는 사람들에 대해 이야기하며, (기존에도 스크랩해놨던) 네이처 연구를 소개하고 있다. 현상 자체에 대해서 생각해볼만한 듯.

    실제로 지난 10년간 뉴스 불신에 관한 연구가 폭발적으로 증가했으며, 일관된 연구 결과에 따르면 사람들은 저널리즘이 정치적으로 편향되어 있거나 ,경제적으로 타협하거나, 단순히 이해관계가 맞지않는 엘리트들이 생산한다고 믿기 때문에 저널리즘을 무시하고 싶은 충동을 점점 더 많이 느낀다는 사실을 알 수 있습니다. 사람들은 언론인들이 더 많은 돈을 벌기 위해 고의로 뉴스를 선정적으로 보도하거나 진보적 또는 보수적 관점에 맞게 뉴스를 왜곡한다고 생각합니다.

    저자는 오픈 엑세스 저널에 투고된 자신들 논문을 하나 소개하고 있는데 (Doctors Fact-Check, Journalists Get Fact-Checked: Comparing Public Trust in Journalism and Healthcare) 재미있는 이야기를 한다

    최근 저희 두 사람이 공동 저자로 참여한 또 다른 연구에서 사람들은 저널리즘과 의료 서비스를 불신하지만 자신의 의사는 신뢰한다는 사실을 발견했습니다. 그 결과, 저널리즘에서 관찰된 ‘직접 조사하기’ 트렌드가 의학에서는 반대로 나타났습니다: 사람들은 인터넷을 통해 의사의 말을 확인하는 대신, 온라인에서 읽은 내용을 확인하기 위해 의사를 찾아갔습니다. 다시 말해 ,의사는 팩트체크를 하지만 저널리스트는 팩트체크를 받는다는 뜻입니다.

  • 뉴스를 차단할 때 뒤따르는 정치적 위험

    When Facebook blocks news, studies show the political risks that follow
    Reuters

    지난 8월 Meta가 캐나다에서 뉴스 링크를 차단한 이후, 우파 밈 제작자인 Jeff Ballingall의 캐나다 프라우드 페이스북 페이지의 클릭 수가 급증했다. 캐나다의 페이스북 사용자들이 정치 관련 정보에 접근하는 방식에 심각한 변화가 일어나고 있으며, 뉴스 링크가 차단된 후 사용자들이 밈과 같은 의견 기반 콘텐츠에 더 많이 반응하게 되었다.

    맥길대학교와 토론토대학교 프로젝트인 미디어 생태계 관측소에 따르면, 한때 캐나다인들이 페이스북에서 뉴스 게시물을 하루에 500만에서 800만 번 보던 것이 사라졌습니다.
    정치적 인플루언서 계정, 예를 들어 당파적 논평가, 학자, 미디어 전문가와의 상호작용은 변함이 없었지만, 캐나다 정치 페이스북 그룹에서 이미지 기반 게시물에 대한 반응은 3배 증가하여 이전의 뉴스 게시물과의 상호작용을 맞췄다고 연구는 밝혔습니다.

    Facebook Media
  • 벽에 부딪친 데이팅앱

    Dating Apps Have Hit a Wall. Can They Turn Things Around?
    NYT

    미국에서는 새로운 관계의 절반이 데이팅 앱을 통해 이루어진다고 말하는데, 이러한 데이팅 앱에 미래가 있을까? 사람들이 만남에 돈을 지불하기를 꺼려하면서 어려움을 겪고 있다는 이야기.

    미국 최대 세대인 밀레니얼 세대는 Tinder가 처음 출시되었을 때 주된 데이트 연령층이었지만, 최근 몇 년 동안 결혼하는 사람들이 늘어나면서 앱을 그만두게 되었습니다. 이제 주요 사용자는 더 적은 가처분 소득을 가진 젊은 세대인 Z세대로 전환되었습니다. 이러한 세대 변화는 데이트 앱 산업에 도전 과제를 제기합니다.

    뉴욕 대학교의 18세 학생 Mandy Wang은 사람들을 직접 만나거나 Instagram이나 Snapchat 같은 플랫폼을 통해 직접 메시지를 보내는 것을 선호한다고 말했습니다. 데이트 앱은 “게임”처럼 캐주얼하게 사용하는 것이라고 했습니다.

    “사람들은 데이트 앱을 사용하지만, 지불하는 사람은 모릅니다,”라고 Wang은 말했습니다. 실제로 그녀는 누군가가 구독을 위해 돈을 지불하는 것을 알게 되면 “이상하다”고 생각할 것이라고 했습니다.

    현재 컨설턴트이자 데이트 코치인 Tinder의 전 사회학자 Jess Carbino는 젊은 사람들이 “여전히 온라인 데이트 앱을 사용할 욕구는 있지만, 파트너를 찾는 긴급성을 느끼지는 않는다”고 말했습니다.

  • 미스터 비스트 시대의 종말

    The end of the MrBeast era
    Polygon

    미스터비스트는 자선가로 여겨지며 유튜브의 대표 인물로 생각되었지만, 조회수와 수익에 집중해 유튜브를 피상적이고 상업적으로 만들었다고 비판받기도 한다. 미스터비스트는 자신이 벌어들인 돈을 동영상 제작에 재투자하고 검소하게 산다고 주장하지만, 그의 자금은 스폰서십 브랜드에서 나오며 논란이 될 만한 내용을 피하는 전략을 사용한다고 말한다. 유튜브는 과거의 개인 크리에이터가 소규모로 진행하는 진정성 있는 콘텐츠에서 화려하고 상업적인 콘텐츠로 변모했으며, 미스터비스트는 이러한 변화를 상징한다.

    몇 달 후, 이러한 신랄한 교환은 유튜브의 핵심을 관통하는 지속적인 긴장을 상징하게 되었습니다. 이 긴장은 미스터비스트의 콘텐츠가 플랫폼을 장악하기 시작하면서 더욱 뚜렷해졌으며, 이는 패러다임 전환을 예고합니다. 유튜브 전략가 잭커리 스미겔이 최근 동영상에서 설명한 바와 같이, 우리는 플랫폼에서 뚜렷한 시대의 시작과 끝을 목격했습니다. 처음에 유튜브는 진정성을 중요시했고, 전형적인 크리에이터는 침실에서 아이폰으로 녹화하곤 했습니다. 실제 수익이 발생하자, 플랫폼을 구축한 크리에이터들은 인기로 생계를 유지하는 브랜드가 되었습니다. 오늘날의 스모시는 인스타그램과 같은 플랫폼에서 큐레이션된 소셜 미디어의 등장으로 폭발적인 인기를 누리고 있으며, 2005년에 채널을 시작한 아마추어 듀오와는 매우 다릅니다.

    미스터비스트는 이 과시적인 유튜브 시대를 완벽하게 구현하고 있어, 스미겔과 같은 일부 사람들은 플랫폼의 현재 단계를 도널드슨과 동의어로 간주하기도 합니다. 사람들은 그의 영향을 모든 곳에서 볼 수 있습니다. 사람들이 만드는 활발한 콘텐츠 유형, 유튜브의 모든 인기 콘텐츠를 채우는 빠른 편집 스타일, 심지어 유튜버가 동영상 썸네일을 스타일링하는 방식까지도 말입니다. 최근까지도 미스터비스트는 플랫폼에서 가장 큰 동영상을 보유하고 있었습니다. 미스터비스트의 시그니처이자 끝없이 밈화되는 리액션 표정을 힌트로 얻지 않은 동영상은 드뭅니다. 맥로플린과 같은 비평가들에게 미스터비스트 모방범은 유튜브의 골칫거리입니다. 완전히 독창적인 콘텐츠를 제작하더라도, 플랫폼에서 가장 눈에 띄는 크리에이터는 촬영에 수백만 달러를 기꺼이 지출하는 사람의 극단적인 모습을 모방한 동영상을 제작합니다.

    이런 흐름이 과연 또 한번 변할까? 영상이 점점 틱톡처럼 될 것이라는 이야기는 공감이 가지만 사람들이 진정성을 더 추구하게 될 것이라는 이야기는 딱히 근거 있는 이야기처럼 들리진 않는다.

  • EU AI 법안


    Artificial Intelligence Act: MEPs adopt landmark law
    European Parliament. 24. 3. 13.

    빠르게 변하는 불분명한 분야의 규제. 나타나는 효과가 아닌 AI 자체를 규제하려는 시도가 맞을까

    이 규정은 고위험 AI로부터 기본권, 민주주의, 법치, 환경적 지속가능성을 보호하는 동시에 혁신을 촉진하고 유럽을 이 분야의 리더로 자리매김하는 것을 목표로 합니다. 이 규정은 잠재적 위험과 영향 수준에 따라 AI에 대한 의무를 규정하고 있습니다.

    금지된 애플리케이션

    새로운 규정은 민감한 특성에 기반한 생체 인식 분류 시스템, 얼굴 인식 데이터베이스를 만들기 위해 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑하는 등 시민의 권리를 위협하는 특정 AI 애플리케이션을 금지합니다. 직장과 학교에서의 감정 인식, 사회적 채점, 예측적 치안(개인의 프로파일링 또는 특성 평가만을 기반으로 하는 경우), 인간의 행동을 조작하거나 사람의 취약점을 악용하는 AI도 금지됩니다.

    법 집행 기관 면제

    법 집행 기관에서 생체 인식 시스템(RBI)을 사용하는 것은 원칙적으로 금지되어 있으며, 예외적으로 엄격하게 정의된 경우에만 허용됩니다. “실시간” RBI는 시간과 지리적 범위가 제한되고 특정 사전 사법 또는 행정 허가를 받아야 하는 등 엄격한 안전장치를 충족하는 경우에만 배포할 수 있습니다. 예를 들어 실종자 수색이나 테러 공격 방지 등이 이러한 용도에 포함될 수 있습니다. 이러한 시스템을 사후에 사용하는 경우(“사후 원격 RBI”)는 고위험 사용 사례로 간주되며, 형사 범죄와 관련된 사법적 허가가 필요합니다.

    고위험 시스템에 대한 의무 사항

    건강, 안전, 기본권, 환경, 민주주의 및 법치에 대한 중대한 잠재적 피해로 인해 다른 고위험 AI 시스템에 대해서도 명확한 의무가 부과될 것으로 예상됩니다. 고위험 AI 사용의 예로는 중요 인프라, 교육 및 직업 훈련, 고용, 필수 민간 및 공공 서비스(예: 의료, 은행 업무), 법 집행, 이주 및 국경 관리, 사법 및 민주적 절차(예: 선거에 영향을 미치는 것)의 특정 시스템이 있습니다. 이러한 시스템은 위험을 평가 및 줄이고, 사용 로그를 유지하며, 투명하고 정확해야 하고, 사람의 감독이 보장되어야 합니다. 시민은 AI 시스템에 대한 불만을 제기하고 자신의 권리에 영향을 미치는 고위험 AI 시스템에 기반한 결정에 대한 설명을 받을 권리가 있습니다.

    투명성 요구 사항

    범용 AI(GPAI) 시스템과 그 기반이 되는 GPAI 모델은 EU 저작권법 준수, 교육에 사용된 콘텐츠의 상세 요약 게시 등 특정 투명성 요건을 충족해야 합니다. 시스템적 위험을 초래할 수 있는 더 강력한 GPAI 모델일수록 모델 평가 수행, 시스템적 위험 평가 및 완화, 사고 보고 등의 추가 요건에 직면하게 됩니다.

    또한 인위적이거나 조작된 이미지, 오디오 또는 비디오 콘텐츠(‘딥페이크’)에는 이러한 사실을 명확하게 표시해야 합니다.

  • 핑크 슬라임 저널리즘

    “Pink Slime Journalism” and a history of media manipulation in America
    CJR

    핑크 슬라임 언론 매체는 지역 저널리즘이 공익에 뿌리를 두고 있다는 독자들의 믿음을 이용해서 당파적 또는 기업적 논점을 강조합니다. 그리고 새로운 인공지능 기술 덕분에 이러한 콘텐츠를 더 빠르고 쉽고 저렴하게 제작할 수 있게 되었다. 글에서는 벤자민 프랭클린의 가짜 뉴스에서 헨리 포드의 반유대주의 선전에 이르기까지 미국 역사 속 미디어 조작 사례를 소개하고 있다.

    미국 전역에서 저비용, 저품질의 지역 뉴스 콘텐츠가 확산되면서 ‘핑크 슬라임 저널리즘 ‘이라는 명칭이처음 사용된 지 10년이넘었습니다 . 이 기간 동안 핑크 슬라임 생산자( 예: 1,200개 이상의 웹사이트 네트워크를 운영하는 메트릭 미디어)는 컬럼비아 대학교의 디지털 저널리즘을 위한 견인 센터의 새보고서에 자세히 설명된 대로 초당파적 콘텐츠와 느슨한 윤리적 기준의 대명사가 되었습니다.

    이러한 사이트는 친숙하지만 오해의 소지가 있으며, 신뢰할 수 있는 전통적인 지역 기반의 디지털 신문으로 가장하지만 실제로는 전략적으로 중요한 위치에서 정치적, 이념적, 상업적 이해관계를 홍보하고 있습니다. 핑크 슬라임 출판물은 정치 후보자 지원부터 경영난에 처한 기업에 대한 긍정적인 홍보까지, ‘뉴스’ 조직이 게시하는 콘텐츠 유형에 대한 수용자의 가정, 특히 저널리즘( 특히 지역 저널리즘)이 상업적 거래나 숨겨진 정치적 의제가 아니라 공익과 뉴스 가치에 의해 동기 부여 된다는기대를이용하려고 합니다.

  • 인공지능의 현실적 활용법

    The AI Industry Is Stuck on One Very Specific Way to Use a Chatbot

    인공지능을 어떻게 활용해야 하는지 여전히 많은 사람들이 혼란스러워하는 것 같다. “나 대신 휴가 예약해줘”와 같은 방식은 현실적 활용 사례라 보기 어렵다.

    상하이 푸단대학교, 오하이오주립대학교, 펜실베이니아주립대학교, 메타의 연구팀도 비슷한 결론에 도달했습니다. 이들은 “2022년 3월 25일부터 3월 27일까지 3일간 잭슨빌에서 출발하여 로스앤젤레스로 향하는 혼자 여행하는 여행자의 여행 일정을 만들어 주세요”와 같은 1,000개의 샘플 쿼리에 대해 챗봇을 테스트했습니다. 이 여행의 예산은 현재 2,400달러로 설정되어 있습니다.” 그런 다음 챗봇이 프롬프트의 모든 기준을 충족하는 답변을 제공할 수 있는지 평가했습니다. 챗봇은 전반적으로 거의 실패했습니다. 테스트한 4개 모델 중 OpenAI의 GPT-4 모델이 가장 우수한 성능을 보였지만, 이 모델도 1,000개 중 0.6%인 6개 쿼리에만 성공적으로 답변했습니다. (이 연구는 아직 동료 검토를 거치지 않았습니다.)

    챗봇은 다양한 요인으로 인해 실패했습니다: 챗봇은 추론 오류를 범하기도 하고, 때로는 엉뚱한 말을 지어내기도 했습니다. “이 점은 아무리 강조해도 지나치지 않습니다: 이런 종류의 도구는 의사 결정 과정을 대체하는 것이 아니라 보완하는 것입니다.”라고 AI 회사인 Hugging Face의 커뮤니케이션 책임자인 브리짓 투시그넌트는 말합니다.

  • 구글 검색 품질 저하

    It’s not just you, Google Search really has gotten worse
    Mashable

    유료가 아닌 기사를 검색하려다보니 자세하지는 않은 내용이다. 생성형 인공지능때문에 구글 검색 품질이 나빠진다는 개별 경험담은 많았지만 실증 연구 결과는 처음이지 않나 싶다.

    독일 라이프치히 대학교, 바이마르 바우하우스 대학교, 확장 가능한 데이터 분석 및 인공 지능 센터의 연구진이 발표한 새로운 연구 결과에서 이 같은 사실이 밝혀졌습니다. 연구진은 “Google은 점점 더 나빠지고 있는가?”라는 질문을 던지며 1년 동안 Google, Bing, DuckDuckGo에서 7,392개의 제품 리뷰 쿼리를 조사했습니다.

    연구원들은 “특히 제품 검색에 대한 저품질 콘텐츠의 범람으로 인해 검색 결과에서 유용한 정보가 계속 사라지고 있다”는 보고를 토대로 연구를 진행했습니다. 제품 관련 검색어에 대한 응답으로 발견된 결과 중 상당수는 “노골적인 SEO 제품 리뷰 스팸”이었습니다.

    이 연구에 따르면 스팸 사이트는 매우 널리 퍼져 있으며, 사이트와 검색 엔진 간의 “끊임없는 싸움”에서 구글 순위 상단에 표시되고 있는 것으로 나타났습니다. 다시 말해, “검색 엔진은 SEO 스팸이라는 고양이와 쥐의 게임에서 지는 것 같다”는 것입니다.

  • 가짜뉴스 조사하기

    Asking people to “do the research” on fake news stories makes them seem more believable, not less
    Niemanlab

    미디어리터러시에서 흔히 이야기하는 방법은 정보를 직접 확인해보라는 것이다. 하지만 네이처 연구는 온라인에서 정보를 검색하는 행위가 잘못된 정보를 더 확산시킬 수 있는 가능성이 있다는 결과를 보여준다.

    연구는 단순히 온라인에서 정보를 검색하는 행위 자체가 잘못된 정보를 더욱 확산시킬 수 있다는 사실을 밝혔습니다. 사용자가 온라인에서 직접 정보의 진실성을 평가하려 할 때, 자주 저품질의 정보원으로 인도되어 오히려 잘못된 정보를 더 신뢰하게 되는 경향이 있다는 것입니다. 이는 검색 엔진이 때때로 저품질 정보를 반환할 때 더욱 두드러집니다.

    이런 현상은 ‘데이터 공백’이라는 용어로 설명될 수 있습니다. 이는 특정 검색어에 대해 신뢰할 수 있는 정보원이 부족하여, 자동적으로 저품질 또는 편향된 정보원이 상위에 노출되는 경우를 말합니다. 이러한 문제는 검색 엔진이 주로 사용되는 뉴스 평가 방식(SOTEN)에서 더욱 문제가 되는데, 이 방식이 실제로 잘못된 정보에 대한 믿음을 증가시키는 결과를 낳았습니다.