Blog

  • 디지털 뉴스 리포트 2023

    Digital News Report 2023

    매년 나오는 보고서를 꼼꼼하게 보지는 않지만 최근 생각하고 있는 주제 중 하나랑 연결될만한 이야기가 눈에 띄어서 남기는 글.

    로이터 연구소의 연례 디지털 뉴스 보고서는 46개 시장의 디지털 뉴스 소비자 93,000여 명을 대상으로 설문조사를 실시했습니다. 그 결과 뉴스 소비자, 특히 젊은 층의 뉴스 소비자들이 <뉴스 매체의 웹사이트보다는 소셜 미디어나 뉴스 애그리게이터를 통해 뉴스를 찾는 것을 선호합니다 또는 앱. Facebook의 영향력은 감소한 반면 TikTok의 영향력은 증가했으며, 사용자들은 언론사보다 인플루언서나 유명인의 뉴스를 더 많이 접한다고 응답했습니다. 뉴스 매체에 대한 신뢰도는 모든 시장에서 하락했으며, 핀란드의 전체 신뢰도가 69%로 가장 높았고 그리스가 19%로 가장 낮았습니다.

    from American Press Institute

    뉴스 회피 현상과 관련해서 생각하는 몇 가지 중 하나가 뉴스를 전통 미디어 기업을 통해 듣게 되지 않는다는 점이다. 학부 수업때 미디어 효과론을 들으며 지겨운 이야기라고 생각했지만, 요즘 효과론 책을 다시 읽다보면 눈에 띄는 이야기가 많다.

  • AI가 코딩을 배우지 않아야 할 이유가 될까

    Is AI an Excuse for Not Learning To Code? 
    Slashdot

    과연 코딩을 배워야하는가와 관련해 여러가지 논쟁이 있었다. 최근에 코딩을 배우지 않아야 하는 이유로 제시되는 것 중 하나는 인공지능. 챗지피티 이후 스택오버플로우 트래픽 감소와 같은 결과가 나타났다는 사실도 주목받은바 있다. 아래는 슬래시닷에 올라온 글 중 하나.

    Y 컴비네이터의 설립자 폴 그레이엄은 지난주 트위터를 통해 인공지능이나 다른 핑계를 대며 코딩을 배우지 않는 사람들을 한탄했습니다. “한 세대 전만 해도 모든 프로그래밍 일자리가 인도에 아웃소싱될 것이기 때문에 프로그래밍을 배울 필요가 없다고 말하는 사람들이 있었습니다.”라고 Graham은 썼습니다. “이제 그들은 AI가 모든 것을 할 것이기 때문에 그럴 필요가 없다고 말하고 있습니다. 프로그래밍을 배우고 싶지 않다면 언제든지 이유를 찾을 수 있습니다.”

    이번 주 블룸테크 코딩 부트캠프의 CEO 오스틴 앨레드(Austen Allred)는 그레이엄의 트윗을 두 배로 확대하여 사람들이 코딩을 배우지 않는 이유에 대한 자신의 변명을 전했습니다… 앨레드의 트윗은 다음과 같습니다:

    “코딩을 배우지 마세요. 곧 GUI가 모든 것을 알아서 해줄 것입니다.” – 1985

    “코딩을 배우지 마세요. 곧 이 모든 것이 해외에서 단돈 몇 푼으로 이루어질 것입니다.” – 2003

    “코딩을 배우지 마세요. 곧 노코드 도구가 모든 것을 대신해 줄 것입니다.” – 2015

    “코딩을 배우지 마세요. 곧 인공지능이 모든 것을 알아서 해줄 것입니다.” – 2023

    올레드의 경고 메시지를 리트윗한 사람 중에는 2030년까지 컴퓨터 과학을 고등학교 졸업 필수 과목으로 지정하는 것을 목표로 하는 기술 지원 비영리 단체인 Code.org의 CEO도 있었는데, 그는 사람들이 코딩을 배우지 않아도 되는 시대는 곧 끝날 것이라고 그레이엄에게 안심시키는 트윗으로 답장을 보냈습니다. “이제 27개 주에서 모든 학교에서 컴퓨터 과학을 가르쳐야 하고, 7개 주에서는 고등학교 졸업 시 CS 과정을 필수로 이수해야 합니다.”라고 Code.org의 CEO 하디 파토비는 설명하며 “이제 논쟁은 사실상 끝났습니다.”라고 말합니다. 컴퓨터 과학이 이겼습니다.”

    GUI부터 노코드 도구에 이르기까지 모든 이야기가 나 자신도 했던 말이기는 하다. 개인적으로 어떤 입장인지 물어보면 배우는게 좋기는 하다는 쪽이다. 다만 현실적으로 코딩을 배워서 활용하는 사람은 매우 소수이지 않나 싶다. 조금 더 세부적으로 보면 코딩의 수준도 천차만별이라 코딩을 배우는게 좋다고 하는게 어떤 수준을 말하는건지도 조금 생각해볼 필요는 있다는 점. 엑셀을 쓴다고 해도 이용하는 사람에 따라 활용 수준이 완전히 다른 것처럼, 코딩도 라이브러리도 간단한 코드 몇 줄 만드는건 코딩 아니라 인문학 아니냐고 말하는 엔지니어도 있으니까 말이다.

  • 제번스의 역설

    AI and employment($)
    By Benedict Evans

    챗지피티와 같은 언어모델 기반 인공지능이 고용에 어떤 영향을 미칠 것인지에 대한 논쟁이 있는데, 주말에도 사람들이 비슷한 주제로 토론하는 것을 들었다. 과연 인공지능 비서가 생기면 우리가 일을 덜 하게 될까? 이와 관련해서 베네딕트 에반스가 쓴 글에서 제번스의 역설을 이야기한다.

    19세기 영국 해군은 세계 최강의 해군으로 석탄을 연료로 사용했는데, 영국은 대부분 석탄으로 만들어졌지만 언젠가는 석탄이 고갈될 것입니다. 그래서 사람들은 해군은 어떻게 될까 하고 물었습니다. 증기 기관이 점점 더 효율적이므로 석탄을 덜 사용하게 될 것이라는 일반적인 대답이 돌아왔습니다. 증기 기관을 더 효율적으로 만들면 더 저렴해질 것이므로 석탄을 더 많이 사용할 것이 아니라 더 적게 사용할 것입니다. 컴퓨터는 분석을 더 저렴하게 만들었기 때문에 더 많은 사람을 고용하여 더 많은 작업을 수행합니다. Excel도 같은 효과를 가져옵니다. 며칠 또는 몇 주가 걸리던 일을 한 사람이 한 시간 만에 할 수 있게 되었기 때문에 골드만삭스 직원들은 금요일 오후 3시에 퇴근할 수 있게 된 것이죠? 틀렸습니다.

    디아블로 하는 날 같은건 오지 않을지도 모른다.

  • 기사의 투명성과 신뢰도

    Where should transparency language go? In the story itself.

    해외 기사는 투명성 관련 내용을 기사에 포함해서 작성하는 경우가 많다. 투명성 상자는 언론사가 해당 기사를 보도한 방법이나 이유에 대한 간략한 설명을 시각적으로 구분하기 위해 온라인 간행물에서 자주 사용하는데, 이러한 투명성 관련 내용이 어떤 방식으로 포함되는것이 좋은지에 관한 연구결과이다. 아마 유사한 실험을 뉴스 신뢰도 관련 연구에서 시도했었는데 논문을 쓰지 못했다.

    결과는 상자에 투명성 내용을 집어넣는 것보다 기사에 통합시키는편이 더 좋다는 것이다. 왠지 HCI 연구 같은 느낌이기는 하지만 온라인의 기사 디자인을 고민하는 사람에게는 참고가 될 수 있는 이야기일지도..

    관심을 끌기 위한 수단으로 광고, 동영상 미리보기 이미지, 눈에 띄는 헤드라인이 점점 더 화려해짐에 따라 사용자들이 이러한 트릭을 학습하고 온라인에서 광고를 모방할 수 있는 시각적으로 눈에 띄는 항목을 자연스럽게 피하기 시작했다는 연구 결과가 발표되어 흥미로운 아이디어입니다. 따라서 많은 사용자가 보충적인 내용이나 원래 스토리의 일부가 아닌 것처럼 느껴지는 상자를 건너뛰는 것을 발견했습니다. 이를 통해 저널리즘 실무자에게 몇 가지 잠재적인 권장 사항을 제시할 수 있었을 뿐만 아니라(이에 대해서는 다음에 자세히 설명합니다), 향후 연구할 수 있는 몇 가지 영역을 파악할 수 있었습니다.

  • 필터버블 관련 연구

    Users choose to engage with more partisan news than they are exposed to on Google Search

    필터버블과 관련된 네이처 연구. 초록만을 번역한 내용이다. 기존에 필터버블 논쟁은 실제 데이터 확인이 어렵기 때문에 개념적인 부분에 머물러 있었으나, 조금 더 믿을만한 연구가 하나 추가되었다. 예전 토론에서도 유사한 이야기를 한 번 한 적이 있는데 이러한 연구가 필터버블이라는 걱정이 생각보다 크지 않을 것이라는 주장의 근거가 될 수 있을 것 같다.

    인기 있는 온라인 플랫폼이 사용자들을 편파적이고 신뢰할 수 없는 뉴스에 체계적으로 노출시킨다면, 이는 정치적 양극화 심화와 같은 사회적 문제에 기여할 수 있습니다1,2. 이러한 우려는 ‘에코 챔버’3,4,5 및 ‘필터 버블’6,7 논쟁의 핵심으로, 사용자 선택과 알고리즘 큐레이션이 사용자를 다양한 온라인 정보 소스로 안내하는 역할을 비판하는 것입니다8,9,10. 이러한 역할은 온라인 플랫폼이 사용자에게 보여주는 URL로 정의되는 노출과 사용자가 선택한 URL로 정의되는 참여로 측정할 수 있습니다. 그러나 생태학적으로 유효한 노출 데이터(실제 사용자가 일반적인 플랫폼 사용 중에 노출된 데이터)를 확보하는 것이 어렵기 때문에 이러한 맥락의 연구는 일반적으로 참여 데이터4,8,11,12,13,14,15,16 또는 가상의 노출 추정치17,18,19,20,21,22,23에 의존하고 있습니다. 따라서 생태학적 노출과 관련된 연구는 드물고 대부분 소셜 미디어 플랫폼에 국한되어 있어7,24 웹 검색 엔진에 대한 의문이 남아있습니다. 이러한 격차를 해소하기 위해 2018년과 2020년 미국 대선 기간 동안 Google 검색 노출과 참여에 대한 생태학적으로 유효한 측정치와 설문조사를 결합한 두 차례의 연구를 실시했습니다. 두 웨이브 모두에서, Google 검색 결과에서 노출된 것보다 Google 검색 내에서 그리고 전반적으로 참여자가 선택한 뉴스 소스에서 정체성과 일치하지 않거나 신뢰할 수 없는 뉴스 소스가 더 많이 발견되었습니다. 이러한 결과는 Google 검색에서 편파적이거나 신뢰할 수 없는 뉴스에 대한 노출과 참여가 주로 알고리즘 큐레이션이 아니라 사용자 자신의 선택에 의해 이루어지고 있음을 나타냅니다.

  • 사람들이 지역 뉴스에 원하는 것

    We asked 5,000 people across the country what they want from local news. Here’s what we learned.
    American Journalism Project

    지역 뉴스에 원하는 것이 무엇인지와 관련해 9가지 공통된 주제를 선정했다고 한다.

    1. 사람들은 더 많은 지역 뉴스를 원합니다.
    2. 사람들은 공유되고 신뢰할 수 있는 사실 출처를 원합니다.
    3. 사람들은 자신이 속한 커뮤니티의 모든 이야기가 전달되기를 원합니다.
    4. 사람들은 의사 결정이 내려지기 전에 미리 알고 싶어 하며, 의사 결정권자가 결과에 대해 책임을 지기를 원합니다.
    5. 사람들은 뉴스와 뉴스룸에서 자신을 보고 싶어 합니다.
    6. 사람들은 저널리스트가 질문하기를 원합니다.
    7. 사람들은 행동에 옮길 수 있는 정보를 원합니다.
    8. 사람들은 자신이 있는 곳에서 뉴스를 만나기를 원합니다.
    9. 사람들은 뉴스룸이 커뮤니티를 연결하고 소집하는 역할을 하기를 원합니다.

    가장 많이 이야기하는 첫 번째 주제. 그 중에서도 눈길이 가는 내용이 있어 남겨놓는다.

    … 우리가 조사를 실시한 모든 곳에서 압도적으로 ‘그렇다’는 대답이 나왔으며, 이는 다양한 방식으로 나타났습니다. 많은 사람들이 이웃에 무슨 일이 발생하면 어디에서 무슨 일이 일어나고 있는지 알아볼 수 있는지 전혀 모른다고 말합니다. 어떤 사람들은 뉴스 매체보다 직접 서비스를 제공하는 커뮤니티 조직과 개인을 더 신뢰한다고 말하는데, 그 이유는 이러한 단체가 필요할 때 도움을 제공하기 때문입니다. 대부분의 시장에서 지역 언론사가 다른 지역의 뉴스를 보도하거나 방영하는 경우가 많다는 불만을 듣게 되는데, 이는 미디어 소유권의 통합, 비용 절감, 더 많은 일반 시청자를 대상으로 하는 콘텐츠가 필요한 광고 모델에서 비롯된 현상입니다. 또한 대도시에서는 사람들이 ‘지역’ 정보에 대해 이야기할 때 종종 지역 사회에서 일어나는 일과 연결되는 동네 수준의 정보에 대해 이야기하는 것으로 나타났습니다.

  • ChatGPT와 대학과제평가

    Professor Flunks All His Students After ChatGPT Falsely Claims It Wrote Their Papers
    By Miles Klee

    사건 경과가 어떻게 진행되고 진실인지 아닌지 여부를 이후에 별도로 확인하지는 않았지만, 그 이후 별다른 정정보도가 붙어있지 않아서 기록용으로 남기는 기사. 수업시간에도 언급한 바 있으나 기술에 대한 이해도로 인해 이상한 결론으로 이끌게 된 사례

    그는 각 논문을 두 번씩 테스트했다고 말하며 “[ChatGPT]에 학생들의 답변을 복사하여 붙여넣으면 프로그램이 내용을 생성했는지 알려줍니다.”라고 썼습니다. 그는 이론적으로 졸업 자격에 위협이 될 수 있는 낙제점을 피하기 위해 학생들에게 보충 과제를 제안했습니다.
    한 가지 문제가 있습니다. ChatGPT는 그런 식으로 작동하지 않습니다. 이 봇은 AI가 작성한 자료나 심지어 자체적으로 생성한 자료를 감지하도록 만들어지지 않았으며, 때때로 피해를 주는 잘못된 정보를 방출하는 것으로 알려져 있습니다. ChatGPT는 약간의 자극만 주면 범죄와 처벌과 같은 유명 소설의 구절을 작성했다고 주장하기도 합니다. 교육자는 학생들이 과제를 스스로 완료했는지 평가할 수 있는 다양하고 효과적인 AI 및 표절 감지 도구 중에서 선택할 수 있으며, 여기에는 Winston AI 및 Content at Scale이 포함됩니다. 그리고 봇이 작성한 텍스트인지 여부를 판별하는 OpenAI의 자체 도구는 기업에 기술 리소스를 추천하는 디지털 마케팅 대행사에 의해 “정확도가 떨어진다”는 평가를 받았습니다.[expand title=eng]

    “I copy and paste your responses in [ChatGPT] and [it] will tell me if the program generated the content,” he wrote, saying he had tested each paper twice. He offered the class a makeup assignment to avoid the failing grade — which could otherwise, in theory, threaten their graduation status.
    There’s just one problem: ChatGPT doesn’t work that way. The bot isn’t made to detect material composed by AI — or even material produced by itself — and is known to sometimes emit damaging misinformation. With very little prodding, ChatGPT will even claim to have written passages from famous novels such as Crime and Punishment. Educators can choose among a wide variety of effective AI and plagiarism detection tools to assess whether students have completed assignments themselves, including Winston AI and Content at Scale; ChatGPT is not among them. And OpenAI’s own tool for determining whether a text was written by a bot has been judged “not very accurate” by a digital marketing agency that recommends tech resources to businesses.[/expand]

  • GPT와 스택오버플로우 트래픽

    Stack Overflow is ChatGPT Casualty: Traffic Down 14% in March

    Smiliarweb 통계를 보면 스택오버플로우 트래픽은 큰 폭으로 감소. 인과관계를 명확하게 말할 수 있는지는 모르겠지만 튜토리얼과 함께 코드 샘플을 보여주는 언어모델이 스택 오버 플로우를 죽일 것이라는 예측이 있었다. 하지만 실제 ChatGPT 콘텐츠를 스택오버플로우에 게시하는 것은 금지. 답변이 너무 부정확하기 때문인데 이와 관련해서는 많은 사례들이 이야기되고 있다. 사이트는 깃허브 성장에 관해서도 언급한다(나중에 필요한 경우 참고).

    차트: Stack Overflow, ChatGPT 및 GitHub에 대한 트래픽
  • 유튜브의 수익 구성

    콘텐츠 수익모델과 관련하여 얼마 전 읽었던 벤 톰슨의 글에서 유튜브 프리미엄에 대한 공개를 언급하는 부분이 있었는데 닐 모한이 언급한 내용을 통해 연간 $ 10 billion 정도 된다고 예측할 수 있다.

  • 아마존의 ChatGPT 활용 도서

    He wrote a book on a rare subject. Then a ChatGPT replica appeared on Amazon.
    WP, by Will Oremus

    생성 인공지능으로 인해 쓰레기가 넘쳐나는 웹이 되지 않을까 생각했는데 생각보다도 빠르게 진행되고 있는 모습 아닌가 싶다. 사례는 ChatGPT를 활용하여 만든 도서의 복제본이 아마존에서 판매되고 있다는 사실을 언급하고 있다.

    콘텐츠 생산에는 커다란 진입 장벽이 있었다. 인터넷은 유통 측면에서 문제를 해결하며 무한한 수요를 만들었으나 공급은 그렇지 않았기 때문에 콘텐츠가 왕이라는 말까지도 있었다. 하지만 생성 인공지능은 이러한 공급의 문제를 해결해 줄 것처럼 보였다.

    하지만 마치 폭등하는 주가차트처럼 올라갔다가 다시 꺼지는 상황이 발생하지 않을지. 네이버 웹툰의 영업 실적을 보면 어두운 전망을 나타내는데, 마치 아타리 쇼크를 떠올리게 하는 상황의 전조는 아닌지. 콘텐츠 생산의 기술적 어려움은 낮아지고 있는 것처럼 보이지만 정말 볼만한 콘텐츠란 언제나 희소하다.