[카테고리:] Research

  • 챗지피티 창의성의 한계

    An empirical investigation of the impact of ChatGPT on creativity

    이 논문은 창의성이 요구되는 문제를 해결하는 데 있어 ChatGPT의 잠재력을 조사합니다. 5개의 실험에 걸쳐, 우리는 참가자들에게 ChatGPT(GPT-3.5)를 사용하여 십대를 위한 창의적인 선물 선택, 장난감 만들기, 사용하지 않는 물품 재활용, 혁신적인 식탁 디자인 등 다양한 일상적이고 혁신 관련 문제들에 대한 창의적 아이디어를 생성하도록 요청했습니다. 우리는 ChatGPT를 사용하는 것이 어떤 기술도 사용하지 않거나 기존의 웹 검색(Google)을 사용하는 것과 비교했을 때 생성된 아이디어의 창의성을 증가시킨다는 것을 발견했습니다. 이 효과는 문제가 많은(대 적은) 제약 조건의 고려를 요구하는지 여부와 공감적 관심이 필요한 것으로 여겨지는지 여부에 관계없이 견고하게 유지되었습니다. 또한 ChatGPT는 급진적으로 새로운 아이디어보다는 점진적으로 새로운 아이디어를 생성하는 데 가장 효과적이었습니다. 과정 증거는 ChatGPT의 긍정적 영향이 원격으로 관련된 개념들을 응집력 있는 형태로 결합하는 능력에 기인할 수 있으며, 이는 아이디어의 더 명료한 표현으로 이어진다고 시사합니다.

  • 추론 모델의 강점과 한계

    The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity
    Apple

    연구는 추론하는 AI 모델들이 실제로는 진짜 추론을 하는 게 아닐 수 있다는 중요한 의문을 제기. 겉보기에는 복잡한 사고 과정을 보여주지만, 실제로는 패턴 매칭이나 기억된 해법을 재조합하는 수준일 가능성을 시사함.

    최근 최첨단 언어 모델들은 답변을 제공하기 전에 상세한 사고 과정을 생성하는 대형 추론 모델(LRM)을 도입했습니다. 이러한 모델들이 추론 벤치마크에서 향상된 성능을 보여주고 있지만, 그들의 근본적인 능력, 확장 특성, 그리고 한계는 여전히 충분히 이해되지 않고 있습니다. 현재의 평가는 주로 기존의 수학 및 코딩 벤치마크에 초점을 맞추고 있으며, 최종 답안의 정확성을 강조합니다. 그러나 이러한 평가 패러다임은 종종 데이터 오염 문제를 겪고 있으며, 추론 과정의 구조와 품질에 대한 통찰을 제공하지 못합니다. 본 연구에서는 일관된 논리적 구조를 유지하면서 구성적 복잡성을 정밀하게 조작할 수 있는 제어 가능한 퍼즐 환경을 활용하여 이러한 격차를 체계적으로 조사합니다. 이러한 설정은 최종 답안뿐만 아니라 내부 추론 과정의 분석을 가능하게 하여, LRM이 어떻게 “생각”하는지에 대한 통찰을 제공합니다. 다양한 퍼즐에 대한 광범위한 실험을 통해, 우리는 최첨단 LRM들이 특정 복잡도를 넘어서면 완전한 정확도 붕괴에 직면한다는 것을 보여줍니다. 더욱이, 이들은 직관에 반하는 확장 한계를 보입니다: 추론 노력이 문제 복잡도와 함께 어느 지점까지 증가하다가, 충분한 토큰 예산이 있음에도 불구하고 그 이후에는 감소합니다. 동등한 추론 계산 하에서 LRM을 표준 LLM 대응 모델과 비교함으로써, 우리는 세 가지 성능 영역을 식별했습니다: (1) 표준 모델이 놀랍게도 LRM을 능가하는 낮은 복잡도 작업, (2) LRM의 추가적인 사고가 이점을 보여주는 중간 복잡도 작업, (3) 두 모델 모두 완전한 붕괴를 경험하는 높은 복잡도 작업. 우리는 LRM이 정확한 계산에서 한계를 가지고 있음을 발견했습니다: 이들은 명시적인 알고리즘을 사용하지 못하고 퍼즐 전반에 걸쳐 일관성 없이 추론합니다. 또한 추론 과정을 더 깊이 조사하여, 탐색된 해결책의 패턴을 연구하고 모델의 계산 행동을 분석함으로써, 그들의 강점과 한계를 밝히고 궁극적으로 그들의 진정한 추론 능력에 대한 중요한 질문을 제기합니다.

  • 틱톡 조작에 관한 연구

    Finkelstein, D., Yanovsky, S., Zucker, J., Jagdeep, A., Vasko, C., Jagdeep, A., Jussim, L., & Finkelstein, J. (In press). Information manipulation on TikTok and its relation to American users’ beliefs about China. Frontiers in Social Psychology, 2.

    연구방법 참고용으로 남기는 논문

    세 개의 연구는 중국이 소유한 소셜 미디어 플랫폼인 TikTok이 중국에 비판적인 콘텐츠를 숨기고, 동시에 중국 공산당의 목표에 부합하는 서사를 증폭시키기 위해 어떻게 조작될 수 있는지를 탐구하였다.

    연구 I에서는 사용자 여정(user journey) 방법론을 사용하여, TikTok, Instagram, YouTube에서 새로 생성된 계정을 활용해 티베트, 천안문 광장, 위구르 인권, 신장과 같이 민감한 중국 공산당(CCP) 이슈와 관련된 콘텐츠의 성격과 유병률을 평가하였다. 그 결과, 중국에 비판적인 콘텐츠가 Instagram과 YouTube에 비해 훨씬 적게 제공되는 것으로 나타났다.

    연구 I의 확장인 연구 II에서는 TikTok, Instagram, YouTube에서 찬성 및 반대 CCP 콘텐츠의 유병률이, 소셜 미디어 플랫폼들이 일반적으로 콘텐츠를 증폭하기 위해 사용하는 사용자 참여 지표(좋아요와 댓글)와 일치하는지를 조사하였다. 그 결과, 사용자들이 반대 CCP 콘텐츠에 훨씬 더 많이 반응함에도 불구하고, TikTok에서는 찬성 CCP 콘텐츠의 비율이 불균형적으로 높게 나타나, 선전적인 조작이 이루어지고 있음을 시사하였다.

    연구 III에서는 1,214명의 미국인을 대상으로 소셜 미디어 플랫폼에서 소비하는 시간과 중국에 대한 인식을 평가하는 설문 조사를 실시하였다. 설문 결과, 특히 과도하게 사용한 TikTok 사용자들이 중국의 인권 기록에 대해 훨씬 더 긍정적인 태도를 보였으며, 중국을 여행지로서 더욱 호의적으로 평가하는 것으로 나타났다.

    이러한 결과는 표현의 자유와 자유로운 탐구를 위협하는 방식으로 정보의 흐름을 통제하는 거대한 CCP 선전 관료제를 규명하는 점점 늘어나는 문헌을 배경으로 논의된다.

  • 챗봇대화를 통한 음모론 해소하기

    Durably reducing conspiracy beliefs through dialogues with AI
    Costello et al. / Science

    챗봇을 활용해 음모론에 대한 믿음을 상당부분 낮출 수 있고, 일정기간 지속되는 효과가 나타났다는 연구결과

    구조화된 초록


    소개
    근거 없는 음모론에 대한 광범위한 믿음은 대중의 주요 관심사이며 학계 연구의 초점입니다. 이러한 음모론은 종종 믿기 어려운 경우가 많음에도 불구하고 널리 믿어지고 있습니다. 저명한 심리학 이론에 따르면 많은 사람들이 근본적인 심리적 ‘욕구’ 또는 동기를 충족시키기 위해 음모론을 받아들이고 싶어하기 때문에 신자들은 사실과 반증에 근거하여 이러한 근거 없고 믿을 수 없는 믿음을 버리도록 설득할 수 없다고 합니다. 이 글에서는 이러한 통념에 의문을 제기하고 충분히 설득력 있는 증거를 통해 사람들을 음모의 ‘토끼굴’에서 빠져나오게 할 수 있는지에 대해 알아봅니다.


    근거
    저희는 사실에 입각한 교정 정보에 기반한 개입은 충분한 깊이와 개인화가 부족하기 때문에 효과가 없을 수 있다는 가설을 세웠습니다. 이 가설을 테스트하기 위해 방대한 양의 정보에 접근하고 맞춤형 주장을 생성할 수 있는 인공지능(AI)의 한 형태인 대규모 언어 모델(LLM)의 발전된 기능을 활용했습니다. 따라서 LLM은 각 개인이 자신의 음모적 신념을 뒷받침하는 특정 증거를 직접 반박할 수 있습니다.
    이를 위해 저희는 연구 대상과 AI 간의 실시간 맞춤형 상호작용을 통해 행동과학 연구를 수행하는 파이프라인을 개발했습니다. 두 차례의 실험을 통해 2190명의 미국인이 자신이 믿는 음모론과 그 음모론을 뒷받침한다고 생각하는 증거를 직접 말로 표현했습니다. 그런 다음 참가자들이 음모론에 대한 믿음을 줄이도록 유도하면서(또는 대조 조건으로 관련 없는 주제에 대해 AI와 대화하도록 유도하면서) 이 구체적인 증거에 응답하도록 유도하는 LLM GPT-4 Turbo와 세 차례 대화를 진행했습니다.


    결과
    이 치료는 참가자들이 선택한 음모론에 대한 믿음을 평균 20% 감소시켰습니다. 이 효과는 최소 2개월 동안 감소하지 않고 지속되었으며, 존 F. 케네디 암살, 외계인, 일루미나티와 관련된 고전적인 음모부터 코로나19 및 2020년 미국 대선과 같은 시사적인 사건과 관련된 음모에 이르기까지 광범위한 음모론에 걸쳐 일관되게 관찰되었으며, 음모론적 믿음이 자신의 정체성에 깊이 자리 잡고 있는 참가자들에게도 나타났습니다. 주목할 만한 점은 AI가 실제 음모에 대한 믿음을 감소시키지 않았다는 점입니다. 또한, 전문 팩트 체커가 AI가 제기한 128개의 주장 샘플을 평가한 결과 99.2%가 사실이고 0.8%는 오해의 소지가 있으며 거짓은 없었습니다. 또한, 이러한 반박은 관련 없는 음모에 대한 믿음을 감소시켜 음모론적 세계관이 전반적으로 감소하고 다른 음모론 신봉자들을 반박하려는 의도가 증가했음을 나타냅니다.


    결론
    사실에 근거하지 않는 것처럼 보이는 음모론적 신념을 강하게 믿는 사람들도 설득력 있는 증거를 제시하면 마음을 바꿀 수 있습니다. 이론적 관점에서 볼 때 이는 인간의 추론에 대해 놀랍도록 낙관적인 그림을 그려줍니다: 음모론적 토끼굴에는 실제로 출구가 있을 수 있습니다. 심리적 욕구와 동기는 본질적으로 음모론자들이 증거에 눈을 멀게 하는 것이 아니라, 적절한 증거가 필요할 뿐입니다. 실제로 LLM의 설득력을 입증함으로써, 이번 연구 결과는 책임감 있게 활용될 경우 생성적 AI의 잠재적인 긍정적 영향과 이 기술이 무책임하게 사용될 기회를 최소화하는 것이 얼마나 중요한지를 강조합니다.

  • 파이퍼샌들러: 24년 가을 미국 10대 조사

    Taking Stock With Teens®
    Piper Sandler

    재미로 볼만한 내용. 소셜미디어 내용은 주요결과에 빠져있지만 틱톡, 인스타그램, 스냅챗이며, 비디오는 넷플릭스다.

    주요 결과

    • 십대들의 “자신 보고” 소비는 전년 대비 6% 증가하여 $2,361에 달했으며, 봄 대비 4% 증가했습니다.
    • 나이키(Nike)는 모든 십대들이 가장 좋아하는 브랜드 1위를 유지했습니다. 그러나 신발 부문에서 나이키의 선호도는 전년 대비 4포인트 하락(57% vs. 61%)했으며, 특히 여성 부문에서 큰 하락세를 보였습니다(이번 가을 48% vs. 작년 가을 56%). 상위 소득층에서는 전년 대비 11포인트 하락했습니다.
    • 룰루레몬(Lululemon)은 모든 십대들 사이에서 의류 부문 3위를 유지했으며, 점유율은 전년 대비 1포인트 하락해 5%를 기록했습니다. 상위 소득층 십대들 사이에서는 룰루레몬의 점유율이 전년 대비 4포인트 감소했습니다.
    • 뉴발란스(New Balance)는 상위 소득층 십대들 사이에서 4위에서 3위로 상승했으며, 점유율이 8%로 두 배 증가했습니다. 여성 부문에서는 아디다스(Adidas)가 가장 큰 상승세를 보이며, 전년 가을 3%에서 이번 가을 14%로 증가했습니다.
    • 주요 뷰티 지출은 $342로 2018년 봄 이후 가장 높은 수준에 도달했으며, 전년 대비 6% 증가했습니다. 스킨케어 부문을 제외하고(-4% Y/Y) 모든 카테고리에서 전년 대비 성장했습니다. 향수 부문이 전년 대비 25% 증가하며 가장 빠르게 성장하고 있습니다.
    • 울타(Ulta)는 가장 선호하는 뷰티 쇼핑 장소에서 점유율을 잃어 27%로 2위를 기록했으며, 작년의 32%에서 하락했습니다. 세포라(Sephora)는 1위를 유지했지만 전년 대비 1포인트 하락했고, 타겟(Target)은 3위를 차지하며 전년 대비 4포인트 증가했습니다.
    • e.l.f.는 여성 십대들 사이에서 1위 화장품 브랜드 자리를 유지했으며, 전년 대비 점유율이 6포인트 증가해 35%를 기록했습니다.
    • 십대들은 커피(31%)나 탄산음료(30%)보다 에너지 드링크(39%)를 선호합니다. 몬스터(Monster), 레드불(Red Bull), 셀시어스(Celsius), 알라니 누(Alani Nu)가 상위 4위를 유지했으나, 셀시어스는 2024년 봄 대비 점유율이 약 2%포인트 하락했습니다.
    • 골드피쉬(Goldfish, CPB)는 가장 선호하는 스낵으로 남아 있으며, 그 뒤를 레이즈(Lays, PEP)와 치즈잇(Cheez-It, K)이 따릅니다.
    • 식물성 고기를 시도해 보려는 소비자의 비율은 2021년 봄 이후 지속된 하락세가 멈추고 안정화되었습니다.
    • 로블록스(Roblox)의 활성 사용률은 2024년 봄 34%에서 46%로 개선되었습니다. 십대 중 17%는 로블록스를 해본 적이 없으며, 이는 봄의 22%에서 감소한 수치입니다.
    • 긱 이코노미 분야에서 가장 지배적인 서비스는 차량 공유 부문에서 우버(UBER, 79%)이며, 음식 배달 부문에서는 도어대시(DoorDash, 75%)입니다.
    • 87%의 십대들이 아이폰(iPhone)을 소유하고 있으며, 약 30%의 십대들이 애플 인텔리전스(Apple Intelligence)로 인해 향후 6개월 내 애플 하드웨어를 업그레이드할 계획입니다.
    • 상위 소득층 가구의 61%가 월마트(Walmart)에서 쇼핑하는 반면, 평균 소득 가구의 81%가 월마트를 이용하고 있습니다(전체의 75%). 향후 설문조사에서 상위 소득층 내 시장 점유율 변화를 평가할 예정입니다.
    • 십대 여성 중 월마트보다 타겟에서 비식품 카테고리를 쇼핑하는 비율이 더 높습니다. 70%는 타겟에서 뷰티 및 스킨케어 제품을, 46%는 의류 및 신발을 구매합니다.
    • 스탠리 컵(Stanley Cups)은 십대 여성들이 가장 선호하는 트렌드에서 2위로 상승했으며(2024년 봄 3위), “사라지고 있는 패션 트렌드”에서는 3위로 상승했습니다(2024년 봄 8위).
  • 학술적 글쓰기와 챗지피티

    Delving into ChatGPT usage in academic writing through excess vocabulary
    Kobak, D., Márquez, R. G., Horvát, E. Á., & Lause, J. (2024). Delving into ChatGPT usage in academic writing through excess vocabulary. arXiv preprint arXiv:2406.07016. https://doi.org/10.48550/arXiv.2406.07016

    연구에서는 ‘delves’라는 단어는 사용 빈도가 25.2배 증가했으며, ‘showcasing’은 9.2배, ‘underscores’는 9.1배 증가했다고 말한다.

    최근의 대형 언어 모델(LLM)은 인간 수준의 성능으로 텍스트를 생성하고 수정할 수 있으며, ChatGPT와 같은 시스템에서 널리 상용화되었습니다. 이러한 모델에는 명백한 한계가 있습니다: 부정확한 정보를 생성할 수 있고, 기존 편견을 강화하며, 쉽게 악용될 수 있습니다. 그럼에도 불구하고 많은 과학자들이 학술 논문 작성에 LLM을 사용하고 있습니다. 현재 학술 문헌에서 LLM 사용이 얼마나 널리 퍼져 있는지를 조사하기 위해, 우리는 학술 LLM 사용에 대한 어떤 가정도 없는 공정하고 대규모의 접근 방식을 사용했습니다. 우리는 2010년부터 2024년까지의 1,400만 개의 PubMed 초록에서 어휘 변화를 연구하여 LLM의 등장으로 인해 특정 스타일 단어의 빈도가 급격히 증가한 것을 보여주었습니다. 초과 단어 사용에 기반한 우리의 분석에 따르면, 2024년 초록의 최소 10%가 LLM으로 처리된 것으로 나타났습니다. 이 하한선은 학문 분야, 국가, 학술지에 따라 달랐으며, 일부 PubMed 하위 집합에서는 최대 30%에 달했습니다. 우리는 LLM 기반 글쓰기 도우미의 등장이 과학 문헌에 전례 없는 영향을 미쳤으며, 이는 Covid 팬데믹과 같은 주요 세계 사건의 영향을 능가한다는 것을 보여줍니다.

  • 연구: 환각과 의미적 엔트로피

    Farquhar, S., Kossen, J., Kuhn, L. et al. Detecting hallucinations in large language models using semantic entropy. Nature 630, 625–630 (2024). https://doi.org/10.1038/s41586-024-07421-0

    환각을 탐지하는 방법에 관한 네이처 논문. 동일 질문에 대한 답변을 샘플링하여 의미적으로 클러스터를 만들어 엔트로피를 측정하는 방식을 활용. 하지만 언어 모델의 체계적으로(?) 잘못된 답변을 생성한다면, 이를 탐지할 수 있는 방법은 아닐 수도 있음.

    대형 언어 모델(LLM) 시스템, 예를 들어 ChatGPT1이나 Gemini2와 같은 시스템은 인상적인 추론 및 질문 응답 능력을 보여줄 수 있지만 종종 잘못된 출력과 근거 없는 답변을 생성하는 ‘환각(hallucinations)’을 보입니다. 신뢰할 수 없거나 필요한 정보 없이 답변하는 것은 다양한 분야에서의 채택을 저해하며, 여기에는 법적 판례의 날조, 뉴스 기사에서의 거짓 사실, 그리고 방사선학과 같은 의료 분야에서 인명에 위협을 가하는 경우가 포함됩니다. 감독 또는 강화 학습을 통해 진실성을 장려하려는 시도는 부분적으로만 성공했습니다. 연구자들은 인간이 답을 모를 수 있는 새로운 질문에 대해서도 작동하는 일반적인 환각 탐지 방법이 필요합니다. 여기서 우리는 통계에 기반한 새로운 방법을 개발하여, LLM의 임의적이고 잘못된 생성물인 일부 환각(특히 confabulations)을 탐지하는 엔트로피 기반 불확실성 추정기를 제안합니다. 이 방법은 하나의 아이디어가 여러 방식으로 표현될 수 있다는 사실을 고려하여 특정 단어 시퀀스가 아닌 의미 수준에서 불확실성을 계산합니다. 이 방법은 작업에 대한 사전 지식 없이 데이터셋과 작업 전반에 걸쳐 작동하며, 이전에 보지 못한 새로운 작업에도 강건하게 일반화됩니다. 입력이 confabulation을 일으킬 가능성이 높은 경우를 탐지함으로써, 이 방법은 사용자가 LLM을 사용할 때 특별히 주의해야 할 상황을 이해하도록 도우며, LLM의 불신으로 인해 방해받는 새로운 가능성을 열어줍니다.

  • 연구: 인공지능이 직업에 미치는 잠재적 영향

    Eloundou, T., Manning, S., Mishkin, P., & Rock, D. (2024). GPTs are GPTs: Labor market impact potential of LLMs. Science384(6702), 1306-1308.

    라벨링 하는 과정에서 주관이 개입될 여지가 있기에 결과를 얼마나 신뢰할 수 있을지는 모르겠지만 혹시 연구방법 측면에서 참고가 될까 싶어서.

    우리는 대형 언어 모델(LLM)과 관련 기술들이 작업에 미치는 잠재적 영향을 평가하기 위한 프레임워크를 제안합니다. 이 프레임워크는 작업자가 직무에서 수행하는 작업과의 관련성을 고려하여 설계되었습니다. 이 프레임워크를 인간과 LLM을 사용하여 적용한 결과, 간단한 인터페이스와 일반 교육을 갖춘 LLM이 직무의 절반 이상에 영향을 미칠 수 있는 직업은 약 1.8%로 추정됩니다. 그러나 LLM 기능을 보완하는 현재 및 미래의 소프트웨어 개발을 고려하면, 이 비율은 46%를 약간 넘는 수준으로 증가합니다. 생성적 사전 학습 변환기(GPT)와 같은 LLM의 집합적 특성은 이들이 다른 “GPT” (범용 기술)의 핵심 특성을 가지고 있음을 강하게 시사합니다. 우리의 연구는 LLM과 보완 기술이 노동 시장에 미칠 수 있는 잠재적 영향을 다루기 위한 강력한 사회적 평가와 정책 조치의 필요성을 강조합니다.

  • 소셜 미디어 시스템 상호 작용 패턴 비교

    Persistent interaction patterns across social media platforms and over time
    Nature

    어떤 방식으로 설계되더라도 사람들은 비슷한 방식으로 행동한다는 것을 보여주는 결과. 소셜 미디어 플랫폼의 설계와 알고리즘의 영향보다는 인간 행동 방식이 더 결정적인 영향을 미치는 것이라고 해석해 볼 수 있을 듯

    소셜 미디어 플랫폼이 공론장에 미치는 영향과 이들의 사회적 역학, 특히 독성 문제와 관련하여 우려가 커지고 있습니다. 이러한 현상을 더 잘 이해하기 위해 우리는 비교 접근 방식을 사용하여 여러 소셜 미디어 플랫폼에서 인간 행동 패턴을 고립시켰습니다. 특히, 우리는 다양한 온라인 커뮤니티에서 대화를 분석하여 독성 콘텐츠의 일관된 패턴을 식별하는 데 중점을 두었습니다. 34년에 걸쳐 유즈넷(Usenet)에서 현대 소셜 미디어까지 8개 플랫폼을 아우르는 방대한 데이터 세트를 활용한 결과, 플랫폼, 주제 또는 시간에 관계없이 일관된 대화 패턴과 사용자 행동이 나타났습니다. 특히, 긴 대화는 독성이 더 높지만 독성 언어가 반드시 사람들을 대화에서 떠나게 하지는 않으며, 대화가 진행됨에 따라 독성이 반드시 증가하지는 않는다는 것을 발견했습니다. 우리의 분석은 사용자들 간의 논쟁과 대립된 감정이 더 격렬하고 적대적인 대화로 이어질 가능성이 높다는 것을 시사합니다. 또한, 플랫폼과 사회적 규범이 변화했음에도 불구하고 지난 30년 동안 이러한 패턴이 지속되었다는 점은 온라인 담론을 형성하는 데 인간 행동이 중요한 역할을 한다는 것을 강조합니다.

  • 부정적 정치인의 미디어노출

    Why are politicians so negative? (Hint: it’s a media problem)
    RQ1

    벨기에 의회에서 부정적인 입장을 취하는 정치인은 긍정적인 입장을 취하는 정치인보다 저녁 뉴스에 소개될 확률이 60% 더 높다는 연구결과(Give the Media What They Need: Negativity as a Media Access Tool for Politicians)

    부정적인 태도를 취하는 것이 정치인들이 원하는 언론의 주목을 받는 데 효과가 있을까요? 그렇습니다. 폴작은 “의회에서 부정적인 태도를 취하는 정치인들은 프라임 타임 TV 뉴스에 등장할 확률이 더 높으며, 특히 비예의적인 부정성을 사용할 경우 그 확률이 더 높다”고 씁니다. “그리고 부정성으로 인해 언론 접근성을 확보한 후, 이 경험은 다시 부정적인 태도를 취할 확률을 높입니다.”

    그 결과는 다음과 같습니다. 질의 시간 동안 부정적인 태도를 취한 정치인들은 부정적인 태도를 취하지 않은 동료들에 비해 저녁 뉴스에 등장할 확률이 약 60% 더 높았습니다. 그리고 부정적인 태도를 취한 사람들 중 비예의적인 태도를 사용한 경우 언론 보도를 받을 확률이 약 53% 더 높았습니다. 시간이 지나면서 연쇄 효과가 발생합니다. “예를 들어, 부정적인 태도 이후 뉴스에 두 번 등장한 정치인은 부정적인 태도 이후 뉴스에 한 번 등장한 정치인에 비해 다시 부정적인 태도를 취할 확률이 4.5% 더 높습니다.”