[작성자:] haeyeop

  • 검색 엔진 제로클릭

    Zero-Clicks Study
    Semrush, by Marcus Tober

    Semrush의 연구에 따르면, Google 검색 결과에서 클릭이 없는 “Zero-click” 검색의 비율이 데스크탑에서는 25.6%, 모바일에서는 17.3%로 나타남. 이는 사용자들이 검색 결과 페이지에서 바로 정보를 얻고 링크를 클릭하지 않는 경우를 의미. 최근 SGE 이야기를 하며 검색을 통한 트래픽 유입이 줄어들 것을 걱정하는 퍼블리셔나 크리에이터들이 있는데, 어찌보면 이미 제로클릭은 기존부터 꽤나 높은 비율로 존재.

    이는 데스크톱과 모바일에서 클릭이 전혀 없는 검색이 전체 검색의 17.3%를 차지한 것에서 알 수 있습니다. 사용자들은 본질적으로 클릭을 피하려고 하는 것이 아니라 정보를 더 빨리 얻고자 하는 것입니다. 현재 검색의 두 가지 기능이 이를 지원합니다: 바로 답변과 모바일에 최적화된 반무한 스크롤 환경입니다.

    모바일에서 오가닉 클릭은 증가하지 않았지만 키워드 변경은 증가했다는 사실은 모바일 사용자가 데스크톱 사용자보다 여러 검색에 참여할 가능성이 훨씬 높다는 사실을 입증합니다. 데스크톱에서 새로운 키워드를 실행하는 사용자는 17.9%에 불과한 반면, 모바일에서는 29.3%에 달했습니다. 사람들은 데스크톱보다 모바일에서 더 많이 참여하고 몰입하며, 이는 제로 클릭의 증가와 이러한 간편한 액세스에 대한 수요를 반영합니다.

    모바일이 좀 더 낮다는 것은 아마도 제시되는 정보가 제한적이기 때문이지 않을까 하는 생각

  • 애플뉴스, 언론사의 새로운 수익원

    As clicks dry up for news sites, could Apple’s news app be a lifeline?
    SEMOFOR

    많은 디지털 출판사들처럼, 데일리 비스트는 2023년 말에 어려움을 겪고 있었습니다. 오랜 기간 동안 클릭 수의 주요 원천이었던 페이스북은 뉴스에서 손을 뗐고, 구글은 AI가 생성한 스팸 콘텐츠의 범람을 막기 위해 알고리즘을 조정하면서 검색 트래픽이 불규칙해졌습니다. 사이트의 유료 구독 프로그램은 도널드 트럼프가 퇴임한 이후 약화되었습니다. 그러나 새로운 구세주가 등장했습니다: 애플입니다.

  • 인공지능의 2차 효과

    AI’s Second Order Effects
    a16z, by Alex Rampell

    Uber와 같은 것의 “왜 지금인가”는 스마트폰이었고, Workday와 같은 것의 “왜 지금인가”는 클라우드의 수용이었으며, Adobe와 같은 것의 “왜 지금인가”는 GUI PC의 확산이었다고 말한다.

    과거에 높은 지원 비용, 영업 비용 등으로 인해 실패했던 비즈니스 모델이 AI 도구의 극적으로 새로운 비용 구조에서 “왜 지금인가”를 발견할 수 있을 것입니다.

    AI가 기존 기업의 비용을 절감할 것이라는 데는 의문의 여지가 없습니다 — 여기에 알려진 사실에 대한 것입니다. 그러나 AI는 아마도 AI가 주요 “제공”이 아니지만 소비자가 지불할 의사가 있는 가격대에서 지속 가능한 비즈니스를 허용하는 더 많은 클래식 소프트웨어 회사와 시장을 생성할 것입니다.

  • 뉴스보다 자신을 믿는 사람들

    People trust themselves more than they trust the news. They shouldn’t.
    CJR

    저널리즘을 믿지 않는 사람들에 대해 이야기하며, (기존에도 스크랩해놨던) 네이처 연구를 소개하고 있다. 현상 자체에 대해서 생각해볼만한 듯.

    실제로 지난 10년간 뉴스 불신에 관한 연구가 폭발적으로 증가했으며, 일관된 연구 결과에 따르면 사람들은 저널리즘이 정치적으로 편향되어 있거나 ,경제적으로 타협하거나, 단순히 이해관계가 맞지않는 엘리트들이 생산한다고 믿기 때문에 저널리즘을 무시하고 싶은 충동을 점점 더 많이 느낀다는 사실을 알 수 있습니다. 사람들은 언론인들이 더 많은 돈을 벌기 위해 고의로 뉴스를 선정적으로 보도하거나 진보적 또는 보수적 관점에 맞게 뉴스를 왜곡한다고 생각합니다.

    저자는 오픈 엑세스 저널에 투고된 자신들 논문을 하나 소개하고 있는데 (Doctors Fact-Check, Journalists Get Fact-Checked: Comparing Public Trust in Journalism and Healthcare) 재미있는 이야기를 한다

    최근 저희 두 사람이 공동 저자로 참여한 또 다른 연구에서 사람들은 저널리즘과 의료 서비스를 불신하지만 자신의 의사는 신뢰한다는 사실을 발견했습니다. 그 결과, 저널리즘에서 관찰된 ‘직접 조사하기’ 트렌드가 의학에서는 반대로 나타났습니다: 사람들은 인터넷을 통해 의사의 말을 확인하는 대신, 온라인에서 읽은 내용을 확인하기 위해 의사를 찾아갔습니다. 다시 말해 ,의사는 팩트체크를 하지만 저널리스트는 팩트체크를 받는다는 뜻입니다.

  • 업무에서 인공지능 활용에 관한 인식

    Western countries are more pessimistic about AI

    서양권이 인공지능을 업무 활용하는데 더 부정적 인식을 가지고 있다는 기시

  • 광고 담당자의 생성형 AI 활용

    Strategy In The Era Of A.I. – A Field Guide

    워드프레스에 바로 삽입은 안 되서 (뭔가 바꾸기도 귀찮고) 링크로 남겨놓는 글.

    광고 중간급 관리자가 생성형 인공지능을 업무에 어떻게 활용하는지 본인의 팁을 소개하고 있다. 따로 세팅하는 건 아니라 무료 유료 도구를 적절하게 업무 프로세스 단계별로 활용한다며 소개하고 있다.

  • 유튜브, AI 생성 콘텐츠 라벨링

    Hey YouTube creators, it’s time to start labeling AI-generated content in your videos

    올해 가을 쯤 전체 업데이트 될 예정

    사용자가 사이트에 동영상을 업로드하면 콘텐츠에서 실제 인물이 하지 않은 말이나 행동을 하거나, 실제 장소나 사건의 영상을 변경하거나, 실제로 일어나지 않은 장면을 사실적으로 묘사하는지를 묻는 체크리스트가 표시됩니다.

    이번 공개는 실제와 구별하기 어려운 매력적인 텍스트, 이미지, 동영상 및 오디오를 빠르고 쉽게 생성할 수 있는 새로운 소비자 대상 생성 AI 도구가 확산되는 가운데 사용자가 합성 콘텐츠로 인해 혼동하는 것을 방지하기 위한 것입니다. 온라인 안전 전문가들은 특히 2024년 미국 및 기타 지역의 선거를 앞두고 AI로 생성된 콘텐츠의 확산이 인터넷에서 사용자를 혼란스럽게 하고 오도할 수 있다는 경고를 제기했습니다.

    YouTube 제작자는 동영상에 사실적으로 보이도록 AI가 생성하거나 조작된 콘텐츠가 포함된 경우 이를 식별하여 시청자에게 표시해야 하며, 반복적으로 표시를 추가하지 않을 경우 처벌을 받을 수 있습니다.

    Starting Monday, creators will see a new checklist in the YouTube Creator Studio asking them to identify if their videos contain realistic, AI-generated content.
  • 웹 사용 시간 및 추천 트래픽

    Where Web Users Spend Time vs. Where Traffic Referrals Originate

    결국 핵심은 아래의 인용문이 아닌가 싶다

    “우리 사이트 트래픽의 대부분은 Google에서 발생하므로 디지털 마케팅 노력과 지출의 대부분도 Google에서 이루어져야 합니다.”

    – 마케팅에 투자하는 절대적으로 끔찍한 방법

    많은 트래픽이 Google에서 발생하지만, 모든 마케팅 노력을 Google에 집중하는 것은 현명하지 않습니다. 사용자가 콘텐츠를 소비하고, 제품이나 서비스에 대해 배우며, 문제를 해결하기 위해 방문하는 다양한 플랫폼이 있기 때문이다.

  • 벽에 부딪친 데이팅앱

    Dating Apps Have Hit a Wall. Can They Turn Things Around?
    NYT

    미국에서는 새로운 관계의 절반이 데이팅 앱을 통해 이루어진다고 말하는데, 이러한 데이팅 앱에 미래가 있을까? 사람들이 만남에 돈을 지불하기를 꺼려하면서 어려움을 겪고 있다는 이야기.

    미국 최대 세대인 밀레니얼 세대는 Tinder가 처음 출시되었을 때 주된 데이트 연령층이었지만, 최근 몇 년 동안 결혼하는 사람들이 늘어나면서 앱을 그만두게 되었습니다. 이제 주요 사용자는 더 적은 가처분 소득을 가진 젊은 세대인 Z세대로 전환되었습니다. 이러한 세대 변화는 데이트 앱 산업에 도전 과제를 제기합니다.

    뉴욕 대학교의 18세 학생 Mandy Wang은 사람들을 직접 만나거나 Instagram이나 Snapchat 같은 플랫폼을 통해 직접 메시지를 보내는 것을 선호한다고 말했습니다. 데이트 앱은 “게임”처럼 캐주얼하게 사용하는 것이라고 했습니다.

    “사람들은 데이트 앱을 사용하지만, 지불하는 사람은 모릅니다,”라고 Wang은 말했습니다. 실제로 그녀는 누군가가 구독을 위해 돈을 지불하는 것을 알게 되면 “이상하다”고 생각할 것이라고 했습니다.

    현재 컨설턴트이자 데이트 코치인 Tinder의 전 사회학자 Jess Carbino는 젊은 사람들이 “여전히 온라인 데이트 앱을 사용할 욕구는 있지만, 파트너를 찾는 긴급성을 느끼지는 않는다”고 말했습니다.

  • EU AI 법안


    Artificial Intelligence Act: MEPs adopt landmark law
    European Parliament. 24. 3. 13.

    빠르게 변하는 불분명한 분야의 규제. 나타나는 효과가 아닌 AI 자체를 규제하려는 시도가 맞을까

    이 규정은 고위험 AI로부터 기본권, 민주주의, 법치, 환경적 지속가능성을 보호하는 동시에 혁신을 촉진하고 유럽을 이 분야의 리더로 자리매김하는 것을 목표로 합니다. 이 규정은 잠재적 위험과 영향 수준에 따라 AI에 대한 의무를 규정하고 있습니다.

    금지된 애플리케이션

    새로운 규정은 민감한 특성에 기반한 생체 인식 분류 시스템, 얼굴 인식 데이터베이스를 만들기 위해 인터넷이나 CCTV 영상에서 얼굴 이미지를 비표적 스크래핑하는 등 시민의 권리를 위협하는 특정 AI 애플리케이션을 금지합니다. 직장과 학교에서의 감정 인식, 사회적 채점, 예측적 치안(개인의 프로파일링 또는 특성 평가만을 기반으로 하는 경우), 인간의 행동을 조작하거나 사람의 취약점을 악용하는 AI도 금지됩니다.

    법 집행 기관 면제

    법 집행 기관에서 생체 인식 시스템(RBI)을 사용하는 것은 원칙적으로 금지되어 있으며, 예외적으로 엄격하게 정의된 경우에만 허용됩니다. “실시간” RBI는 시간과 지리적 범위가 제한되고 특정 사전 사법 또는 행정 허가를 받아야 하는 등 엄격한 안전장치를 충족하는 경우에만 배포할 수 있습니다. 예를 들어 실종자 수색이나 테러 공격 방지 등이 이러한 용도에 포함될 수 있습니다. 이러한 시스템을 사후에 사용하는 경우(“사후 원격 RBI”)는 고위험 사용 사례로 간주되며, 형사 범죄와 관련된 사법적 허가가 필요합니다.

    고위험 시스템에 대한 의무 사항

    건강, 안전, 기본권, 환경, 민주주의 및 법치에 대한 중대한 잠재적 피해로 인해 다른 고위험 AI 시스템에 대해서도 명확한 의무가 부과될 것으로 예상됩니다. 고위험 AI 사용의 예로는 중요 인프라, 교육 및 직업 훈련, 고용, 필수 민간 및 공공 서비스(예: 의료, 은행 업무), 법 집행, 이주 및 국경 관리, 사법 및 민주적 절차(예: 선거에 영향을 미치는 것)의 특정 시스템이 있습니다. 이러한 시스템은 위험을 평가 및 줄이고, 사용 로그를 유지하며, 투명하고 정확해야 하고, 사람의 감독이 보장되어야 합니다. 시민은 AI 시스템에 대한 불만을 제기하고 자신의 권리에 영향을 미치는 고위험 AI 시스템에 기반한 결정에 대한 설명을 받을 권리가 있습니다.

    투명성 요구 사항

    범용 AI(GPAI) 시스템과 그 기반이 되는 GPAI 모델은 EU 저작권법 준수, 교육에 사용된 콘텐츠의 상세 요약 게시 등 특정 투명성 요건을 충족해야 합니다. 시스템적 위험을 초래할 수 있는 더 강력한 GPAI 모델일수록 모델 평가 수행, 시스템적 위험 평가 및 완화, 사고 보고 등의 추가 요건에 직면하게 됩니다.

    또한 인위적이거나 조작된 이미지, 오디오 또는 비디오 콘텐츠(‘딥페이크’)에는 이러한 사실을 명확하게 표시해야 합니다.