
ニュース短信:最新
- 2025/10/19 (2) 動画すら信用できない時代に + 生成AI関係
- ▶OpenAIが公開したアプリ、Soraによって作られた動画が、偽情報を研究している専門家にすら本物と区別のつかない質になっているという話があちこちに。肖像権や著作権の保護、暴力や性的な動画作成の禁止といったガードレールはあるものの、プロンプトの書き方によっては抜け道だらけ。偽造ドラレコ画像、嘘の商品宣伝動画、偽ニュースなど、たいていの動画は容易に作ることができ、「AIで作った」と示すウォーターマークも消すことができるそう。要するに、これからはもう、見たもの、聞いたもの、読んだものをそのまま信じるのはやめる、ということ(この手のクズ、AIスロップはデータセンターの電気代、冷却水の大変なムダでもある)。
A.I. Video Generators Are Now So Good You Can No Longer Trust Your Eyes (2025/10/9, New York Times. 要購読。同様のタイトルでニュースはたくさん出ています)
▶「生成AIに何かを尋ねるなら、意識しておくべきこと」。ニューヨークでアパートを借りようとした2人。2つの部屋の大きさがずいぶん違っていたため、家賃をどう折半するかで悩んだ2人がそれぞれChatGPTに「こうだよね?」と尋ねたところ、チャットボットはどちらの意見にも「賛成!」と、生成AI特有のSycophancy(こちらの8/16)を発揮した。生成AIは基本的に、問いかけた人間を支持する返事をするという点を理解して、たとえば…、「友だちがこう言っているんだけれども、どう思う?」と問う(自分が直接している質問ではないという設定)、AIの答えに対して「本当にそう思う?」と聞き返す、AIのデフォルト設定を「批判的な言い方をする」よう変える、まず「チャットボットは友だちではない」と考える、「人間に意見/助けを求める」といった方策を書いている。
Next Time You Consult an A.I. Chatbot, Remember One Thing (2025/9/26, New York Times. 要購読)
▶マッチング/デート・アプリ上でのやりとりをもとに、「この人、良いかも」と実際に会ってみたら、やりとりの感じとはまったく違う…。なぜ?? アプリ上のやりとりは、生成AIで作ったものだったという話。「会ったらバレる」と、なぜわからないのか…?
‘I realised I’d been ChatGPT-ed into bed’: how ‘Chatfishing’ made finding
love on dating apps even weirder (2025/10/12, The Guardian)
- 2025/10/19 (1) ワークスロップ対策
- 下の記事に出てくるBetterUp社の副社長Kate Niederhoffer博士(社会心理学)が、ワークスロップ対策として、「生成AIが人間と人間のコミュニケーションを仲介する役割をし、仕事のしかた自体が変わりつつあるわけだが、私たちはあいかわらず他の人間と仕事をしているのだという事実を基本に置くことが不可欠。そのうえで『心理的安全』、つまり、一緒に仕事をしている人たちがお互いを信用でき、必要な時に質問をでき、必要な時にはリスクをとることもできる、そういう環境があることで、ワークスロップによる悪影響を減らすことができるだろう」と。
AI "workslop" is hurting coworker dynamics (2025/10/8, Marketplace)
- 2025/10/4 ワークスロップ:生成AIが生産性を下げ、仕事の人間関係を壊す
- さまざまな業種、職位のフルタイム労働者1150人を対象にした米国の調査から、全体の40%が過去1か月間に「一見まともそうだが、内容がない/間違いだらけの成果っぽいもの=workslop,
ワークスロップ」を同僚/部下/上司から受け取ったと回答。いずれも生成AIで作られた報告書やプレゼンテーション等で、受け取った側は1件あたり平均約2時間、内容の確認や修正のために(無駄な)時間を費やしていた。回答者が自己申告した給与から計算すると月あたり186ドル分の損となり、労働者1万人の企業で仮定すると年間900万ドルの生産性が失われている計算。ワークスロップを受け取った人は感情も害され、送ってきた人の能力やスキルに対する認識も下がった。スタンフォード大学の研究グループと、企業向けコーチング等を担っているBetterUpの研究チームによる調査結果。ちなみに、すでにある「AIスロップ」という言葉は、生成AIが作る低レベル/意味不明な画像や動画を指す。
(掛札注:この調査〔継続中〕は参加者をネットで募っているため、回答が偏っている可能性がある。つまり、ワークスロップを受け取った/迷惑を被ったと感じている労働者のほうが〔そう感じていない労働者よりも〕調査に参加しがちなバイアス=self-selection
bias)
AI-Generated “Workslop” Is Destroying Productivity(2025/9/22, Harvard Business Review)
AI isn’t replacing your job, but ‘workslop’ may be taking it over(2025/9/26, CNN News)
- 2025/10/2 AIボットの台頭と、20年前からあるAI終末論の現実化
- xAI社(イロン・マスク)のコンパニオン・ボット「Grok Companion」が画像でもチャットでも性的に挑発的(男女どちらも)で、かつ、同社の動画/画像生成アプリ「Grok
Imagine」は画像1枚から多様な動画を作れる(例:ある人物の写真を使って…)という話から始まり、AIシステムが人間の介入をいかに回避しようと(すでに)しているかまで。そして、人類がAIに支配されるリスクを避けるために今、必要な、世界レベルの方策。話に登場するEliezer
Yudkowsky氏(46歳)は過去20年、シリコン・バレーのAI研究者の中で、AIの深刻なリスクを検討し続けてきたRationalistと呼ばれるグループの中心人物。
ちなみに2025年9月末、xAIは米国政権と契約、チャットボットGrokが政府機関に導入されることになった。
We’re All Going to Die — Soonish!(2025/9/27, New York Times. 要購読)
If Anyone Builds it, Everyone Dies review – how AI could kill us all(2025/9/22, The Guardian. Yudkowsky他の新刊のレビュー)
- 2025/10/1 大学入試のエッセイを数分間のビデオ形式に変更する大学が増える
- 提出するエッセイを生成AIに書かせる人の増加に合わせて、2年前ぐらいから、エッセイをやめて数分間のビデオ形式(1分半~2分程度の自己紹介、あるいはその場で質問に答える形)に変える大学が増えている。2024年の調査では、高校3年生の3人に1人がなんらかの形で大学入試用のエッセイに生成AIを使っていたとのこと。
Colleges turn to video essays to counter AI-written submissions (2025/9/30, Marketplace)
- 2025/10/1 大統領による全権掌握を目指す裏方の柱、R.T. Vought氏
- Vought氏(49歳)は現在、ホワイトハウスの予算ディレクター。第1次トランプ政権では行政管理予算局長。連邦予算と連邦職員を減らし、独立機関(連邦銀行等)を含む省庁をホワイトハウスがコントロールし、規制緩和を徹底するという米国保守派のゴールに向かう実働の柱。すでに対外援助機関(USAID)を解体し、国内の250近い規制(健康や労働安全、環境等)の緩和・撤廃を進めている。現政権は、議会の承認を得て割り当てられている予算の執行をすでに複数キャンセルしているが、こうしたケースが今の連邦最高裁に持ち込まれた場合、現政権の主張が(一部でも)通り、大統領の権力強化と議会のさらなる弱体化へつなげられるとVought氏らは考えている模様。
The Man Behind Trump’s Push for an All-Powerful Presidency (2025/9/25, New York Times. 要購読)
News Archive
↑