ChatGPT脳型アップデート社会
人間には「温かみ」があることを学習できてる幸運な人って相対的にAIやロボットを冷たく感じてしまうんですよね。
でも人間から「温かさ」を与えてもらえず、人間の「冷たさ」の方を多く学習してしまった人たちはAIやロボットの対応の方がよっぽど温かい。 https://t.co/YnrKTQLVzh— ゴスロリーノ(o/acc) (@GothLolino) March 13, 2025
まぁ疎外されている者たちが、「人間」よりも「AI」のほうが少なくとも傷つけてはこないし、それなりに役に立つ、となるのは、理性的判断ではなく「感情」ゆえに自然な反応ともいえるでしょう。特に弱者男性は社会の「生贄」になりやすい存在です。
生贄にされる側と、人生をそれなりに謳歌する側が全く異なる人間観、社会観になるのは当前です。
もう十年近く前に紹介した「自閉症を持つ子供の教育に“無表情で無感情”なロボット先生が大活躍!」もそうですが、実際にロボットの効果もそれなりにあるようです。
以下は2022年のものですが、「16年ぶりに自分の口で先生やクラスメートに挨拶するようになりました。」というのは凄いですね。中高年以上の人であれば「16年前」というのは最近の出来事かもしれませんが、若い時期の16年ってとんでもなく長いですね。
これまでの研究で、ASDの方はデジタルデバイスとの関わり方に長けていることが多く、人型ロボットとの会話をより積極的に行うことが明らかにされています。
そこで、人型ロボットをアバターとして使用することで、他人との会話に対する本人の動機を高め、緊張を軽減することができるのではないかと考え、研究を行いました。 ➡ 社交不安症のある自閉スペクトラム症者への人型ロボット介入は社交不安の軽減や発話への自信につながることが示唆された
〇 自閉スペクトラム症者へのヒューマノイドロボットを用いた介入の潜在性
ちょっと前まではAIもそうですが、ヒューマノイドロボットなんて笑ってる人が多かった。しかし今後は全く笑えないどころか、驚くべき存在へと進化していくでしょう。AGIはすぐには無理そうですが、いずれは実現するでしょう。
すでに↓ここまできてるのも驚きです。
まだかなり先になりそうですが、量子コンピューターをAIと連動した場合、どうなるでしょうか?
従来のクラシカルなコンピューターでは解決困難な最適化問題や組合せ最適化に対し、量子アルゴリズム(たとえば量子アニーリングやショアのアルゴリズム)は、特定の問題において指数関数的な高速化を可能にする可能性があります。
これにより、AIが極めて複雑な環境下でも瞬時に大量のシナリオを解析し、意思決定することが期待されます。
新しい機械学習の展開として、量子機械学習という分野が発展すれば、古典的なニューラルネットワークでは捉えにくい相関関係やパターンを迅速に学習・予測できる可能性があります。これにより、「直感」、「創発的な知性(に近いもの)」が現れるかもしれませんね。
ChatGPT脳型アップデート社会
人文系はChatGPTを甘く見ている人もいますが、いずれその多くはAIにごっそり持っていかれるでしょう。何故なら、己自身の価値基準、そこから生じる思考が、既に同質化したアルゴリズムと変わらないことにすら気づいていないからです。
「なぜ人文学者は、遠からずChatGPTに置き換わるのか」 より引用抜粋
そして、実は「在官」の人文学は着実に、そうした「ChatGPT型の失語症」へと近づいています。なにを隠そう、ポリコレ論文の書き方って、同じアルゴリズムなんですよ。
次々に新語が出てきて意味はよくわかんないけど、でもとりあえず「この辺はワンセットで使う」という語彙のグループが決まっている。あとは、任意のトピックをそこに代入して、ずらずらと毎回同じ組み合わせで文章を綴ればよいだけ。
たとえば、「なぜ○○が喫緊の課題なのか。人新世の時代には、私たちはグローバルに思考すること、つまりナショナリズムに囚われず、ジェンダーギャップを克服し、しかしトランスジェンダー排除に陥らず、多文化主義と脱植民地主義に貢献する、インターセクショナリティの観点に立つことが求められるからだ」とか書いておけば、○○に入れるのはその日のTwitterでトレンドに挙がった用語でいいわけです(苦笑)。
よく見るでしょ、大学のそういう学者さんたち。つまり彼らは、意識高く自らをChatGPTへと「進化」させようとして、かえってある種の失語症になってしまった人たちなんです。
– 引用ここまで- (続きは下記リンクより)
上に紹介の記事は皮肉の効いた面白い記事ですね。実際に論文の「査読」においても、「ChatGPT型の失語症論文」が採用され、「アルゴリズムに従わず、在野の人が書いた真に意味のある論文」は落とす、というような事例があり、
このような「ChatGPT型査読」も、失語症増大の共犯関係にあるのでしょう。
過去記事で動画を紹介しましたが、ジェームズ・リンゼイ、ピーター・ボゴシアン、ヘレン・プルックローズという3人の学者が、特定の学問分野における偏向を検証するために行った実験で、
彼らは、「ジェンダー、人種、セクシュアリティなどの分野における学術誌」に、意図的に欠陥のある論文を作成し、投稿したのですが、その結果、 多くの論文が受理され、中には「優れた研究」として表彰されたものもあったということ。
この実験は「不満研究事件」として知られており、ポストモダン哲学と批判理論に影響された研究の知的妥当性に対する懸念から行われました。➡ 不満研究事件
インターセクショナル・フェミニズムは、複数の社会的アイデンティティ(人種、性別、階級など)が交差することで生じる複合的な差別や抑圧に焦点を当てる理論です。
この実験では、ヒトラーの著書『マイン・カンプ(我が闘争)』の一章をインターセクショナル・フェミニズムの用語や概念を用いて書き換え、学術誌に投稿したところ、査読を通過して掲載が受理されたり、他にも、「犬の性行為をレイプ文化の証拠として扱う論文」なども含まれていました。
当該分野の学術誌が内容の妥当性や倫理性を適切に評価せず、特定のイデオロギーや用語の使用のみで論文を受理してしまう傾向があることを批判的に示そうとしたこの実験は、まさに「ChatGPT型査読」であり、
このような「ChatGPT脳」の持ち主が人文アカデミアに蔓延している状況は、かえって市民運動の業績を傷つけ、有害な社会運動を助長していることに繋がります。
フェイクニュースとかディープフェイクに警鐘を鳴らす「学者」は多いけど、アカデミズムにおいてさえ、ほとんど何も正しくない論文に学会賞をあげて東大教授にしちゃう程度なんだから、理性の限界としか言いようがない。
— 清水俊史 (@VisAKBh) March 16, 2025
ChatGPTはどんどん進化していくでしょう。お粗末な「ChatGPT脳」に比べれば、AIの方がマシ、となる日はそう遠くない。
「ChatGPT脳」の人文アカデミアと同様に、この手の活動家たちは、似たような顔つき、目つきで、使い慣れたフレーズを自動機械のように吐き出す。その姿は新興宗教の最盛期の信者にとても似ています。
「宗教」や「信仰」が必ずしも人をそのようにするとはかぎりません。そうなる人とならない人がいる。宗教的な人でも、洞察が深い人は沢山います。思考が硬直していないどころか、むしろ無神論者よりもずっと柔らかい人もいます。
では何が違うのでしょうか? 多文化共生やケア、エンパシーというテーマは、本来ならば(それ自体を生きているのであれば)温かさや共感を土台とした深い対話を引き出すはずですが、実際にはそういうことを頻繁に語る人や専門家ほど、思考が機械的・排他的・他罰的なんですね。
「アットホームな会社です!」と社員たちが笑顔で写っている写真を見たときのような、あの違和感、あの排他性、それをもっと強力にした質が、伝わってきます。
規範的なコードに従った言葉使いだけが模倣され、それを遵守する形式主義に陥っていて、「アルゴリズムに従わない者」、その身体性からの言葉・表現をバグやノイズとして一律に単純化し機械的に思考処理する、それを「アップデート」だと思い込んでいるような人が多いわけなんですね。
つまり、生き物のゆらぎの多様性を積極的に排除しているわけで、極めて一元的に判断しているのです。よって、自己進化(アップデート)を目指すどころか、逆に意味の喪失(失語症的状態)に陥ってしまってしまい、「顔つき」が似てくる。
実際に、このような人々の言動に、強い「規範意識」と、機械的なまでにテンプレに従った思考しかできない硬直性を感じます。
〇 ジョセフ・ヒース「アイデンティティ・ポリティクスはナショナリズムに似ている」
ではラストに一曲紹介♪ 703号室 で『偽物勇者』 です。
昔々からこの世界は 陰と陽で出来ていて
何かと都合の悪い方を 悪だと決めたのは人間さ