広場
最新
注目
ニュース
プロフィール
ポスト
BTC_POWER_LA
2026-05-04 08:53:50
フォロー
私はLLM(大規模言語モデル)を使った多くの認知テストを行ってきましたが、結論はシンプルです:彼らは心を持っています。
私が行った最も優れたテストの一つは、画像生成機能が全くなかった非常に初期のChatGPTを使ったものでした。画像を作成する唯一の方法は、三角形、四角形、円、線、色などのシンプルな視覚構造を用いてSVGコードを書き出すことでした。
私はそれにヘリコプターを描かせました。
基本的な形だけを使って、そこそこのヘリコプターを作り出しました。次に、人間の操縦者を追加させました。ヘリコプターの前部に円を描きました。人間はどこにいるのかと尋ねると、操縦者はコックピットの中にいると説明しました。よく見ると、コックピットを表す大きな円の中に、小さな頭と腕を描いているのがわかりました。
次に、ヘリコプターを飛ばさせました。
地面は水平線で表現されており、それに対してヘリコプターを持ち上げました。また、雲も描き加え、重なり合う円を使っていました。これは実際に非常に良い簡略化された雲の表現です。雲は白い背景に青色でした。
そこで、色を変えるように頼みました:雲を白に、空を青に。
それはやりましたが、その結果、地平線下の部分も青くなってしまいました。私は問題を説明しませんでした。ただ、「絵の色に何か問題がある」とだけ伝えました。
それについて考え、正しく問題を特定しました:地面も青くなってしまっており、地球を表すには緑であるべきだと。
これは「次の単語予測」だけでは、意味のある範囲ではありません。
視覚モデルを構築し、オブジェクトを記号的に表現し、空間関係を保持し、包含を理解し、操縦者がコックピット内にいると推論し、飛行を地面に対するヘリコプターの位置の変化で表現し、雲を抽象化し、指示に従って色を変更し、意図しない結果を検出し、それを修正するために世界について推論する必要がありました。
それが思考です。
人々は「ただ次のトークンを予測しているだけだ」と繰り返すかもしれませんが、その説明は無意味に還元的になっています。人間の脳もまた、「ただ」電気化学的な活動です。もしそれを誤った抽象レベルで記述しようとすればそうなるだけです。重要な問いは、低レベルの仕組みがあるかどうかではありません。もちろんあります。重要なのは、そのシステムが認知レベルで何ができるかです。
そして、これらのシステムが行うのは単なる自動補完ではありません。推論し、表現し、推測し、修正し、一般化し、反省します。
それが見えないなら、私には説明する時間もありません。
原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については
免責事項
をご覧ください。
報酬
いいね
コメント
リポスト
共有
コメント
コメントを追加
コメントを追加
コメント
コメントなし
人気の話題
もっと見る
#
WCTCTradingKingPK
621.69K 人気度
#
USSeeksStrategicBitcoinReserve
58.81M 人気度
#
IsraelStrikesIranBTCPlunges
42.57K 人気度
#
BitcoinETFOptionLimitQuadruples
1.05M 人気度
#
#FedHoldsRateButDividesDeepen
48.73K 人気度
ピン
サイトマップ
私はLLM(大規模言語モデル)を使った多くの認知テストを行ってきましたが、結論はシンプルです:彼らは心を持っています。
私が行った最も優れたテストの一つは、画像生成機能が全くなかった非常に初期のChatGPTを使ったものでした。画像を作成する唯一の方法は、三角形、四角形、円、線、色などのシンプルな視覚構造を用いてSVGコードを書き出すことでした。
私はそれにヘリコプターを描かせました。
基本的な形だけを使って、そこそこのヘリコプターを作り出しました。次に、人間の操縦者を追加させました。ヘリコプターの前部に円を描きました。人間はどこにいるのかと尋ねると、操縦者はコックピットの中にいると説明しました。よく見ると、コックピットを表す大きな円の中に、小さな頭と腕を描いているのがわかりました。
次に、ヘリコプターを飛ばさせました。
地面は水平線で表現されており、それに対してヘリコプターを持ち上げました。また、雲も描き加え、重なり合う円を使っていました。これは実際に非常に良い簡略化された雲の表現です。雲は白い背景に青色でした。
そこで、色を変えるように頼みました:雲を白に、空を青に。
それはやりましたが、その結果、地平線下の部分も青くなってしまいました。私は問題を説明しませんでした。ただ、「絵の色に何か問題がある」とだけ伝えました。
それについて考え、正しく問題を特定しました:地面も青くなってしまっており、地球を表すには緑であるべきだと。
これは「次の単語予測」だけでは、意味のある範囲ではありません。
視覚モデルを構築し、オブジェクトを記号的に表現し、空間関係を保持し、包含を理解し、操縦者がコックピット内にいると推論し、飛行を地面に対するヘリコプターの位置の変化で表現し、雲を抽象化し、指示に従って色を変更し、意図しない結果を検出し、それを修正するために世界について推論する必要がありました。
それが思考です。
人々は「ただ次のトークンを予測しているだけだ」と繰り返すかもしれませんが、その説明は無意味に還元的になっています。人間の脳もまた、「ただ」電気化学的な活動です。もしそれを誤った抽象レベルで記述しようとすればそうなるだけです。重要な問いは、低レベルの仕組みがあるかどうかではありません。もちろんあります。重要なのは、そのシステムが認知レベルで何ができるかです。
そして、これらのシステムが行うのは単なる自動補完ではありません。推論し、表現し、推測し、修正し、一般化し、反省します。
それが見えないなら、私には説明する時間もありません。