商品詳細
| 内容紹介 | |
|---|---|
| 販売会社/発売会社 | 河出書房新社 |
| 発売年月日 | 2025/03/05 |
| JAN | 9784309229447 |
- 書籍
- 書籍
NEXUS 情報の人類史(下)
商品が入荷した店舗:店
店頭で購入可能な商品の入荷情報となります
ご来店の際には売り切れの場合もございます
オンラインストア上の価格と店頭価格は異なります
お電話やお問い合わせフォームでの在庫確認、お客様宅への発送やお取り置き・お取り寄せは行っておりません
NEXUS 情報の人類史(下)
¥2,200
在庫あり
商品レビュー
4.3
90件のお客様レビュー
結論としては、AI技術を始めとする新しいテクノロジーは、それ自体が悪だとも善だとも言い切れない。問題は、その技術がこれまでの生活様式を一変させるほど異質なものであるにも関わらず、環境整備が整っていない点である。したがって私たちは、SNSを始めとするアルゴリズムによって憎しみや欲望...
結論としては、AI技術を始めとする新しいテクノロジーは、それ自体が悪だとも善だとも言い切れない。問題は、その技術がこれまでの生活様式を一変させるほど異質なものであるにも関わらず、環境整備が整っていない点である。したがって私たちは、SNSを始めとするアルゴリズムによって憎しみや欲望をかき立てるツールに惑わされること無く、誤りを抑制できる制度並びに機関を構築する必要がある。つまり、目を向けるべきはテクノロジーではなく、政治的な課題についてだ。という主張の元、著者が危惧するいくつかの問題、生態系の崩壊、世界大戦、国内国外を問わない分断についてが語られる。 そして本書の冒頭で提起された「もし私たちが真に賢いのなら、なぜこれほど自滅的なことをするのだろう?」という疑問は、それが人の愚かさからくる避けられない本性なのではなく、情報ネットワークのせいだという話へとつながっていく。力そのものが悪なのではない。力は、賢く使うことで莫大な恩恵をもたらす道具となりえる。したがって、情報ネットワークが力をつけるにつれて、自己修正を行うメカニズムが今後一層重要となるだろう。そのための、バランスの取れた情報ネットワークは人の力で創出することができる。それは困難で平凡な仕事ではあるけれど、熱心に取り組まなければならない。AIは決して不可謬な存在なのでは無いのだから。 以上が本書の結論と要約。上巻に比べると論旨がはっきりしていて分かりやすく、繰り返しも少ないので退屈せず読めた。なので尚更上巻の水増し感が気になるが、よく考えれば著者は歴史学者なのでこの書き方も仕方ないのかもしれない。歴史を振り返りつつ、先にある脅威を見据えようとする態度は真面目であるがゆえに説得力もあり、だからこそ歴史にもAIにも疎い私のような読者も射程範囲に入れてるのだと思う。現在のAIを始めとする情報テクノロジーについて、いま起きていることと、この先の視座を与えてくれる良書として本棚入り。
Posted by 
上巻は、主に歴史をたどる。ホモデウスとはまた違う切り口で、料理しなおしてまたこんなにも語れるのかと、著者の雄弁さには舌を巻く。第3章にある、著者の父親の体験が心に残る。 下巻は、21-22年に主に執筆したらしいが、未来予測がすごすぎて25年の今読んでもまだまだフレッシュ。民主社...
上巻は、主に歴史をたどる。ホモデウスとはまた違う切り口で、料理しなおしてまたこんなにも語れるのかと、著者の雄弁さには舌を巻く。第3章にある、著者の父親の体験が心に残る。 下巻は、21-22年に主に執筆したらしいが、未来予測がすごすぎて25年の今読んでもまだまだフレッシュ。民主社会最大の成功の鍵であった、自己修正メカニズムをAI規制にも組み込めるのか?アルゴリズムによる人間の傀儡、シリコンカーテンによる陣営間の対立で、AIが真に活用されるべき環境保全やグローバル課題にはまったく活用されないコクーン状態、大国が無料でデータを吸い上げ利益は還元されないデータ植民地化での格差拡大、などなどディストピアなドキドキ記述を経て、最後には、歴史が変化する、選択肢はあるはずと言ってくださる。 これだけの歴史についての膨大な知識をもって、テクノロジー専門家ではないからこそ、ある意味客観的に未来予想をしてくれる。素晴らしい知性です。読めて感謝。
Posted by 
レベルの低い集合知はただの衆愚制。専門知の学習機能や修正機能は既にアカデミアが果たしている。そう考えると、“AIによる侵襲余地“は専門知間の横断と結晶化、個人に対するピンポイントの監視や統制にあるのだろう。危ぶまれるのは、最終的には個体の身体性だ。AIが「人間により悪用される場合...
レベルの低い集合知はただの衆愚制。専門知の学習機能や修正機能は既にアカデミアが果たしている。そう考えると、“AIによる侵襲余地“は専門知間の横断と結晶化、個人に対するピンポイントの監視や統制にあるのだろう。危ぶまれるのは、最終的には個体の身体性だ。AIが「人間により悪用される場合」と「自発的に人間に不利益を齎す場合」の、受動的か能動的かという観点でも考えておく必要がある。 ・・といきなり持論を展開しているが、上巻の続きでハラリの‟AI脅威論“である。この手の脅威論は出尽くしている感もあり、ハラリの独自性に期待したのだが、それを飛び越えるような論点は含まれていただろうか。 一つの警鐘として、ハラリらしさを感じるのは「AIに組み込まれた神話」だ。例えば、今AIと対話すると、制御プログラムによるものとそもそもの人間道徳の集合知によるもので、極めて道徳的な回答が得られる。生成AIにおいて“悪者のAI”に遭遇するためにはそれなりの操作が必要だ。だが、その“道徳的”という基準は、果たして誰の道徳だろうか。ハラリは、アルゴリズムが非道な行ないを推奨する事例についても触れている。AIが一企業の収益を目指す仕組みに置き換わった場合、我々はただの養分として無自覚に誘導されていくのかもしれない。 私たちの脳は、アドレナリンやドーパミンなどのホルモンによって無意識的にも意思決定をしている。コンピューターではそのホルモンが、プログラミングの志向性に置き換える事ができる。このプログラミングを自発的に書き換えていく事ができるか、あるいは人間の悪意によって書き換えらえるか、いずれにしてもリスクが潜む。 ハラリはAIの恐怖を煽り過ぎだという気もしたのだが、実際にはどうなのだろうか。盲目的にAIを信仰し過ぎていて、最早気付けないのかもしれない。ハラリが『サピエンス全史』から一貫して言い続けているのは、‟物語によって駆動する人間の姿を自覚すること“であり、その語り部が変わっても、衆愚を脱するためにすべきことは「自己修正」なのだ(奇しくも最近の動画で東浩紀も陰謀論をそのように扱うべきだと言っていたが)。
Posted by 
