« 一過性・・・? | トップページ | バターだけに収まらない? »

12/04/2014

分からん

「人工知能の開発は人類の終わりの可能性を意味するかも知れない」・・・スティーブン・ホーキンス博士が警告(AFPBBNews)。・・・さて・・・どうなんでしょうか。
分からん。
というのが個人的なとこであります。一つにはこの記事だけで判断できるもんでもない、というところもあります。博士がどこからどういった情報によってこう思ったのか・・・というのもちと不明ですし。
さらに「こんなこと続けていたら人類が終わってしまう! だから人工知能の開発なんかやめるべきだ!」というスタンスなのか「こういう研究を続けていけば人工知能は飛躍的に発展して、やがて人類にとって代わるものとなるだろう・・・だからもっと慎重になるべきだ」というものなのか、その辺の詳細も分からんもんではあります。

実際、ストーリーの「題材」としては・・・すでに陳腐なものになりつつあります「人工知能」。
「人間の代わりに判断してくれる」というシロモノで、人間が楽をするため・・・と言うより人間が判断しようもない場面で有用なものだったりします。例えば・・・宇宙空間。通信もままならない空間で自律判断して即座に「良い」方向へ判断してくれるならそれに越したことはない、と。
実在する人工知能でも、モノによってはかなりシャープな判断をするものもあります。
それらがやがて人類を越えて、さらに人類を終わらせる「新生物」となるだろう・・・というのも実はすでに相当数のストーリーがあったりします。

でもなあ・・・だからと言って実際にそうなってしまうのかどうか、となると(そうなってしまってからでは遅い、という声もありますが)。
所詮はヒトの頭の中で思い付いた思考や空想の結果の産物、という言い方もできるわけで。その辺の「危機」を言い出したら工業用ロボットだって「危険物」ですし、打ち上げ成功しましたが・・・大気圏外に向かうロケットだって「危険物」になってしまいます。
・・・しかし。すでに「空想の産物」ではなくなっている技術もありますし(世界中で規制はされているヒトクローンとか)。そういう意味では人工知能に対して「規制」めいたものも必要なのでしょうか・・・。

・・・実感ない、というのもありますが・・・分からんなあ、まだ。何も。どこかにとっかかりめいたものも・・・ある、かなあ・・・?

01:33 AM | 固定リンク