pexels-photo-2085831.jpeg
ニュース

私たちがAIと共に生きる未来

AIの歴史は古い

私たちの身の回りにはAI(ArtificalInteligence)を活用した商品やサービスがすでに数多く存在します。

スマホやパソコンなどで利用できるインターネット検索エンジンをはじめ、AI搭載のエアコン、洗濯機、冷蔵庫、お掃除ロボットなど家電製品はすでにご家庭に浸透しています。

誰もが一度はAIを使用したことがあるという状況です。

AIという言葉は実は1956年で、その10年前に世界初のコンピューターが開発され、コンピューターの発展とともにAIも成長してきました。

第一次AIブームとなった1960年代はまだAIの思考はシンプルで迷路の進み方や定理の証明といったシンプルな問題を解くといったものだったそうです。

その時は、現実における複雑な問題の手助けにはならないとされていたそうです。

その後、1980年~90年代にはコンピューターのメモリーに大量の情報を記憶できるようになったことから、

第二次AIブームが到来し、たくさんの専門知識を与えることであたかも専門家のように推論できるエキスパートシステムが生み出されました。

一例としては、医療分野での活用法があります。

あらかじめさまざまな症例のデータをAIに入れておくことで、患者の症状から病名を推測するのです。

crop unrecognizable woman showing chiropractor painful spot on back
Photo by Karolina Grabowska on Pexels.com

しかし、当時は必要なデータを人間の手でAIに入力する必要がありました。

複雑な情報を判断するための情報は膨大な情報になり、その入力作業には限界があったため、

広く活用されるには至りませんでした。

動物の「猫」をどうやってAIに教える?

現在は、2000年代から続く第三次AIブームです。

ブームのきっかけはウェブの広がりとともに、インターネット上に多くのデータが自然と集まるようになってきたからです。

1990年代にグーグルやヤフーなどの検索エンジンが登場し、インターネットが爆発的に普及したこと。

そこから取得できる大量のデータをAIに活用できるようになりました。

コンピューター自らにモノの特徴やルールを学ばせる機械学習が可能になりました。

high angle photo of robot
Photo by Alex Knight on Pexels.com

この機械学習が登場する以前は、例えばですがAIに

「猫とはどんなもの?」

を学習させたい場合、目の形や、シッポ、ヒゲ、といったネコの特徴を一つ一つ入力する必要がありました。

そもそも、猫の姿や形がどういうものか定義するのは難しいですよね。

犬との違いを説明するのも困難です。

AIではなくて人であれば普段の生活から「猫とはどんなものか?」を無意識に学び、理屈での説明は難しいですが、「なんとなく」であれば区別することができます。

これは人間の凄いことろでもありますね。

AIは「なんとなく」で判断することができませんでした。

しかし、今は違います。

機械学習の新手法である、ディープラーニング(深層学習)によりAI自身が物事の特徴を見つけ出せるようになりました。

猫の例だと「猫」と検索して出てくるような大量の画像を「これが猫だ」とAIに入力することでAI自らが猫を把握することができ、猫とそれ以外を分類できるようになりました。

glad woman with cat writing in planner while using laptop
Photo by Sam Lion on Pexels.com

人間の脳を模した仕組み

ディープラーニングの仕組みについてごく簡単に説明すると、

ベースをなっているのは人間の脳の神経回路網を人工的に、コンピューターで再現したニューラルネットワークです。

人間の脳にはたくさんの神経細胞(ニューロン)が集まっていて、それぞれ電気信号でやりとりしながら、情報を伝達したり、処理しています。

ニューラルネットワークは同じような仕組みを、人工ニューロンでマネしたものです。

そして、それをさらに進歩させたものがディープラーニングです。

AIがデータのやり取りをするニューラルネットワークをより深く重ねることでデータの特徴をより細かく学習し、制度の高い識別が可能になったんですね。

person holding white android smartphone
Photo by cottonbro on Pexels.com

画像、音声、歌詞、も判断できる

ディープラーニングの登場で、制度が格段に上がったのが画像認識です。

顔の画像をキーにしたセキュリティロックと解錠、PCやスマートフォンのログイン機能など防犯、監視といった分野での識別機能をはじめ、

医療の現場ではたくさんのCT画像データをAIに学習させがんの画像診断などに活用されています。

医師が1枚の画像を見て病気の有り無しを診断するには数秒かかるところを、AIであれば例えば1枚0,02秒で処理できること、47秒で2296枚という膨大な数の画像を見て診断することが出来るようです。

最終的な判断は人間が行うことは変わらないのですが、スピーディーで確実な判断をAIが提供してくれるのであれば、医師の負担も減り、多くの患者を救うと共に医療関係者の精神的な負担も減らることができるのではないでしょうか。

スマホやカーナビゲーションなどの音声認識機能も格段に向上していて、マイクの性能も上がり音声を正しい文字に変換する処理を高い精度で行えるようになっています。

自分の声を学習させておいたり、ロボットによる音声対話も広く実用化されています。

通販サイトの購買履歴から利用者の好みの商品を割り出したり、予測の元におすすめを紹介するレコメンドと呼ばれるサービスは通販サイトなので日常的になっています。

それから、PCやスマホの画面に表示される広告は利用者の検索、閲覧履歴から効果的な広告をAIが自動的に判断し掲載しています。

企業成長のために欠かせない技術の一つですね。

items organized on shelves
Photo by Mehrad Vosoughi on Pexels.com

クリエイティブな分野では、AIを使って小説を書いたり、作詞、作曲をしたりも試みられています。

2016年には「星新一賞」というショートショートの文学賞(短編の中でも特に短い作品)に、AIによる11編の作品が応募。そのうち1編が一次予選を通過したそうです。2021年の今では最終審査までAIの作品が残っており

能力の真価を裏付けています。

人々をサポートし課題解決のツールへ

AIの実行能力の向上で、自動運転車の開発競争も加速しています。

自動車はテクノロジーの進化によって大きく様変わりすることが予測されていて、2021年春にはレベル3機能を搭載した新型車が登場し、販売されています。

これは高速道路等の特定の条件下でAIが主体となり運転、自動車運転の継続が難しい時は、人間が運転するという技術レベルのもので、自動運転中はスマホやテレビの視聴も可能だとしています。

運転者の負担軽減や事故の減少にもつながりそうですね。

とはいえ、全てが自動運転となるレベル5機能の実用化には超えるべきハードルがかなり高く、

しばらくは、人手不足が顕著な運輸、物流業界の活躍が現実的です。

もし仮に夜中に二人で長距離運転する場合、人間1人とAIがペアになれば高速道路を自動運転中に仮眠を取ることも可能になりそうですね。

人件費も抑えられ、過重労働を強いることもなくなるはずです。

red car in bus
Photo by Pixabay on Pexels.com

このようにAIが人間をサポートする役割はあらゆる分野に及び、人々をサポートし、社会が抱える課題解決のための

必要なツールになるといえます。

ただ、AIには外界と直接やりとりする身体がないうえに、情報を取り込むセンサーも主に視覚や聴覚に限られ、人間の五感には及んでいません。

もし仮にですが、人間の感性の機微を理解できるAIが誕生するとすれば、家事や介護といった対人サービスにも導入することができそうですね。

2010年生まれの男の子の母です。 陶芸、飲食店、健康食品、大手金融機関を経て子育ての合間にブログを執筆しています。 子が3歳の時に離婚。 子と知識と思い出を共有して日々楽しんでいます。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です