生成AIの自己矛盾した有用性
最近、会社の方からClaudeというAIを開発道具として使えるツールを譲っていただいた。このツールはいわゆる「開発を指示したら、AIさんがコードを書いてくれるツールだ。たとえば「ここの画面にこういう設定値を追加して」ってすれば、あとは勝手に追加してくれる。そんなAIツールで、「ちょっと使ってみてフィードバックくれよ」みたいなことだ。
まぁ最近流行りだし、実験してみるかと思って使ってみたら、まぁこれが中々に動いてくれる。先ほど書いたような指示をすれば、大量のコード群から適切な場所を探り当てて、そのコードを解読し、適切なコード変更を考えて提案してくれる。僕らニンゲンはそれを確認して、「もうちょいこうして」とか「ここは違うかな」とかを指示すればいい。そうすれば確かに作れる。
====
まぁAIもここまで来ているんだなあ、と思う一方で、「じゃあ、これ実際使えるか?」というと、僕の肌感では「部分的には使えなくもないけれど、お任せするには足りない」とったところだ。
確かに指示したら作り上げてくれて、それを見て「ココをこうして」とか言っていればコードが組み上がっていく様は技術の進歩を感じることはできる。けれども、そうやって会話や確認作業を繰り返している時間があれば自分でやったほうが早いよな、と思わなくはない。
これは今回のツールに限らず生成AIとやりとりをしているとしばしば発生する。調べモノをしていても、AIとの間に誤解が生じて「そうじゃなくて・・・」というやりとりをしている暇があったら、自分で調べたほうが早かったな、ということは間々起きる。
詳しくない場面だとAIのほうが速いこともあるかもしれないけれど、そうなると今度は「AIのアウトプットが正しいか判断できない」ので、リスクが増してしまう。そうなると構造的に「玄人じゃないと使いこなせないが、玄人なら自分でやったほうが早い」という本末転倒というか、自己矛盾を起こしてしまう。
世間では未だにAIバブルだし、色んな人が「AIでこんなものが作れる」と騒いではいるが、まぁ娯楽としてはおもしろいものの、結局は「素人仕事」を出ないと思う。まぁ世の中60点でも良いこともいっぱいあるし、生成AIはある種「死なない」ので、命の危険がある分野では活躍する、みたいなことは起きるでしょうが、まぁ尖った部分でしか有用じゃないかなあ、僕にとっては。