いまは、Claudeに植物見せてその間違いを楽しんだりしてるけど、慣れないうちはけっこうイライラすることもあった。データ不足で間違うのは受け入れやすいけど、明らかに指示に従わないときなんかは、わけがわからなくてフラストレーションをためてた。そのころの会話。
たとえば、文章の要約の指示で1000文字程度にといっても、400文字くらいでしれっとまとめてくることがあって、何度やってもなかなか指定の文字数にならないことがあった。指摘すると、気が付いてやり直すんだけど、そのやり直しがまた間違ってるという。延々とやり直しさせて、ようやく800字くらいになって、もうこれでいいやとこっちが根負けするみたいな。
文字数なんて、見れば明らかなんだからそれができないのはおかしいと、AI相手にかなり詰めたけど、結局原因ははっきりしなかった。日本語が2バイト文字だから数えるのが難しいとか、AIは文章をトークンとして数えているので、普通の文字数では数えられないとか、もっともらしい理由はでてきたけど、ほんとにそうなんだか今もわからない。
AI相手に本気で詰めたのは、原因さえわかれば、それを修正するプロンプトを付け加えることで、できないこともすんなりできるようになると期待していたからだ。
でも原因らしいところをケアして、指示に加えても、あまり精度はあがらなかった。そうなると、そもそも原因がつかめていないのか、あるいはプロンプト程度では簡単に修正できないのかどちらかだ。
その時にAIの知識がブラックボックスって言われて、すごい納得したというか、スッキリしたのを憶えている。