既に回答があるようにハルシネーションはよく知られた現象ですので、現状の技術では、仕方ないと思います。
尋ねる内容がITのことかどうかではなく、言葉の表現として尋ねて、また言葉の回答を得ることなので、言語としての曖昧さが出るだけのことです。
そもそもIT用語は多義的に使われることも良くあります。技術的な用語として特定の意味に使われたものが、普及することで、ある種、素人が間違った解釈で使うことで意味が変化し、別の意味をもつことが良くあります。あるいは新しいIT用語は意味が元から曖昧に始まり、特に、その初期では使う人それぞれがやや違う意味、意図をもって使っていることすらあります。そのような情報源からAIが回答を作るのですから、少し変な回答になることは当たり前に起きます。
個人的には今のAIは、物凄く調べることが得意で、超絶知識持ちの、知能レベルは小学生ぐらいの感覚でいます。AIレベルの知識を持つ小学生なんて居ないので、現実の人であれば、当てはまる人は居ません。むしろ物知り過ぎて、直感的には大人レベルを相手にしているような気すらしますが、論理的には小学生ぐらいと思っておくと、回答の間違いっぷりも納得が行くというだけなのですが。
対策としては、既に回答があるように複数のAIを使うのも手ですが、以下のような方法もあります。
・知らなかったキーワードや考え方を提示してもらえるため、あとは検索エンジンで人の書いた文章、表現で合うものを探す。
・新たにプロンプトを起こし直し、再度質問をする。
更問では、的外れな質問や表現も多々含まれます。また、最初の質問が曖昧であったりすることもあります。そのため、新たにプロンプトを起こし直し、その際、それまでの質疑を踏まえた条件や注意事項を付した丁寧な質問として起こしてやると、少し異なる回答が得られることがあります。
感覚的には、AIの回答を複数回訂正すると、論理的に思考停止しているように見えることが良くあります。
人でもダメ出しするとへこたれますが、AIは表面上は耐性があるように見えますが、もっと耐性ないなと思ってます。