『ChatGPTの高度AIで士業・知的産業分野に影響か?』

『ChatGPTの高度AIで士業・知的産業分野に影響か?』

 言葉で質問などをすると自然な言葉で答えを返してくれるChatGPTというAI・人工知能が世界に大きな衝撃を与え始めている。AIがビジネスやくらしを便利にするという期待の一方で自分の仕事が奪われてしまうという懸念が現実味を帯びたと感じる人も出てきている。私自身もそうであるが士業など知的産業分野は、高度なAIの実用化が迫る中、それとどう向き合ったらよいのか考える必要性に迫られている。

ChatGPTは、米国のベンチャー企業「オープンAI」が開発したAI・人工知能でることはご存じのことと思う。最大の特徴は、我々が話している「自然言語」で質問をしたり、命令をしたりすると、答えを返してくれることである。例えば「数年来会っていない友人に出す手紙を書いてほしい」と入力すると、数年前の思い出を懐かしみ、再開したいという趣旨の文章を書いてくれる。数分もしないうちに、人が書いたような日本語が表示されるのは、驚くしかない。

ChatGPTは、質問応答、作文、文章の要約、翻訳、プログラミングなどができる。また、数多くの言語に対応している。どうしてこのような機能が実現できるのか誰もが疑問に思うであろう。それは、LLM・大規模言語モデルという仕組みに秘密があ。このシステムは、インターネット上などにある数千億という文章を基に、言葉のつながりを重点的に機械学習している。例えば、「明日の天気は」に続く言葉は、「晴れ」「雨」「雪」などの確率が高く、「山」「机」「自動車」などは低いことを学習している。これによって、自然な文章で答えを返すようになっている。ただ、ChatGPTには、次にあげる点において問題点が指摘されている。

  1. 正しい答えを出すとは限らない。機械学習は、確率的な仕組みがあるため、精度は100%にはならない。
  2. 新しいアイデアを出すことはない。これは、過去に誰かが書いた文章をもとに学習しているためである。
  3. 情報が流出する。ChatGPTは、質問として入力された文章も学習データとして取り込むことがあるため、企業秘密や個人情報などを入力すると、データは事実上流出したことになる。

特にデータの扱いについては不信感を招いているのが現状である。その例としてイタリアでは、ChatGPTが利用者の会話の内容など、個人データを法的根拠がないまま収集しているとして一時的に使用を禁止すると発表したことも注目される。開発企業は、可能な限り個人情報を削除していると主張しているが、どこまで対応できているか疑問である。しかし、多くの人が安心して利用するためには、データの扱いについて透明性を確保することが必要である。開発企業の十分な説明が求められている。

ChatGPTのような高度な対話型AIについては、大手IT企業が、同じようなシステムの開発を急いでいる。将来的には正確さと安全性を向上させた高度なAIが実用化される時代が来ることは間違いないというのが、ほとんどの専門家の意見である。高度なAIと共存する社会はどのようになるのか、期待されることも多いが、その反面において懸念されることも指摘されている。高度なAIは、自然言語で人間と会話できるため、ビジネスの分野では、顧客からの問い合わせに自動で答える各種の取り組みなどがビジネスになったり、さまざまな事務作業を代行して行うなどの用途で実用化されることも遠い話ではない。

AIが人手不足の解消を超えて、人の仕事を奪う可能性があることも指摘されている。特定の課題を迅速に正確にこなすだけでは、AIでもできる時代がいずれくるであろう。このためAIでは成し遂げられない創造的な発想、アイデアがさらに求められるようになる。AIを使いこなしながらも依存せず、日常的に知的な考察を続けていくことができなければ、AIに仕事を奪われ、我々のような士業や知的産業分野にとっても大きな脅威となる可能性があることを肝に銘じる必要がある。

以上