• LINE
  • facebook
  • Youtube

TextSize

Language

TextSize

Language

SDGs

TOPICS

お知らせ

#教育  #研究 

大規模言語モデルの感情の個性を数理的に捉える研究が国際誌(IF=2.2) に掲載

大規模言語モデル(LLM)が同じ文章を読んでも、どのように「面白い」「悲しい」といった感情を読み取るかは一様ではありません。下関市立大学データサイエンス学部の白濵成希教授らは、その違いを「感情の個性」として数理的に捉える研究を進め、論文が国際誌Mathematicsに掲載されました。会議発表として高い評価を受けた成果を発展させたもので、AIの評価設計や教育への還元にもつながる研究です。

Click here for the English version.

研究の概要

この研究は、LLMが文章の感情をどのように判断するかを、曖昧さやばらつきも含めて数理的に整理しようとするものです。研究チームは、7社36種類のLLMを対象に、日本語の文学作品を読ませ、「面白さ」「驚き」「悲しみ」「怒り」の4つの感情を0〜100で評価させ、4,067件の有効な数値評価をもとに分析しました。ここでいう「感情の個性」とは、AIが人間のような心を持つと断定するものではなく、同じ条件でもモデルごとに現れる解釈傾向や応答の違いを指す研究上の概念です。論文でも、日本語文学・テキスト中心の条件に基づく結果であることが明確に示されています。

研究のポイント

温度制御とは

温度制御は、AIの出力をどれだけ揺らぎやすくするかを調整する設定です。一般には温度が高いほど答えに幅が出やすく、低いほど安定しやすくなります。本研究では、この設定と出力のばらつきの関係を比較し、モデルによって反応の仕方が大きく異なることを示しました。AIを評価するときには、「どのモデルか」だけでなく、「どの設定で使うか」も重要であることがわかります。

ファジィエントロピーとは

感情は「悲しい」「悲しくない」と二分できるものではなく、その中間が少なくありません。そこで本研究では、境目の曖昧さを扱うファジィ理論を用い、さらにファジィエントロピーによって「判断の曖昧さ」を数値化しました。これにより、どのモデルが比較的はっきりした判断を示し、どのモデルが中間的で揺らぎのある評価を示しやすいかを、同じ枠組みで比べられるようになりました。

ペルソナ多様性と「感情の個性」

研究では、「大学生」「文芸研究者」「感情豊かな詩人」「感情を持たないロボット」という4つのペルソナを設定し、立場の違いが感情評価に与える影響も調べました。その結果、ペルソナによる差は確かに見られる一方で、何を読ませるかというテキストの内容がより大きな影響を持つことも示されました。AIの感情理解を考える際には、モデルの違いだけでなく、問い方や読む内容の違いも重要であることが示されたといえます。

研究の意義と受賞・掲載

この成果の意義は、LLMが感情に関わる課題でどの程度安定して応答できるか、設定変更にどの程度反応するか、どこに判断の曖昧さが残るかを、ひとつの数理的枠組みで見渡せる点にあります。論文では、この枠組みを、感情に配慮したAIの評価設計やモデル選定のための基盤として位置づけています。教育支援や対話支援など、感情への配慮が求められるAI活用を検討する際にも、検証の土台となることが期待されます。

本研究の基礎となった会議発表「Characterizing “Emotional Individuality” in 36 LLMs: Persona and Japanese Text Conditioning」は、IIHMSP 2025で Best Paper Award を受賞しました。今回の論文は、その成果を発展させ、温度制御・ファジィエントロピー・ペルソナ多様性を統合した数理的フレームワークとしてまとめたものです。また、掲載先のMathematicsは、MDPI刊行の査読付きオープンアクセス誌で、特集「IIHMSP: Intelligent Information Hiding and Multimedia Signal Processing」に位置づけられています。同誌はScopusに収載され、Impact Factor 2.2、CiteScore 4.6とされています。

今後の展望

本研究で示された枠組みは、LLMの感情理解を感覚的にではなく、数理的に点検するための土台になります。その意味で、科研費 基盤研究(C)採択課題「ファジィエントロピーとペルソナ多様性に基づくLLM感情知能の不確実性評価」(課題番号: 26K14983)において求められる数学的フレームワークにもつながるものです。

今後は、AIを使う力だけでなく、AIの出力を統計・数理の観点から評価する力を育てる教材や研究指導にも還元されていくことが期待されます。こうした研究に学生が触れることは、データサイエンス教育やAI教育において、「AIを使う」だけでなく「AIを検証する」視点を育てることにもつながります。

論文情報

関連リンク