【立教大学】AI分野における世界最高峰の国際会議「NeurIPS 2025」で論文採択~連想記憶モデルによる新たなTransformerの提案~ 立教大学 2025年09月29日 14:05 立教大学大学院人工知能科学研究科(所在地:東京都豊島区、研究科委員長:大西立顕)の博士後期課程1年次の増村翔さんと瀧雅人准教授の論文が「NeurIPS 2025」(The Thirty-Ninth Annual Conference on Neural Information Processing Systems)に採択されました。 「NeurIPS」は毎年開催される機械学習分野の国際会議で、機械学習・深層学習・強化学習・学習理論等の分野において、世界最高峰と目される会議です。採択された論文は、2025年12月2日から12月7日まで米国カリフォルニア州サンディエゴで開催される同国際会議にて発表されます。 【研究の概要】 本研究では、AI研究で基盤となるTransformerモデルを拡張し、その性能をさらに高める新しい方法を発見しました。従来から知られていた連想記憶モデルとTransformerの理論的な結びつきを拡張することで、Transformerが抱える「ランク崩壊(情報の多様性が失われる現象)」という問題を解消できることを理論と実験の両面から示しました。さらに、追加の学習パラメータを一切導入することなく、Vision TransformerやGPTといった既存のモデルの性能を向上させられることも確認しました。 【背景】 ChatGPTをはじめとする大規模言語モデル、画像認識システムや音声合成AIなど、現代の多くの人工知能は Transformer と呼ばれる深層学習モデルに基づいています。その応用範囲の広さと高い性能により、Transformerは今日のAI開発に欠かせない存在です。しかし、なぜTransformerがこれほど優れているのか、またその特殊な構造にどのような本質的意味があるのかは、依然として大きな研究テーマとなっています。 この謎に迫るヒントの一つが、1970〜80年代に甘利俊一氏やJohn Hopfield氏らによって研究された連想記憶モデルです。連想記憶モデルの研究は長らく停滞していましたが、2010年代以降に記憶容量を飛躍的に拡張する方法が発見され、さらに2021年にはRamsauerらによって「大きな記憶容量を持つ連想記憶モデルは、Transformerの自己アテンションそのものに対応する」という驚くべき発見がなされました。2024年には、この分野への貢献によりHopfield氏がノーベル物理学賞を受賞し、改めて注目が集まっています。 【研究成果】 これまで知られていた連想記憶とTransformerの対応関係は、連想記憶モデルにおける「隠れ状態」を無視した近似に基づくものでした。私たちはこの隠れ状態に注目し、Transformerとの新たな対応関係を探りました。その結果、アテンションスコアの情報を層ごとに再帰的に伝える仕組みを備えた新しいTransformer を導入すると、連想記憶モデルとの関係を維持できることを発見しました。 さらに、この新しいTransformerは、従来の多層アテンションで起こる「ランク崩壊」を理論的にも実験的にも解消できることが分かりました。その結果、言語生成モデルや画像認識モデルに応用した場合、従来手法を超える性能が得られることを確認しました。特筆すべきは、追加の学習パラメータを一切導入せずに性能改善を実現できる点です。 【展望】 現在広く利用されているTransformerの性能向上には、これまで多くの場合トライアルアンドエラーに基づく経験的な工夫が用いられてきました。本研究は、こうしたTransformerの設計に対して、より深い理論的な指導原理を与える可能性を示しています。今後、連想記憶モデルに基づく理論を活用することで、より優れた生成AIの開発が進むことが期待されます。 ■■ キーワード ■■ ● 連想記憶モデル:断片的な情報だけから過去の完全な記憶を呼び出すことができる人工知能の基礎的なモデル ● 隠れ状態:連想記憶モデルの記憶と想起を助けるための補助的な変数 ● Transformer:文章や画像などのデータを処理するために広く使われる深層学習モデル ● 自己アテンション:データの中で重要な部分同士の関係を見つけ出す仕組み ● Vision Transformer:画像認識にTransformerを応用したモデル ● GPT:文章を理解し生成する能力を持つ大規模言語モデル ● アテンションスコア:入力データの中でどの情報に注目するかを数値で表したもの ● ランク崩壊:Transformerの内部で、入力データのもつ情報の多様性が失われる現象 ■■ 論文情報 ■■ ●論文タイトル:On the Role of Hidden States of Modern Hopfield Network in Transformer ●著者:Tsubasa Masumura, Masato Taki ■■ 人工知能科学研究科 瀧雅人研究室について ■■ 瀧雅人研究室では、これからのAIを支える深層学習に関して、基礎から応用まで幅広く研究しています。本成果以外にもAI・機械学習分野の国際会議「NeurIPS 2022」「CVPR 2024」に論文が採択されるなど、さまざまな成果を出しています。 ▼本件に関する問い合わせ先 立教学院企画部広報室 メール:koho@rikkyo.ac.jp 【リリース発信元】 大学プレスセンター https://www.u-presscenter.jp/
その他のリリース 【立教大学】神奈川県・佐島漁港で南方系テーブル状サンゴが水揚げ-日本国内における公的な最北限の分布記録- 立教大学 2025年12月23日 14:20 【立教大学】1/10 酪農学園大×立教大 連携協定締結記念シンポジウム開催「縮小社会における地域の環境問題~R×Rで育む環境リーダーが地域の課題を解決する~」( 酪農学園大学 黒澤記念講堂にて ) 立教大学 2025年12月23日 11:20 【立教大学】マテリアルリザバー性能が向上する電子 - イオン混合伝導~イオンを積極的に活用したニューロモルフィック分子ネットワークの実証~ 立教大学 2025年12月19日 11:20 【立教大学】地域における人間関係と地域への所属感をイヌの飼育が増進 立教大学 2025年12月11日 11:20 一覧を見る
話題のリリース 史上初!「きのこの山」と「たけのこの里」が同時に楽しめる!ごろごろ食感とオリジナルチョコソースの歴史的マックフルーリー(R)が登場!「マックフルーリー(R) きのこの山とたけのこの里」 日本マクドナルド株式会社 2日前 再販決定!「ウルフギャング・ステーキハウス」監修のウイスキーハイボール缶 ファミリーマート エリア限定販売 WDI JAPAN 2026年01月13日 11:00 【新製品】ニデックインスツルメンツ、公共交通機関決済用非接触クレジットカードリーダ販売開始 ニデック株式会社 3日前 【東芝エネルギーシステムズ】前田建設と東芝エネルギーシステムズ、系統用蓄電池事業に参画 株式会社東芝 3日前 プロテインを摂りすぎると、おならが臭くなる? ビオフェルミン製薬が “おなら” と “おなか” の関係を解説 ビオフェルミン製薬株式会社 2021年03月24日 15:00 一覧を見る
お知らせ 2025年11月26日 サーバーメンテナンスのお知らせ |11/27(木)19:00〜19:10 2025年11月21日 年末年始の営業のお知らせ 2025年10月31日 サーバーメンテナンスのお知らせ |11/19(水)19:00~20:00 2025年09月01日 9/16(火)23:00~メールメンテナンスのお知らせ 2025年06月25日 サーバーメンテナンスのお知らせ |7/3(木)19:00~20:00 2025年04月04日 ゴールデンウィーク期間の営業について 2025年02月17日 3/4(火)23:00~メールメンテナンスのお知らせ 2024年11月20日 年末年始の営業のお知らせ 2024年09月25日 10/12(土)19:30~24:00サーバーメンテナンスのお知らせ 2024年08月05日 8/13(火) 19:00~20:00 サーバーメンテナンスのお知らせ 2024年08月05日 8/6(火)23:00~メールメンテナンスのお知らせ 2024年05月24日 サーバーメンテナンスのお知らせ |6/10(月)19:00~20:00 2024年04月04日 ゴールデンウィーク期間の営業について