プレプリント / バージョン1

AI to Learn(AI2L):人間中心の学習支援としてのAI活用指針とその実践---ブラックボックス排除・説明責任・情報保護・省エネルギーの四本柱---

##article.authors##

DOI:

https://doi.org/10.51094/jxiv.1435

キーワード:

AI to Learn (AI2L)、 Model Transparency (Black‑Box Elimination)、 Accountability、 Information Protection and Privacy、 Green AI (Energy Efficiency and Sustainability)

抄録

現代の生成AI、とりわけ大規模言語モデル(LLM)は、その圧倒的な効率性と表現力によって研究・教育・医療分野をはじめとする多様な現場に急速に浸透しつつある。しかし、その一方でAIの「ブラックボックス性」や入力データのプライバシー流出リスク、判断根拠が不明なまま出力が利用されることへの倫理的懸念、さらにはAIの運用に伴うエネルギー消費・環境負荷が深刻な課題として浮上している。本論文では、AIを人間の学習支援ツールとして限定的かつ主体的に活用し、最終成果物からはAIの痕跡(ブラックボックス性)を排除することを核とした「AI to Learn(AI2L)」指針を提案し、その実践事例と理論的背景を多面的に論じる。AI2Lは、①人間が最終決定権を持つ、②AIの出力を人間が検証し説明責任を担保する、③情報流出リスクを徹底的に回避する、④AI利用を省エネルギーで持続可能に制御する、という四つの原則を掲げる。本稿ではGrad-CAMによる画像解釈、シンボリック回帰による新規知見発見、生成AIプログラム活用のブラックボックス排除実践、可逆的匿名化による情報保護など、複数の現場でのAI2Lの実例を詳細に検討する。あわせて、基盤モデルが物理法則を“本質的には理解できていない”ことを明らかにした近年の研究も参照し、AI2Lの重要性を理論的にも補強する。AIを使いながら、その限界・危険性を正しく認識し、持続可能で倫理的なAI社会実装を進める指針としてAI2Lがいかに有効かを検証する。

利益相反に関する開示

利益相反(COI)の開示:本研究(本発表)に関連して開示すべき利益相反はありません。

ダウンロード *前日までの集計結果を表示します

ダウンロード実績データは、公開の翌日以降に作成されます。

著者の経歴

新谷正嶺、中部大学 生命健康科学部 生命医科学科 / AI数理データサイエンスセンター

経歴(Career)
  • 2024年4月 – 現在 中部大学 生命健康科学部 生命医科学科 准教授

  • 2022年6月 – 現在 名古屋大学 高等研究院 客員研究員

  • 2021年12月 – 現在 中部大学 AI 数理データサイエンスセンター 兼任

  • 2022年4月 – 2024年3月 中部大学 生命健康科学部 生命医科学科 講師

  • 2017年11月 – 2022年3月 中部大学 生命健康科学部 生命医科学科 助教

  • 2015年4月 – 2017年10月 東京大学 理学系研究科 物理学専攻 日本学術振興会特別研究員(PD)

  • 2012年11月 – 2015年3月 早稲田大学 理工学術院 助手 (博士後期課程在籍時)

    学歴(Education)
  • 2012年4月 – 2015年3月 早稲田大学 大学院 先進理工学研究科 物理学及応用物理学専攻 博士後期課程(博士 〈理学〉)

  • 2010年4月 – 2012年3月 早稲田大学 大学院 先進理工学研究科 物理学及応用物理学専攻 修士課程(修士 〈理学〉)

  • 2006年4月 – 2010年3月 早稲田大学 理工学部 応用物理学科 (学士 〈工学〉)

引用文献

R. Bommasani, D. A. Hudson, E. Adeli, et al., “On the Opportunities and Risks of Foundation Models,” arXiv preprint arXiv:2108.07258, Aug. 2021. doi: https://doi.org/10.48550/arXiv.2108.07258

OpenAI, “GPT‑4 Technical Report,” arXiv preprint arXiv:2303.08774, Mar. 2023. doi: https://doi.org/10.48550/arXiv.2303.08774

N. Carlini, F. Tramèr, E. Wallace, et al., “Extracting Training Data from Large Language Models,” in Proc. 30th USENIX Security Symp., 2021, pp. 2633‑2650. doi: https://doi.org/10.48550/arXiv.2012.07805

E. M. Bender, T. Gebru, A. McMillan‑Major, and S. Shmitchell, “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” in Proc. ACM Conf. Fairness, Accountability, and Transparency (FAccT), 2021, pp. 610‑623, doi: https://doi.org/10.1145/3442188.3445922

E. Strubell, A. Ganesh, and A. McCallum, “Energy and Policy Considerations for Deep Learning in NLP,” in Proc. 57th Annu. Meeting Assoc. Comput. Ling. (ACL), 2019, pp. 3645‑3650, doi: https://doi.org/10.18653/v1/P19‑1355.

R. Schwartz, J. Dodge, N. Smith, and O. Etzioni, “Green AI,” Communications of the ACM, vol. 63, no. 12, pp. 54‑63, 2020, doi: https://doi.org/10.1145/3381831.

T. Kuru, “Lawfulness of the Mass Processing of Publicly Accessible Online Data to Train Large Language Models,” International Data Privacy Law, Oct. 2024. doi: https://doi.org/10.1093/idpl/ipae013

R. R. Selvaraju, M. Cogswell, A. Das, R. Vedantam, D. Parikh, and D. Batra, “Grad‑CAM: Visual Explanations from Deep Networks via Gradient‑Based Localization,” in Proc. IEEE Int. Conf. Computer Vision (ICCV), 2017, pp. 618‑626, doi: https://doi.org/10.1109/ICCV.2017.74

S. M. Lundberg and S.‑I. Lee, “A Unified Approach to Interpreting Model Predictions,” in Advances in Neural Information Processing Systems 30 (NeurIPS), 2017, pp. 4765‑4774, doi:

https://doi.org/10.48550/arXiv.1705.07874

C. Rudin, “Stop Explaining Black Box Machine Learning Models for High‑Stakes Decisions and Use Interpretable Models Instead,” Nature Machine Intelligence, vol. 1, no. 5, pp. 206‑215, 2019, doi: https://doi.org/10.1038/s42256‑019‑0048‑x

K. Vafa, P. G. Chang, A. Rambachan, and S. Mullainathan, “What Has a Foundation Model Found? Using Inductive Bias to Probe for World Models,” arXiv preprint arXiv:2507.06952, Jul. 2025, to appear in Proc. 42nd Int. Conf. Machine Learning (ICML 2025), doi: https://doi.org/10.48550/arXiv.2507.06952

M. Schmidt and H. Lipson, “Distilling Free‑Form Natural Laws from Experimental Data,” Science, vol. 324, no. 5923, pp. 81‑85, Apr. 2009, doi: https://doi.org/10.1126/science.1165893

S.‑M. Udrescu and M. Tegmark, “AI Feynman: A Physics‑Inspired Method for Symbolic Regression,” Science Advances, vol. 6, no. 16, eaay2631, Apr. 2020, doi: https://doi.org/10.1126/sciadv.aay2631

S. A. Shintani, “Hyperthermal Sarcomeric Oscillations Generated in Warmed Cardiomyocytes Control Amplitudes with Chaotic Properties While Keeping Cycles Constant,” Biochemical and Biophysical Research Communications, vol. 611, pp. 8‑13, 2022, doi: https://doi.org/10.1016/j.bbrc.2022.07.067

S. A. Shintani, “Chaordic Homeodynamics: The Periodic Chaos Phenomenon Observed at the Sarcomere Level and its Physiological Significance,” Biochem. Biophys. Res. Commun., vol. 760, 151712, 2025, doi: https://doi.org/ 10.1016/j.bbrc.2025.151712

S. Amershi, M. Cakmak, W. B. Knox, and T. Kulesza, “Power to the People: The Role of Humans in Interactive Machine Learning,” AI Magazine, vol. 35, no. 4, pp. 105‑120, 2014, doi: https://doi.org/10.1609/aimag.v35i4.2513

E. Tabassi, “Artificial Intelligence Risk Management Framework (AI RMF) 1.0,” National Institute of Standards and Technology, Gaithersburg, MD, USA, NIST AI 100‑1, Jan. 2023. doi: https://doi.org/10.6028/NIST.AI.100-1

S. A. Shintani, K. Oyama, N. Fukuda and S. Ishiwata, “High‑Frequency Sarcomeric Auto‑Oscillations Induced by Heating in Living Neonatal Cardiomyocytes of the Rat,” Biochem. Biophys. Res. Commun., vol. 457(2), pp. 165‑170, 2015, doi: https://doi.org/10.1016/j.bbrc.2014.12.077

S. A. Shintani, T. Washio, and H. Higuchi, “Mechanism of Contraction Rhythm Homeostasis for Hyperthermal Sarcomeric Oscillations of Neonatal Cardiomyocytes,” Scientific Reports, vol. 10, 20468, 2020, doi: https://doi.org/ 10.1038/s41598‑020‑77443‑x

L. Sweeney, “k‑Anonymity: A Model for Protecting Privacy,” Int. J. Uncertainty, Fuzziness and Knowledge‑Based Systems, vol. 10, no. 5, pp. 557‑570, 2002, doi: https://doi.org/ 10.1142/S0218488502001648.

公開済


投稿日時: 2025-08-07 23:10:44 UTC

公開日時: 2025-08-15 09:16:45 UTC
研究分野
情報科学