学術研究の世界において、生成AI(ジェネレーティブAI)はもはや無視できない存在となりました。2024年から2025年にかけて、海外の主要な学術出版社や大学は、研究におけるAIの利用に関する具体的なガイドラインを次々と整備しています。本報告書では、海外の文献や最新の事例を基に、論文執筆の各プロセスにおける生成AIの具体的な活用方法、倫理的リスク、そして実効性の高いプロンプトエンジニアリングについて、非専門家にも理解しやすい形で詳細に解説します。


1. イントロダクション:学術研究における生成AIの役割と変遷
学術研究における情報収集と執筆のプロセスは、生成AIの登場によって劇的な変革期を迎えています。2024年の調査によれば、生成AIというワードの検索数は前年比で約5.2倍に急増しており、研究者の間でもその利便性とリスクに対する関心が高まっています 1。特に、英語を母国語としない研究者にとって、言語の壁を乗り越えて効率的に論文を執筆するための手段として、生成AIは極めて重要な役割を果たしています 2。
米国の調査会社Gartnerは、2026年までに従来の検索エンジンの利用ボリュームが25%減少すると予測しています。日本国内でも、生成AI利用者の約4割がGoogleなどの検索エンジンの利用頻度が減ったと実感しており、情報を「探す」時代からAIに「答えを求める」時代へとシフトしつつあります 3。研究の現場においても、AAAI2025などの国際会議では「大規模言語モデル(LLM)」や「拡散モデル」といった生成AI関連のキーワードが急増しており、学術インフラとしてのAIの地位が確立されつつあります 4。
しかし、生成AIは魔法の杖ではありません。その利便性の裏には、事実ではない情報を生成する「ハルシネーション(幻覚)」や、著作権、研究倫理に関わるリスクが潜んでいます。本報告書では、これらのリスクを適切に管理しながら、研究の質を向上させるための「ハイブリッド・モデル」の構築方法を提案します 5。
2. 生成AIの仕組みと非専門家向けの基本解説
生成AIがどのようにして論理的な文章を生成しているのかを理解することは、その限界を正しく認識するために不可欠です。
2.1 仕組みの核心:単語の予測と数値化
生成AI、特に論文執筆に利用される大規模言語モデル(LLM)は、人間の脳の神経回路を模した「ニューラルネットワーク」に基づいています 6。このモデルは、インターネット上の膨大なテキストデータを学習し、ある単語の次にどの単語が来る確率が高いかを統計的に計算します。
テキストは処理の過程で「トークン」と呼ばれる最小単位に分割されます。例えば「I love programming」という文章は、[I, love, program, ming]といったトークンに分解され、それぞれに固有の数値IDが割り当てられます 8。さらに、これらのトークンは「埋め込み(Embeddings)」と呼ばれる多次元空間上のベクトルへと変換されます。このベクトル空間では、意味の近い単語(例:「論文」と「著作」)は物理的にも近い距離に配置されます 6。
2.2 トランスフォーマーとアテンション・メカニズム
現代の生成AIの基盤となっているのは「トランスフォーマー(Transformer)」と呼ばれるアーキテクチャです。その最大の特徴は「セルフ・アテンション(Self-Attention)」という仕組みにあります 7。これは、文章の中のどの単語が他のどの単語と強く関連しているかを判断する機能です。例えば、「The cat sat on the mat」という一文において、AIは「sat(座った)」という動作が「cat(猫)」に最も強くかかっていることを認識し、文脈を正確に把握します 8。
2.3 検索拡張生成(RAG)の重要性
学術利用において最も注目されている技術が「RAG(Retrieval-Augmented Generation)」です。これは、AIが学習済みの知識だけで回答するのではなく、外部の信頼できるデータベース(最新の学術論文アーカイブなど)から関連情報を検索し、その情報を基に回答を構成する仕組みです 7。RAGを活用することで、AIが最新の研究結果を反映しやすくなり、根拠のない情報を生成するリスクを低減できます。
3. 主要出版社のガイドラインと規制の動向:2024-2025年最新版
論文を投稿する際、研究者は出版社のポリシーを遵守しなければなりません。海外の主要出版社は、AI利用に関して「透明性」と「説明責任」を重視する姿勢を鮮明にしています。
表1:主要学術出版社のAI利用ポリシー比較
| 出版社 / 誌名 | AIによる著者資格 | テキスト生成の利用 | 図表・画像生成の利用 | 主な開示場所 |
| Nature Portfolio | 認められない 10 | 許容(透明性が必要) 11 | 原則禁止(データ可視化は可) 11 | Methods セクション 11 |
| Science / AAAS | 認められない 12 | 許容(厳格な開示が必要) 12 | 原則禁止(許可制) 12 | Cover Letter, Ack, Methods 12 |
| Elsevier | 認められない 14 | 可読性向上の編集は自由 14 | 原則禁止(例外あり) 14 | 論文内の AI 宣言文 14 |
| Taylor & Francis | 認められない 17 | 人間による厳格な修正が前提 17 | データ図表の生成は禁止 17 | Methods または Ack 17 |
| Springer Nature | 認められない 10 | アイデア生成や編集は許容 10 | 原則禁止 10 | Intro または Ack 10 |
3.1 著者資格と責任の所在
すべての主要出版社において共通しているのは、ChatGPTなどのAIツールを「共著者」としてリストアップすることはできないという点です 10。著者資格には、研究内容に対する説明責任(Accountability)が伴いますが、AIはこの責任を負うことができないためです。したがって、AIを用いて生成された内容であっても、その正確性、独創性、誠実性に関する最終的な責任は人間の著者が負わなければなりません 10。
3.2 開示義務の厳格化
AIを利用した場合、その詳細を論文内で明示することが求められます。Science誌は特に厳格で、カバーレター、謝辞、および手法(Methods)セクションの3か所での開示を義務付けています 12。一方、Nature誌などは主に手法セクションでの記述を求めており、出版社によって要件が異なる点に注意が必要です 11。開示内容には、ツールの名称、バージョン、使用した目的、および影響を与えた範囲を含める必要があります 12。
3.3 図表・画像に関する制限
図表や画像におけるAI利用については、テキスト以上に厳しい制限が設けられています。多くの出版社が、AIによる画像の生成や改変を原則として禁止しています 10。これは、データの捏造や改ざんを防ぐため、またトレーニングデータの著作権の問題を回避するためです。ただし、既存のデータに基づくグラフの自動生成(データ可視化)や、概念的なイラストレーションについては、適切な開示を条件に認められる場合があります 11。
4. 大学・研究機関における運用とセキュリティ対策
大学などの教育研究機関も、研究者や学生が安全にAIを活用するための環境整備を進めています。
4.1 情報セキュリティとデータプライバシー
オックスフォード大学やハーバード大学のガイドラインでは、機密性の高い研究データや、未発表の原稿、個人情報などを、一般公開されているパブリックなAIツールに入力することを厳禁しています 18。入力されたデータがAIの学習に再利用され、意図せず外部に流出するリスクがあるためです。
この解決策として、多くの機関が「ChatGPT Edu」などのエンタープライズ版を導入しています。これらは、入力されたデータがモデルの学習に使われないことが契約上保証されており、研究データの機密性を維持しながらAIを利用することが可能です 18。
4.2 査読プロセスにおける制限
査読(ピアレビュー)は学術研究の根幹を成すプロセスですが、ここでのAI利用には特に慎重な姿勢が求められます。出版社や大学の多くは、査読者が投稿原稿をAIツールにアップロードすることを禁止しています。これは、査読には著者の機密情報の保持が不可欠であり、AIへの入力がその機密保持義務の違反にあたる可能性があるためです 10。
5. 文献検索とレビューを革新するAIツール群
論文執筆の初期段階である「文献検索」と「先行研究のレビュー」において、AIは驚異的な効率化をもたらします。
表2:学術特化型AIツールの機能比較
| ツール名 | 特化している機能 | 研究者のメリット | 弱点・注意点 |
| Elicit | データ抽出・論文合成 9 | 複数論文から手法や結果を一覧化 9 | 抽出データの人間による検証が必須 23 |
| Consensus | 科学的合意の分析 24 | 特定の問いに対するYes/Noの傾向を把握 25 | 索引化されていない最新論文は漏れる可能性 26 |
| scite.ai | 引用の文脈分析 9 | その論文が支持されているか反論されているか判別 9 | 引用数だけでなく、文脈の解釈は研究者が行う 9 |
| Semantic Scholar | 論文発見とグラフ可視化 9 | 関連論文の高速なスクリーニング 9 | 分析機能よりは検索機能に重点 9 |
| Perplexity | リアルタイム検索 9 | 最新の研究動向のクイックな把握 22 | 厳密な学術フィルターをかけないと一般記事も混じる 22 |
5.1 Elicit:系統的レビューの強力な助手
Elicitは、1.3億件以上の論文データベースを背景に、研究者の「問い」に対して関連する論文を提示し、その中からサンプルサイズ、研究手法、主要な知見などを自動的に抽出してテーブル形式で整理します 9。VDI/VDEによる検証では、データ抽出の正確性は99.4%に達したと報告されており、人間が行う場合に数日かかる作業を数分に短縮できる可能性があります 21。
5.2 Consensus:科学的エビデンスの可視化
Consensusは、2億件以上の査読済み論文を検索対象とし、特定の研究上の問いに対して「科学的な同意」がどの程度形成されているかを「Consensus Meter」によって可視化します 22。例えば、「睡眠不足は体重増加に関係するか?」という問いに対し、肯定的な論文と否定的な論文の割合を即座に提示します。
5.3 scite.ai:引用の質を評価する
論文の信頼性を測る際、単に「何回引用されたか」だけでなく「どのように引用されたか」が重要です。scite.aiは、ある論文を引用している他の論文が、その内容を「支持(Supporting)」しているのか、「単に言及(Mentioning)」しているのか、あるいは「反論(Contrasting)」しているのかをAIによって分類します 9。これにより、撤回された論文や、議論の余地がある研究を誤って引用するリスクを回避できます。
6. 研究プロセスにおける具体的なAI活用ワークフロー
AIを効果的に論文執筆に組み込むためには、各段階で適切な役割を割り当てることが重要です。
6.1 研究テーマの探索と仮説の策定
初期段階では、AIを「批判的な壁打ち相手」として活用します。自身の関心がある広範なトピックを入力し、それを具体的なリサーチクエスチョンに絞り込むための提案を求めます 27。例えば、「気候変動」という広いテーマから「東南アジアのメガシティにおける海面上昇が都市計画に与える影響」といった、具体的で調査可能なリサーチクエスチョンへと落とし込む作業をAIがサポートします 27。
6.2 執筆と編集:非ネイティブスピーカーの強力な支援
英語論文の執筆において、生成AIは文法の修正だけでなく、学術的なトーンへの変換や、論理的な一貫性のチェックに威力を発揮します。
- 言語改善: 稚拙な表現を、より洗練された学術的な語彙や構文に書き換えるよう指示します 5。
- 論理チェック: 文章の前提と結論が論理的に繋がっているか、説明が不足している箇所はないかをAIに指摘させます 31。
- 抄録(アブストラクト)の作成: 本文の主要な知見、手法、結論を要約し、文字数制限に合わせた抄録の草案を作成させます 30。
6.3 プログラミングとデータ分析の自動化
PythonやRを用いた統計解析や図表作成のコード生成において、AIは非常に高いパフォーマンスを示します 7。ただし、AIが生成したコードが正しい統計手法を選択しているか、あるいはデータの解釈に誤りがないかを検証するのは、あくまで研究者本人の責任です。AIに統計手法の判断を丸投げすることは、誤った結論を導くリスクを高めます 34。
7. 実践:プロンプトエンジニアリングの極意
AIから質の高い出力を得るための指示出しの技術を「プロンプトエンジニアリング」と呼びます。
7.1 役割の定義(Persona Setting)
AIに対し、「あなたは一流の学術誌のエディターです」や「専門の研究手法論のコンサルタントです」といった具体的な役割(ペルソナ)を与えることで、回答の質が劇的に向上します 27。
7.2 構成要素の明確化
優れたプロンプトには、以下の5つの要素が含まれます 27。
- 役割(Role): 誰として振る舞うか。
- タスク(Task): 何を成し遂げるか。
- 聴衆(Audience): 誰に向けた文章か。
- 形式(Format): どのような出力形式(箇条書き、表、200語の文章など)か。
- 制約(Constraints): 何をしてはいけないか(専門用語の使用、特定のセクションのみ言及など)。
表3:論文執筆に役立つプロンプト例
| 目的 | プロンプトの例 | 期待される効果 |
| テーマの絞り込み | 「[トピック]の分野で、まだ十分に探索されていないリサーチギャップを5つ提案してください。」 27 | 独創的な研究テーマの発見 |
| 論理構成の強化 | 「以下の文章の論理的な飛躍や矛盾を指摘し、より説得力を高めるための修正案を提示してください。」 31 | 論文の質的向上 |
| 検索式の作成 | 「[トピック]に関する文献検索のために、PubMedで使える最適な検索式を作成してください。」 27 | 網羅的な文献収集 |
| 学術的トーンの調整 | 「以下の文章を、Nature誌のトーンに合わせ、より簡潔でプロフェッショナルな表現に書き換えてください。」 30 | 受理率の向上 |
| 批判的レビュー | 「私の仮説[仮説内容]に対し、考えられる反論と、それを補強するために必要なエビデンスを提示してください。」 36 | 議論の堅牢化 |
8. 失敗事例とリスク管理:ハルシネーションの脅威
生成AIを盲信することの危険性は、実際の失敗事例から学ぶことができます。
8.1 「Frontiersのラット」事件:画像生成の落とし穴
2024年2月、Frontiers in Cell and Developmental Biology誌に掲載された論文が、世界中で大きな波紋を呼びました。その論文には、AIによって生成された、あり得ないほど巨大な生殖器を持つラットの解剖図が含まれていました。図中のラベルは「testtomcels」や「iollotte sserotgomar」といった無意味な文字列の羅列であり、学術的に全く価値のないものでした 37。
この事例が示唆するのは、AIが提供する情報の「もっともらしさ(Confidence)」が、必ずしも「正確さ」を意味しないという点です。AIは、視覚的に美しい図を生成することには長けていますが、そこに科学的な意味や正確性が伴っているかを判断する能力はありません。この論文は掲載後数日で撤回されましたが、査読プロセスすらAIに依存することの危険性を世に知らしめることとなりました 37。
8.2 偽の引用文献と法的・倫理的制裁
AIが実在しない論文を「でっち上げる」現象は、論文執筆において最も注意すべきリスクの一つです。AIのアルゴリズムは、もっともらしい著者名やタイトルを組み合わせる傾向があり、一見すると実在する論文のように見えてしまいます。これらを検証せずに自身の論文に引用した場合、研究不正とみなされるだけでなく、学術界における信頼を失墜させることになります 33。
実際、法曹界ではAIが生成した架空の判例を引用した書面を提出した弁護士が裁判官から制裁を受ける事例が多発しています 43。学術論文においても、 undisclosed AI use(未開示のAI利用)は、データ捏造や剽窃と同レベルの「科学的不正行為」として扱われるケースが増えています 12。
8.3 モデル崩壊(Model Collapse)と情報の質の劣化
AI研究者が警鐘を鳴らしているのが「モデル崩壊」という現象です。AIが生成した誤った情報がインターネット上に溢れ、それを次のAIが学習データとして取り込むことで、AI全体の出力の質が徐々に劣化し、最終的には無意味な内容しか出力できなくなるというリスクです 42。これは、研究者がAIの生成物をそのまま公開することの長期的かつ社会的な悪影響を示唆しています。
9. 成功事例:教育と研究現場での活用
リスクがある一方で、AIを適切に制御し、教育や研究の成果を上げた事例も増えています。
9.1 アリゾナ州立大学(ASU)の挑戦
ASUは、2024年に「AIイノベーション・チャレンジ」を開始し、200件以上のプロジェクトを支援しています 46。ここでは、学生がAIを「学習の補助者」として使い、複雑な概念の理解を深めるためのパーソナライズされたフィードバックを受ける仕組みを構築しています。これにより、学習者のモチベーション向上と成績改善が確認されています 46。
9.2 ジョージア工科大学の「Jill Watson」
ジョージア工科大学では、IBMのWatsonをベースにしたAIティーチング・アシスタント「Jill Watson」を導入しました。彼女は学生からの数千件のルーチンな質問に対し、97%の正確さで回答し、人間のTA(ティーチング・アシスタント)がより複雑で創造的な教育タスクに専念できる環境を作り出しました 46。このモデルは、研究室における定型業務の自動化にも応用できる可能性を示しています。
10. 未来展望:AIと共生する研究者の資質
生成AIは、研究のスピードを劇的に加速させますが、研究の「質」を最終的に担保するのは依然として人間の役割です。
10.1 批判的思考力の重要性
AIを使いこなす研究者に求められるのは、AIが出力した情報の「真偽」を見極める力、すなわち批判的思考(Critical Thinking)です 5。AIの提案を単に受け入れるのではなく、常に元のソースを確認し、論理的な妥当性を検証する姿勢がこれまで以上に重要になります。
10.2 AIリテラシーと倫理性
研究者は、AIツールの特性、限界、および倫理的側面を深く理解した上で、自身の研究プロセスにおけるAIの関与の度合いを自律的に決定しなければなりません 18。これは、AIを単なる「ツール」として使うだけでなく、自身の知的能力を「拡張」するためのパートナーとして位置づけることを意味します。
結論
論文執筆における生成AIの活用は、もはや避けることのできない潮流です。海外の文献や最新のガイドラインが示しているのは、「AIを禁止する」のではなく、「AIを透明性を持って、責任を持って活用する」という方向性です。
研究者は、AIを言語の壁を取り払い、ルーチンワークを効率化するための強力な武器として使いこなしつつ、その出力に対しては常に懐疑的であり、自らの言葉とデータで裏付けを取るという基本を忘れてはなりません。AIとの健全な共生関係を築くことこそが、これからの学術研究において、より高い価値を創造するための鍵となるでしょう。
本報告書で詳述したツールやワークフロー、および注意点を参考に、各研究者が自身の研究フィールドに最適なAI活用術を確立されることを期待します。学術の誠実性を守りつつ、技術の恩恵を最大限に享受する。このバランスを保つことこそが、次世代の研究者に求められる真の資質です。
引用文献
- 「生成AI」が検索キーワードの1位に。ビズリーチ「2024レジュメ検索トレンド」を発表 – AIsmiley, 4月 14, 2026にアクセス、 https://aismiley.co.jp/ai_news/bizreach-searchtrend2024/
- AIは研究者の“時間”を取り戻せるか―変わりゆく「研究と執筆」の最前線― – Editage Blog, 4月 14, 2026にアクセス、 https://www.editage.jp/blog/can-ai-reclaim-researchers-time/
- 【AI検索動向調査】生成AIで「ぐぐる」頻度は減った?4割が回答した変化と – 株式会社シード, 4月 14, 2026にアクセス、 https://www.seedinc.jp/column/seo/report-ai-search-trends/
- AI分野の主要カンファレンスAAAI 2025の調査と分析 – ソフトバンク, 4月 14, 2026にアクセス、 https://www.softbank.jp/biz/blog/cloud-technology/articles/202504/aaai2025/
- Using AI Tools Responsibly in Academic Writing: What I’ve Learned (and What I Still Struggle With) | by Elisabeth Wagner | Medium, 4月 14, 2026にアクセス、 https://medium.com/@wagnerelisabeth2910/using-ai-tools-responsibly-in-academic-writing-what-ive-learned-and-what-i-still-struggle-with-136d02922b89
- How Does Generative AI Work | Microsoft AI, 4月 14, 2026にアクセス、 https://www.microsoft.com/en-us/ai/ai-101/how-does-generative-ai-work
- What is Generative AI? | IBM, 4月 14, 2026にアクセス、 https://www.ibm.com/think/topics/generative-ai
- How Generative AI Works and How to Use LLMs Wisely – Halo Lab, 4月 14, 2026にアクセス、 https://www.halo-lab.com/blog/llms-how-they-work-and-how-to-use-them
- Best AI tools for medical research 2026: Elicit, Consensus, Semantic Scholar, Perplexity, and scite | iatroX Clinical AI Insights, 4月 14, 2026にアクセス、 https://www.iatrox.com/blog/best-ai-tools-medical-research-2026-elicit-consensus-semantic-scholar-perplexity
- AI for our communities | Springer Nature Group | Springer Nature, 4月 14, 2026にアクセス、 https://group.springernature.com/gp/group/ai/ai-guidance-for-our-researchers-and-communities
- AI-Generated Figures in Academic Publishing: Policies, Tools, and Practical Guidelines, 4月 14, 2026にアクセス、 https://arxiv.org/html/2603.16159v1
- Science AI Policy: What’s Allowed and Required (2026) – Manusights, 4月 14, 2026にアクセス、 https://manusights.com/blog/science-ai-policy
- Science Advances AI Policy: Author Guide (2026) – Manusights, 4月 14, 2026にアクセス、 https://manusights.com/blog/science-advances-ai-policy
- Generative AI policies for journals – Elsevier, 4月 14, 2026にアクセス、 https://www.elsevier.com/about/policies-and-standards/generative-ai-policies-for-journals
- Ethical guidelines for the use of generative artificial intelligence and artificial intelligence-assisted tools in scholarly publishing: a thematic analysis – Science Editing, 4月 14, 2026にアクセス、 https://www.escienceediting.org/journal/view.php?number=358
- How to Report the Use of Artificial Intelligence in Scientific Articles: A Scoping Review and Taxonomy of Editorial Policies, 4月 14, 2026にアクセス、 https://revistacaribenadepsicologia.com/index.php/rcp/article/download/17451/11997
- AI Policy – Taylor & Francis, 4月 14, 2026にアクセス、 https://taylorandfrancis.com/our-policies/ai-policy/
- Policy for using Generative AI in Research: guidelines for …, 4月 14, 2026にアクセス、 https://www.ox.ac.uk/research/support-researchers/research-practice/policy-generative-ai-research
- Generative AI Guidelines | Harvard University Information Technology, 4月 14, 2026にアクセス、 https://www.huit.harvard.edu/ai/guidelines
- Governing Generative AI at Stanford: Recommendations for the use of Artificial Intelligence by Undergraduates and Faculty, 4月 14, 2026にアクセス、 https://ojs.stanford.edu/ojs/index.php/grace/article/download/4526/1918/13266
- Elicit: AI for scientific research, 4月 14, 2026にアクセス、 https://elicit.com/
- Best AI Tools for Deep Research in 2026: Honest Comparison, 4月 14, 2026にアクセス、 https://deepresearcher.site/blog/best-ai-tools-deep-research-2026
- 7 Best Literature Review AI Tools in 2026 – Paperguide, 4月 14, 2026にアクセス、 https://paperguide.ai/blog/ai-tools-for-literature-review/
- 6 Best AI Tools for Literature Review in 2026 – Paperpal, 4月 14, 2026にアクセス、 https://paperpal.com/blog/academic-writing-guides/6-best-ai-tools-for-literature-review-in-2026
- Trust in AI: Evaluating Scite, Elicit, Consensus, and Scopus AI for Generating Literature Reviews | HKUST Library, 4月 14, 2026にアクセス、 https://library.hkust.edu.hk/news-events/news/trust-ai-evaluating-scite-elicit-consensus-and-scopus-ai-generating-literature
- 10 Best AI Tools for Research in 2026 – Cybernews, 4月 14, 2026にアクセス、 https://cybernews.com/ai-tools/best-ai-for-research/
- 85+ ChatGPT Prompts for Academic Writing That Actually Work – Medium, 4月 14, 2026にアクセス、 https://medium.com/@0xmega/85-chatgpt-prompts-for-academic-writing-that-actually-work-d0bd25ec3f93
- 5 ChatGPT Prompts for Academic Writing : r/ChatGPTPromptGenius – Reddit, 4月 14, 2026にアクセス、 https://www.reddit.com/r/ChatGPTPromptGenius/comments/1br5r1v/5_chatgpt_prompts_for_academic_writing/
- Ethical Use Cases of AI in Academic Writing: A 2025 Guide for Students and Researchers, 4月 14, 2026にアクセス、 https://www.thesify.ai/blog/ethical-use-cases-of-ai-in-academic-writing-a-2025-guide-for-students-and-researchers
- The Best AI Prompts for Academic Research & Writing – Magic Prompt, 4月 14, 2026にアクセス、 https://mymagicprompt.com/ai-prompts-academic-research/
- How to Proofread Text with ChatGPT, Plus Prompt Examples and Benefits!, 4月 14, 2026にアクセス、 https://www.science.co.jp/en/nmt/blog/41478/
- AI-supported proofreading and mentorship for academic writers – Thomas Mejtoft, 4月 14, 2026にアクセス、 https://www.mejtoft.se/thomas/education/academic-writing/ai-proofreader-prompt/
- AI in Academic Writing – Elicit: AI for Scientific Research, 4月 14, 2026にアクセス、 https://elicit.com/review/832d1e83-0739-42d3-89a8-5fb1d71a8b8f
- How frowned upon is generative Ai to assist in writing an academic paper? – Reddit, 4月 14, 2026にアクセス、 https://www.reddit.com/r/academia/comments/1p1rhd9/how_frowned_upon_is_generative_ai_to_assist_in/
- 25 Prompt Engineering Examples for ChatGPT & AI Tools | ESI Blog, 4月 14, 2026にアクセス、 https://esi.in/blog/25-prompt-engineering-examples-chatgpt-ai-tools
- 5 Claude Prompts That Completely Transformed My Research Process – Reddit, 4月 14, 2026にアクセス、 https://www.reddit.com/r/ChatGPTPromptGenius/comments/1p70y5y/5_claude_prompts_that_completely_transformed_my/
- A ridiculous AI-generated rat penis made it into a peer-reviewed journal | Popular Science, 4月 14, 2026にアクセス、 https://www.popsci.com/technology/ai-rat-journal/
- The rat with the big balls and the enormous penis – how Frontiers published a paper with botched AI-generated images – Science Integrity Digest, 4月 14, 2026にアクセス、 https://scienceintegritydigest.com/2024/02/15/the-rat-with-the-big-balls-and-enormous-penis-how-frontiers-published-a-paper-with-botched-ai-generated-images/
- On Rats with Oversized Genitalia and Other Submissions – PMC – NIH, 4月 14, 2026にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC10985060/
- Science Journal That Published ‘Rat Dck’ AI Gibberish Speaks Out – Gizmodo, 4月 14, 2026にアクセス、 https://gizmodo.com/science-journal-rat-dck-ai-generated-images-retracted-1851297606
- Science journal retracts peer-reviewed article containing AI generated ‘nonsensical’ images, 4月 14, 2026にアクセス、 https://venturebeat.com/ai/science-journal-retracts-peer-reviewed-article-containing-ai-generated-nonsensical-images
- New sources of inaccuracy? A conceptual framework for studying AI hallucinations – HKS Misinformation Review, 4月 14, 2026にアクセス、 https://misinforeview.hks.harvard.edu/wp-content/uploads/2025/08/shao_new_inaccuracy_sources_20250827.pdf
- 1 Paste in Haste: The Fallout of AI Hallucinations in Court Filings and the New ARDC’s Guide to Implementing AI Introduction, 4月 14, 2026にアクセス、 https://iardc.org/Files/TheFalloutOfAIHallucinationsInCourtFilings.pdf
- AI Hallucination Cases Database – Damien Charlotin, 4月 14, 2026にアクセス、 https://www.damiencharlotin.com/hallucinations/
- Analysis of Retracted Publications on Artificial Intelligence: Trends, Ethical Concerns, and Scientific Integrity – PMC, 4月 14, 2026にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC12624210/
- Top AI Case Studies in Education 2025 – RAISE Summit, 4月 14, 2026にアクセス、 https://www.raisesummit.com/post/ai-case-studies-education
- New Playbook Shares Case Studies on How Colleges Can Embed AI Into Curriculum and Instruction, 4月 14, 2026にアクセス、 https://completecollege.org/news/new-playbook-shares-case-studies-on-how-colleges-can-embed-ai-into-curriculum-and-instruction/
- How Effective is AI in Education? 10 Case Studies and Examples – Axon Park, 4月 14, 2026にアクセス、 https://axonpark.com/how-effective-is-ai-in-education-10-case-studies-and-examples/
- Ten simple rules for optimal and careful use of generative AI in science – PMC, 4月 14, 2026にアクセス、 https://pmc.ncbi.nlm.nih.gov/articles/PMC12561928/
- AI Tools and Student Creativity – Elicit: AI for Scientific Research, 4月 14, 2026にアクセス、 https://elicit.com/review/4a75e61a-ccd2-4ded-ad5e-d66b7b2fd5ae
- Guidance on safe and responsible use of Gen AI tools | University of Oxford, 4月 14, 2026にアクセス、 https://www.ox.ac.uk/students/life/it/guidance-safe-and-responsible-use-gen-ai-tools
- Report outlines Stanford principles for use of AI, 4月 14, 2026にアクセス、 https://news.stanford.edu/stories/2025/01/report-outlines-stanford-principles-for-use-of-ai

