ГАЛЮЦИНАЦІЇ ШТУЧНОГО ІНТЕЛЕКТУ У СФЕРІ ОСВІТИ ТА НАУКИ: ПРИЧИНИ, НАСЛІДКИ ТА МЕТОДИ МІНІМІЗАЦІЇ

Автор(и)

  • Євгеній Махно Національний університет оборони України, Україна https://orcid.org/0000-0001-9743-1082
  • Євген Руденко Національний університет оборони України, Україна https://orcid.org/0000-0003-3093-8780
  • Євген Судніков Національний університет оборони України, Україна https://orcid.org/0000-0003-2484-4972
  • Максим Тищенко Національний університет оборони України, Україна https://orcid.org/0000-0002-9415-4427

DOI:

https://doi.org/10.33099/2786-7714-2025-1-8-111-126

Ключові слова:

галюцинації, штучний інтелект, достовірність даних, освіта, критичне мислення, великі мовні моделі, оптимізація, генеративні моделі, наука

Анотація

У статті проведено комплексне дослідження феномену галюцинацій штучного інтелекту (ШІ) у контексті його застосування в освіті та науковій діяльності. Актуальність дослідження обумовлена стрімким розвитком великих мовних моделей (LLM), таких як ChatGPT, Google PALM 2 та інших, які, з одного боку, революціонізують процеси обробки інформації, а з іншого – породжують серйозні проблеми, пов’язані з генерацією неправдивої, спотвореної або вигаданої інформації. Метою роботи є виявлення основних причин виникнення галюцинацій ШІ, аналіз їх впливу на освітній та науковий процес, а також розробка ефективних методів мінімізації цього явища.

Для досягнення поставленої мети використано низку наукових методів, включаючи аналіз сучасних публікацій з теми, порівняльну оцінку ефективності різних LLM-моделей, а також емпіричне дослідження конкретних випадків галюцинацій у генеративних системах. Результати дослідження показали, що до основних причин галюцинацій належать: обмеженість та упередженість навчальних даних, складність архітектури моделей, відсутність контекстуального розуміння та вразливість до ворожих атак. Встановлено, що частота галюцинацій у сучасних моделях коливається від 3% (GPT-4 Turbo) до 27% (Google PALM 2), що свідчить про значну мінливість якості роботи різних систем.

У статті запропоновано низку рішень для зменшення галюцинацій, серед яких: вдосконалення алгоритмів навчання (наприклад, використання методу RAG – Retrieval Augmented Generation), адаптація моделей до специфіки доменних знань, покращення якості та різноманітності навчальних даних, а також впровадження механізмів автоматичної перевірки згенерованої інформації. Окрему увагу приділено практичним рекомендаціям для користувачів, зокрема: чіткому формулюванню запитів, перевірці інформації за допомогою надійних джерел, використанню моделей з низьким рівнем галюцинацій (наприклад, GPT-4) та застосуванню спеціалізованих інструментів верифікації (veryLLM, Groundedness Detection).

Результати дослідження мають важливе значення для широкого кола фахівців, включаючи дослідників у сфері ШІ, розробників мовних моделей, викладачів, студентів та політиків, які займаються регулюванням ШІ-технологій. Висновки статті підкреслюють, що, незважаючи на серйозність проблеми галюцинацій, їх можна ефективно мінімізувати за рахунок комбінації технічних вдосконалень, покращення якості даних та розвитку критичного мислення користувачів.

У перспективі подальші дослідження мають бути спрямовані на розробку більш надійних і прозорих алгоритмів, створення стандартів оцінки якості генеративних моделей та інтеграцію механізмів автоматичної верифікації фактів у реальному часі. Особливу увагу варто приділити дослідженню галюцинацій у неангломовних контекстах, зокрема українською мовою, що залишається недостатньо вивченою областю.

Посилання

Штучний інтелект в освіті: можливості, виклики та перші кроки великої адаптації. Українська правда. Життя. 2023. URL: https://life.pravda.com.ua/columns/2023/08/04/255650/

Що таке галюцинація штучного інтелекту і як її помітити? Chat GPT Academy. URL: https://www.chatgptacademy.online/instrukcziyi-chatgpt/shho-take-galyuczynacziya-shtuchnogo-intelektu-i-yak-yiyi-pomityty/

Нове рішення Vianai з відкритим вихідним кодом вирішує проблему галюцинацій ШІ. Unite.AI. URL: https://www.unite.ai/uk/vianais-new-open-source-solution-tackles-ais-hallucination-problem/

Що таке галюцинація ШІ? Mekan0. URL: htt4s://www.mekan0.com/uk/what-is-an-artificial-intelligence-hallucination/

Галюцинації ШІ: чому чатботи зі штучним інтелектом брешуть та фабрикують факти. УНІАН. URL: https://ua.news/ua/technologies/galyutsynatsyy-yy-pochemu-chatboty-s-yskusstvennym-yntellektom-vrut-y-fabrykuyut-fakty/

OpenAI шукає новий спосіб боротьби з «галюцинаціями» ШІ. Detector Media. URL: https://ms.detector.media/it-kompanii/post/32094/2023-06-01-openai-shukaie-novyy-sposib-borotby-z-galyutsynatsiyamy-shi/

ChatGTP і галюцинації Generative AI. Medium. URL: https://medium.com/chatgpt-learning/chatgtp-і-галюцинації-generative-ai-cd208953fe6b

Як працює штучний інтелект і чому він генерує фейки: інтерв’ю із очільником комітету з розвитку ШІ в Україні Олексієм Молчановським. УНІАН. URL: https://ua.news/ua/technologies/kak-rabotaet-yskusstvennyj-yntellekt-y-pochemu-on-generyruet-fejky/

S. Bubeck et al., “Sparks of artificial general intelligence: Early experiments with GPT-4”. Microsoft Research, 2023. URL: https://arxiv.org/abs/2303.12712

Androshchuk, A., Maluga, O. Використання штучного інтелекту у вищій освіті: стан і тенденції. International Science Journal of Education & Linguistics, 3(2). 2024. С. 27-35.

Кобилянська, О., Єсіна, М., Горбенко, Ю. Порівняльний аналіз штучного інтелекту на основі існуючих чат-ботів. Комп’ютерні науки та кібербезпека, (2). 2024. С. 26-32.

Пошукові галюцинації. Що не так із пошуковиками, заснованими на штучному інтелекті. Detector Media. URL: https://ms.detector.media/it-kompanii/post/31275/2023-02-28-poshukovi-galyutsynatsii-shcho-ne-tak-iz-poshukovykamy-zasnovanymy-na-shtuchnomu-intelekti/

Z. Ji et al., “Survey of hallucination in natural language generation,” ACM Comput. Surv., vol. 55, no. 12, pp. 1–38, Mar. 2023, doi: 10.1145/3571730.

OpenAI, “GPT-4 technical report,” arXiv:2303.08774, 2023. URL: https://arxiv.org/abs/2303.08774

Google Research, “PaLM 2 technical report,” Google AI Blog, May 2023. URL: https://ai.google/static/documents/palm2techreport.pdf

Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., ... & Amodei, D. The malicious use of artificial intelligence: Forecasting, prevention, and mitigation. 2018. URL: https://arxiv.org/pdf/1802.07228

Stephanie Lin, Jacob Hilton, and Owain Evans. 2022. TruthfulQA: Measuring How Models Mimic Human Falsehoods. In Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 3214–3252, Dublin, Ireland. Association for Computational Linguistics.

Cambridge Dictionary. (2023, November). Word of the Year 2023: Hallucinate. Cambridge University Press. URL: https://dictionary.cambridge.org/us/editorial/word-of-the-year/2023

Що таке ШІ-галюцинація та як її виявити звичайному користувачеві. PSM7. URL: https://psm7.com/uk/review/chto-takoe-ii-gallyucinaciya-i-kak-ee-obnaruzhit.html

Tripodi, F. (2023). Do your own research: affordance activation and disinformation spread. Information, Communication & Society. https://doi.org/10.1080/1369118X.2023.2245869

Knight, W. (2023, October 5). Chatbot hallucinations are poisoning web search. WIRED. URL: Chatbot Hallucinations Are Poisoning Web Search | WIRED

David, E. (2024, March 28). Microsoft's new safety system can catch hallucinations in its customers’ AI apps. The Verge. URL: https://www.theverge.com/2024/3/28/24114664/microsoft-safety-ai-prompt-injections-hallucinations-azure

Що таке заземлення та галюцинації в ШІ? Undetectable AI. URL: https://undetectable.ai/blog/uk/заземлення-та-галюцинації-в-ай/

##submission.downloads##

Опубліковано

2025-06-13

Як цитувати

Махно, Є., Руденко, Є., Судніков, Є., & Тищенко, М. (2025). ГАЛЮЦИНАЦІЇ ШТУЧНОГО ІНТЕЛЕКТУ У СФЕРІ ОСВІТИ ТА НАУКИ: ПРИЧИНИ, НАСЛІДКИ ТА МЕТОДИ МІНІМІЗАЦІЇ. Повітряна міць України, 1(8), 111–126. https://doi.org/10.33099/2786-7714-2025-1-8-111-126

Номер

Розділ

Інноваційні процеси у галузях авіації, автомобілебудування, РЕО, РЕТ, засобів зв’язку та АСУ, а також ІТ