Для входа на форум нажмите здесь
Новые комментарии
ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ
Автор темы: Wadimus
Дата создания: 26.01.2026 14:50
Аватар для Wadimus
Мастер
Регистрация:
02.08.2011
GoHa.Ru - 10 лет Медаль "500 лайков"
ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ



В ходе тестирования новой модели GPT‑5.2, проведённого журналистами The Guardian, выявилась тревожная тенденция. Чат‑бот OpenAI при ответе на сложные и узкоспециализированные запросы всё чаще опирается на данные из Grokipedia.

Grokipedia — энциклопедии, созданной искусственным интеллектом компании xAI Илона Маска. Этот источник уже неоднократно подвергался критике за потенциальную предвзятость и недостоверность информации.

Тесты показали, что ChatGPT активно использует Grokipedia при освещении чувствительных тем. В частности, это касается вопросов, связанных с политическими структурами Ирана, а также биографических справок об историках, изучавших тему Холокоста. В ряде случаев чат‑бот воспроизводил сведения, которые ранее были официально опровергнуты экспертами.

Главная особенность Grokipedia заключается в полном отсутствии человеческого участия в создании и редактировании контента. Вся информация генерируется и корректируется исключительно нейросетью Grok. Это вызывает серьёзную обеспокоенность у исследователей проблем дезинформации. По их мнению, подобные источники особенно уязвимы для манипуляций и могут стать каналами распространения непроверенных данных.

Представитель OpenAI, комментируя ситуацию для The Guardian, пояснил, что веб‑поиск модели предполагает работу с широким спектром общедоступных источников. Компания утверждает, что применяет специальные фильтры безопасности для минимизации рисков. Однако эксперты указывают на фундаментальную проблему: однажды попав в языковую модель, ложная информация способна сохраняться в её ответах даже после того, как первоисточник будет удалён из сети. Это создаёт долгосрочные угрозы для достоверности сведений, которые ИИ‑системы предоставляют миллионам пользователей.

Ситуация с интеграцией Grokipedia в ответы ChatGPT обнажает серьёзные вопросы о принципах отбора источников для обучения нейросетей. Особенно остро эта проблема встаёт при работе с чувствительными историческими и политическими темами, где цена ошибки особенно высока. Возникает необходимость в разработке более строгих механизмов проверки контента и чёткой системы ответственности разработчиков за распространение потенциально недостоверной информации через ИИ‑платформы.

На фоне растущего доверия пользователей к чат‑ботам как к надёжным источникам знаний, обнаруженные факты требуют пересмотра подходов к формированию обучающих массивов данных и внедрению систем контроля качества генерируемого контента.



Аватар для Согласен
Знаток
Регистрация:
09.03.2013
GoHa.Ru II Степени
Re: ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ
Не ошибается тот кто не работает
Аватар для Life
Знаток
Регистрация:
23.10.2023
Re: ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ
Об этой "тревожной тенденции" уже минимум как несколько лет талдычат на всех профильных каналах, в частности бьют тревогу о мультипликации правдоподобного бреда когда ИИ "учится" на (своих же) высерах. И этот бред сейчас массово заливается в статьи, на вики и т.д.
Аватар для Matravant
Мастер
Регистрация:
28.03.2008
GoHa.Ru - 10 лет Медаль "500 лайков"
Re: ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ
Так для этого всё и создаётся. Или вы думали, ИИ - это чтобы вам жизнь улучшить?
1 пользователь оценил это сообщение: Показать
Аватар для Klaxons
Читатель
Регистрация:
27.01.2026
Re: ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ
Буквально ИИнцест получается :D
Аватар для Кейн
Маньяк
Регистрация:
09.11.2013
GoHa.Ru III Степени 20 лет вместе!
Награжден за: 20 лет вместе!
Re: ChatGPT начал использовать в ответах непроверенную информацию из энциклопедии созданной другим ИИ
Последние версии, просто гавно какое-то

Ваши права в разделе