Сегодня мы поговорим о последних исследованиях в области искусственного интеллекта, которые покажут вам, что даже у самых продвинутых моделей могут быть свои галлюцинации. Новейшие версии ChatGPT далеки от идеала, и мы расскажем почему.
Другие тесты показали, что модель o3-mini со сниженными способностями демонстрирует более надежные результаты, чем ее продвинутая версия o4-mini, которая склонна к галлюцинациям в существенной части запросов. Интересно, что предыдущие модели проявляли себя более устойчиво в сравнении с современными.
Исторически, первые модели искусственного интеллекта имели ограниченные возможности и подверженность ошибкам, но они чаще придерживались фактов, чем их современные эквиваленты.
Модель o4-mini оказалась наиболее склонной к выдумкам, отвечая на вопросы абсолютной уверенностью, но не всегда точно. Это может создать определенные проблемы в будущем при использовании искусственного интеллекта в реальных сферах.
Однако разработчики не сдаются и ищут пути улучшения работы нейросетей. Предоставление опции пользования веб-поиском для ИИ может стать одним из способов борьбы с галлюцинациями и повышения точности ответов. Такой подход уже показал свою эффективность в модели o4, что дает надежду на перспективу в этой области.
Последние данные говорят о важности не только развития новых технологий, но и поиске способов их коррекции и совершенствования, чтобы искусственный интеллект мог быть более точным и полезным в повседневной жизни.