Ирония настигла мир ИИ. Стартап GPTZero, занимающийся обнаружением ИИ, обнаружил галлюцинированные цитаты в статьях, представленных на NeurIPS, ведущей конференции по ИИ. Компания просканировала 4841 принятую статью с мероприятия, прошедшего в прошлом месяце в Сан-Диего. Они обнаружили 100 поддельных цитат в 51 статье.
NeurIPS – это авторитетная площадка для исследований в области ИИ. Это открытие поднимает вопросы об использовании больших языковых моделей (LLM) в академическом письме. Хотя 100 галлюцинированных цитат из десятков тысяч статистически незначительны, это подчеркивает потенциальную проблему. Неточная цитата не делает исследование недействительным, но подрывает академическую строгость.
NeurIPS признала проблему. Они сообщили Fortune, что даже при наличии неверных ссылок содержание статьи не обязательно становится недействительным. Конференция гордится своими высокими стандартами. Инцидент вызывает дебаты о роли ИИ в исследованиях и необходимости тщательной проверки фактов.
LLM обучаются на огромных наборах данных. Иногда они могут генерировать правдоподобную, но ложную информацию, известную как «галлюцинации». Этот инцидент подчеркивает важность контроля со стороны человека при использовании инструментов ИИ. Сообщество ИИ, вероятно, обсудит эти результаты и изучит способы предотвращения подобных случаев в будущем. Ожидаются дальнейшие исследования и обновленные руководства для исследований с использованием ИИ.
Discussion
Join the conversation
Be the first to comment