Хотя модели ИИ продвинуты и могут делать экстраординарные вещи, они все же способны совершать ошибки и давать неверные ответы — известные как галлюцинации.
Все основные чат-боты с искусственным интеллектом, включая ChatGPT и Google Bard, подвержены этим галлюцинациям. И OpenAI, и Google даже раскрывают информацию о том, что их чат-боты могут выдавать неверную информацию.
А также: ChatGPT против Bing Chat против Google Bard? Какой чат-бот с искусственным интеллектом лучший?
«ChatGPT иногда пишет правдоподобно звучащие, но неправильные или бессмысленные ответы», — говорит OpenAI в Сообщение в блоге ChatGPT.
Создание ложной информации привело к широкой озабоченности по поводу распространения дезинформации и ее потенциальных негативных последствий.
В новый исследовательский пост, OpenAI сообщает, что она, возможно, нашла способ заставить модели ИИ действовать более логично и избежать галлюцинаций.
OpenAI обучил модель, способную решать сложные математические задачи, с помощью «контроля процесса» — метода, обеспечивающего обратную связь для каждого отдельного шага, в отличие от «контроля результата», который обеспечивает обратную связь по конечному результату.
А также: Я протестировал множество инструментов ИИ для работы. Вот мои 5 любимых на данный момент
В исследовательской работе OpenAI протестировала оба метода с использованием набора данных MATH и обнаружила, что метод контроля процесса привел к «значительно лучшей производительности».
«Наблюдение за процессом также с большей вероятностью приведет к интерпретируемым рассуждениям, поскольку побуждает модель следовать одобренному человеком процессу», — говорится в исследовательской статье OpenAI.
А также: Как ChatGPT может переписать и улучшить ваш существующий код
OpenAI отмечает, что вне рамок математических задач неизвестно, насколько широко эти результаты будут применяться, но по-прежнему важно исследовать их в других областях.