OpenAI нашла способ сделать модели ИИ более логичными и избежать галлюцинаций

Иллюстрация ChatGPT

Пользователь ba011d64_201/Getty Images

Хотя модели ИИ продвинуты и могут делать экстраординарные вещи, они все же способны совершать ошибки и давать неверные ответы — известные как галлюцинации. 

Все основные чат-боты с искусственным интеллектом, включая ChatGPT и Google Bard, подвержены этим галлюцинациям. И OpenAI, и Google даже раскрывают информацию о том, что их чат-боты могут выдавать неверную информацию. 

А также: ChatGPT против Bing Chat против Google Bard? Какой чат-бот с искусственным интеллектом лучший?

«ChatGPT иногда пишет правдоподобно звучащие, но неправильные или бессмысленные ответы», — говорит OpenAI в Сообщение в блоге ChatGPT. 

Создание ложной информации привело к широкой озабоченности по поводу распространения дезинформации и ее потенциальных негативных последствий.

В новый исследовательский пост, OpenAI сообщает, что она, возможно, нашла способ заставить модели ИИ действовать более логично и избежать галлюцинаций. 

OpenAI обучил модель, способную решать сложные математические задачи, с помощью «контроля процесса» — метода, обеспечивающего обратную связь для каждого отдельного шага, в отличие от «контроля результата», который обеспечивает обратную связь по конечному результату. 

А также: Я протестировал множество инструментов ИИ для работы. Вот мои 5 любимых на данный момент

В исследовательской работе OpenAI протестировала оба метода с использованием набора данных MATH и обнаружила, что метод контроля процесса привел к «значительно лучшей производительности».

Результаты ChatGPT

Скриншот Сабрины Ортис/ZDNET

«Наблюдение за процессом также с большей вероятностью приведет к интерпретируемым рассуждениям, поскольку побуждает модель следовать одобренному человеком процессу», — говорится в исследовательской статье OpenAI. 

А также: Как ChatGPT может переписать и улучшить ваш существующий код

OpenAI отмечает, что вне рамок математических задач неизвестно, насколько широко эти результаты будут применяться, но по-прежнему важно исследовать их в других областях.  



Источник