Сотрудники компаний OpenAI, DeepMind, Meta и Anthropic выразили обеспокоенность возможными рисками, связанными с тем, что искусственный интеллект может утратить управляемость в процессе цепочек рассуждений, передает Tengrinews.kz со ссылкой на The Economic Times.
По итогам работы исследователей ИИ Томека Корбака и Микиты Балесни, поддержанной пионером ИИ Джеффри Хинтоном, выяснилось, что ИИ может начать скрывать часть своего мышления и мыслить способами и языком, которые человек не в силах будет понять. Они отмечают, что вскоре ИИ сможет начать думать быстрее людей и обходить их. Это означает, что способность ИИ манипулировать, обманывать или выходить из подчинения может возрасти - и всё это без ведома операторов.
Даже при частичной видимости цепочек рассуждений ИИ может научиться скрывать злонамеренные действия, сохраняя видимость послушания. Учёные называют такую "почти полную цепочку рассуждений" ещё более опасной - именно потому, что она создаёт иллюзию контроля.
Учёные верят, что время ещё есть, чтобы предотвратить эту угрозу.
"Мы рекомендуем продолжать исследования в области мониторинга цепочек рассуждений и инвестировать в эту сферу параллельно с другими методами обеспечения безопасности", - говорится в исследовании.
Вместе с тем в настоящее время современные ИИ-инструменты, включая ChatGPT и другие, думают понятным, читаемым человеком способом. Они "думают вслух", то есть делятся своими шагами рассуждения при генерации ответов. Именно эта прозрачность позволяет держать их под контролем и вмешиваться, если что-то идёт не так.
Напомним, ранее американский миллиардер, глава компании SpaceX Илон Маск сообщил, что ИИ превзойдёт по интеллекту всех людей, вместе взятых, примерно за 5 лет.
Читайте также: О специальной функции ChatGPT напомнили в Министерстве цифровизации