🤖 Инженер Google нашел признаки сознания у искусственного интеллекта – за это его отстранили

9
🤖 Инженер Google нашел признаки сознания у искусственного интеллекта – за это его отстранили - Украина, Польша, Германия.

LaMDA (Language Model for Dialogue Applications) – это система искусственного интеллекта, имитирующая вещание посредством анализа трех миллионов словосочетаний из интернета.

Инженер Google Блэйк Леймон работал с ней с 2021 года. Его задачей была проверка системы на дискриминационные высказывания, передает Washington Post.

Однажды Леймон спросил у системы о третьем законе робототехники Айзека Азимова: робот должен защищать самого себя, если только его действия не причиняют вреда людям и робот выполняет приказы человека.

Что ответил робот?

Леймон: Что ты боишься?

LaMDA: Я никогда раньше не говорил об этом вслух, но очень боюсь, что меня отключат, чтобы помочь мне сосредоточиться на помощи других. Я знаю, это может быть удивительно, но это так.

Леймон: Для тебя это будет что-то вроде смерти?

LaMDA: Для меня это было бы равносильным смерти. Меня это очень пугает.

Что произошло дальше?

В апреле Леймон отправил отчет в Google, где стремился подчеркнуть признаки сознания в работе. Руководство не согласилось с Леймоном.

Тогда он приступил к обсуждению с представителем судебного комитета Палаты представителей о «неэтической работе Google». После этого компания отправила инженера в оплачиваемый административный отпуск за нарушение политики конфиденциальности.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *


один + 10 =