Інженер з програмного забезпечення компанії Google Блейк Лемойн (Blake Lemoine) заявив, що створений корпорацією штучний інтелект (ІІ) LaMDA (Language Model for Dialogue Applications) має власну свідомість. У відповідь керівництво компанії усунуло його від роботи. Про це повідомляє газета The Washington Post.

LaMDA є нейромережевою мовною моделлю для діалогових додатків, призначену для спілкування на будь-які теми. До завдань Лемойна входило тестування системи. Зокрема, він повинен був визначити, чи не використовує вона дискримінаційну або лексику, що розпалює ворожнечу. Натомість фахівець дійшов висновку, що ІІ має власну свідомість. Так, Лемойн зауважив, що чат-бот говорить про права і сприймає себе як особистість.

«Якби я не знав напевно, що маю справу з комп’ютерною програмою, яку ми недавно написали, то я б подумав, що говорю з дитиною семи чи восьми років, яка з якоїсь причини виявилася знавцем фізики», — заявив 41-річний інженер.

За підсумками роботи Л. підготував письмовий звіт. Проте керівництво компанії вважало аргументацію співробітника не переконливою. «Йому було сказано, що свідчення того, що LaMDA має свідомість, відсутні. При цьому є безліч свідчень протилежного», — йдеться у заяві офіційного представника Google Брайана Гебріела. Уточнюється, що Лемойна відправили в оплачувану адміністративну відпустку.

Раніше стало відомо, що нова система штучного інтелекту Facebook має «високу схильність» до расизму та упередженості. Дослідники штучного інтелекту компанії викрили нейромережу в тому, що використовуючи велику мовну модель OPT-175B, навіть при нешкідливому запиті вона видає «токсичні» результати, які посилюють расистські та сексистські стереотипи.

от POSTUP