Google оновила свої принципи щодо штучного інтелекту, вилучивши зобов'язання не використовувати технологію у спосіб, "який спричиняє або може спричинити загальну шкоду". Про це пише The Washington Post.
У видаленому розділі принципів етики ШІ Google зобов'язувалась не розробляти й не розгортати ШІ для використання в системах спостереження, зброї й технологіях, призначених для заподіяння шкоди людям.
Генеральний директор Google DeepMind Деміс Хассабіс та старший виконавчий директор Google з питань технологій і суспільства Джеймс Маньяка поділилися новими “основними принципами” у розробці ШІ. До них належать інновації, співпраця та “відповідальна” розробка ШІ, але без конкретних деталей.
Цей пункт політики Google ставив компанію у дещо невигідну позицію, відносно конкурентів на ринку ШІ. Технології Llama від Meta і ChatGPT від OpenAI дозволені для використання у військових цілях. Amazon уклав угоду з державним виробником програмного забезпечення Palantir, а Anthropic продає свій ШІ Claude американським військовим і розвідувальним службам.
Попри своє зобов'язання Google вже працювала над різними військовими контрактами, включаючи Project Maven — проєкт Пентагону 2018 року, в рамках якого Google використовувала штучний інтелект для аналізу відеозаписів з дронів — і військовий хмарний контракт Project Nimbus 2021 року з ізраїльським урядом.