Google отказалась от обещания не использовать ИИ для оружия: в чем дело
По словам экс-сотрудницы компании, вероятно, техногигант теперь направит передовые технологии в противоположную сторону. Но это не единственное изменение в Google. Google больше не обещает, что ее искусственный интеллект никогда не будет использоваться для производства оружия. На официальной странице с принципами компании исчез раздел, который прямо запрещал работу в этой сфере. Изменения заметили журналисты Bloomberg, изучив обновленный документ. Этот шаг идет вразрез с предыдущими заявлениями компании. В 2018 году Google заявила, что не будет участвовать в разработке технологий, связанных с вооружением, после протестов сотрудников. Тогда тысячи инженеров подписали петицию против сотрудничества с Пентагоном в рамках проекта Maven, который использовал ИИ для анализа военных данных. Давление изнутри заставило руководство Google отказаться от контракта и публично заявить, что компания не будет работать над технологиями, способными причинить вред. Теперь политика изменилась. Вместо категорического отказа Google заявляет, что намерена «разрабатывать ИИ ответственно», соблюдать «международные правовые нормы» и избегать «непреднамеренного вреда». При этом в заявлении подчеркивается, что технологии компании будут способствовать «национальной безопасности».
По словам экс-сотрудницы компании, вероятно, техногигант теперь направит передовые технологии в противоположную сторону. Но это не единственное изменение в Google.
Google больше не обещает, что ее искусственный интеллект никогда не будет использоваться для производства оружия. На официальной странице с принципами компании исчез раздел, который прямо запрещал работу в этой сфере. Изменения заметили журналисты Bloomberg, изучив обновленный документ.
Этот шаг идет вразрез с предыдущими заявлениями компании. В 2018 году Google заявила, что не будет участвовать в разработке технологий, связанных с вооружением, после протестов сотрудников. Тогда тысячи инженеров подписали петицию против сотрудничества с Пентагоном в рамках проекта Maven, который использовал ИИ для анализа военных данных. Давление изнутри заставило руководство Google отказаться от контракта и публично заявить, что компания не будет работать над технологиями, способными причинить вред.
Теперь политика изменилась. Вместо категорического отказа Google заявляет, что намерена «разрабатывать ИИ ответственно», соблюдать «международные правовые нормы» и избегать «непреднамеренного вреда». При этом в заявлении подчеркивается, что технологии компании будут способствовать «национальной безопасности».