11 лучших планов помощи на дороге (2023 г.)
Oct 23, 20231965 Адский проект Импалы, Часть 17: Краш-диета, Жарка шин на Дрэгстрипе
Oct 11, 20234 экспертных способа разблокировки iPhone без пароля или Face ID
Nov 13, 20236 шагов по контролю опасной энергии (или блокировке/маркировке)
Jan 02, 202479% предлагают гибкий график работы в качестве преимущества.
Sep 18, 2023Руководители OpenAI и Google DeepMind подписали заявление, предупреждающее, что ИИ представляет «риск исчезновения»
Более 350 экспертов отрасли ИИ, в том числе из OpenAI и Google, предупреждают, что ИИ так же опасен, как крупные пандемии и ядерная война.
-
Группа экспертов по искусственному интеллекту (ИИ) предупредила, что ИИ может представлять угрозу человечеству, если его не разрабатывать и не использовать ответственно. Группа, в которую входят исследователи из Google, Microsoft и OpenAI, 30 мая 2023 года опубликовала в журнале Nature статью, в которой изложила свои опасения.
Сэм Альтман, генеральный директор OpenAI, Дарио Амодей, генеральный директор Anthropic, и Демис Хассабис, генеральный директор Google DeepMind, являются наиболее известными подписантами.
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в открытом письме. The New York Times сообщает, что заявление будет опубликовано Центром безопасности ИИ, новой некоммерческой организацией. Письмо подписали более 350 исследователей искусственного интеллекта, инженеров и руководителей компаний.
Джеффри Хинтон и Йошуа Бенджио — два известных исследователя, подписавших соглашение. Это двое из трех исследователей, получивших премию Тьюринга за разработку нейронных сетей. Оба новатора в области искусственного интеллекта, Хинтон и Бенджио, известны как «крестные отцы» инноваций в области искусственного интеллекта. Ранее в этом месяце Хинтон покинул свою должность в Google, разочаровавшись в отсутствии у Google видения и лидерства в разработке искусственного интеллекта. Он также предупредил о потенциальной опасности ИИ.
Эксперты утверждают, что ИИ можно использовать для создания автономного оружия, способного убивать без вмешательства человека. Они также обеспокоены тем, что ИИ может быть использован для манипулирования людьми или распространения дезинформации. Группа призывает к глобальным усилиям по разработке ИИ безопасным и ответственным способом.
Предупреждение экспертов по искусственному интеллекту прозвучало в то время, когда искусственный интеллект быстро становится все более мощным. В последние годы ИИ использовался для разработки беспилотных автомобилей, программного обеспечения для распознавания лиц и даже чат-ботов на базе ИИ. Поскольку ИИ продолжает развиваться, важно учитывать потенциальные риски, а также потенциальные выгоды.
Эксперты по ИИ, опубликовавшие статью в журнале Nature, не первые, кто предупреждает о потенциальной опасности ИИ. В 2015 году Илон Маск и Стивен Хокинг написали открытое письмо, призывающее запретить автономное оружие. А в 2017 году Институт будущего жизни, некоммерческая организация, которая продвигает исследования экзистенциальных рисков, опубликовал отчет об опасностях ИИ.
Предупреждения экспертов по искусственному интеллекту и других экспертов являются тревожным сигналом. Понятно, что ИИ — это мощная технология, способная нанести огромный вред. Крайне важно, чтобы мы разрабатывали ИИ ответственным образом и принимали меры по снижению рисков.
Существует множество опасений по поводу ИИ и законодателей, и даже те, кто связан с индустрией ИИ, высказывают их. Возможно, самый большой парадокс в сфере технологий на данный момент заключается в том, что разработка передового генеративного искусственного интеллекта продолжается, несмотря на то, что многие важные деятели высказываются об опасностях. Я думаю, очевидный вопрос: если такие руководители, как Сэм Альтман, обеспокоены, почему они все еще разрабатывают системы искусственного интеллекта? Это чисто ради прибыли или это высокомерие и вера в то, что мы можем контролировать эту технологию?
Сэм Альтман — соучредитель OpenAI (вместе с Илоном Маском) и нынешний генеральный директор исследовательской фирмы в области искусственного интеллекта. За последние несколько месяцев он стал одним из самых влиятельных технологических лидеров, поскольку ChatGPT стал самым популярным чат-ботом с искусственным интеллектом. Альтман также наладил тесное партнерство с Microsoft после инвестиций в миллиарды долларов со стороны компании из Редмонда.
В то время как OpenAI и Microsoft расширили свои продукты искусственного интеллекта, такие как GPT-4, ChatGPT, Bing Chat, Microsoft 365 Copilot и GitHub Copilot. Однако критики Альтмана утверждают, что OpenAI слишком поспешила с разработкой своих продуктов генеративного ИИ, не дожидаясь принятия надлежащего регулирования. Илон Маск, бывший партнер Альтмана в OpenAI, является одним из таких критиков, заявляя, что нынешняя ситуация в компании не соответствует его намерениям.
Маск также присоединился к другим технологическим лидерам в создании проекта «Инициатива для жизни», который призывает разработчиков ИИ прекратить разработку моделей, более мощных, чем GPT-4, как минимум на шесть месяцев. Стоит отметить, что Альтман недавно заявил, что GPT-5 не разрабатывается OpenAI. На этой неделе Альтман выступил на слушаниях в Конгрессе США и признал, что для развития ИИ необходимы четкие и строгие правила.