Эксперты прямо заявляют, что искусственный интеллект может стать причиной вымирания человечества
В последние месяцы многие эксперты и руководители в области ИИ забили тревогу по поводу опасности передовых разработок ИИ.
Последний залп — это новое заявление из 22 слов, приравнивающее глобальный риск ИИ к риску пандемий и ядерной войны.
Не все эксперты обеспокоены: некоторые говорят, что ИИ далеко не настолько развит, чтобы уничтожить человеческое существование.
Многие люди обеспокоены будущим ИИ, включая умы, участвующие в создании этого самого будущего. Руководители технических компаний и генеральные директора корпораций, занимающихся искусственным интеллектом, в том числе таких компаний, как OpenAI и Deepmind, подписали простое, но запоминающееся заявление из 22 слов о потенциальных опасностях искусственного интеллекта: «Снижение риска исчезновения искусственного интеллекта должно быть глобальным приоритетом наряду с другими риски социального масштаба, такие как пандемии и ядерная война».
Заявление намеренно расплывчато и избегает подробностей о том, как смягчение этого растущего риска должно стать приоритетом, но оно показывает высокий уровень обеспокоенности по поводу ИИ среди тех самых людей, которые стоят за растущей технологией. По словам исполнительного директора центра Дэна Хендрикса, заявление, опубликованное в Центре безопасности ИИ, является «выходом» для экспертов ИИ, обеспокоенных будущим технологии.
«Даже в сообществе искусственного интеллекта существует очень распространенное заблуждение, что существует лишь горстка обреченных [sic]», — сказал Хендрикс The New York Times. «Но на самом деле многие люди в частном порядке выражают обеспокоенность по поводу этих вещей».
Угрозы ИИ не обязательно заключаются в том, что сверхразвитая искусственная форма жизни поработит и истребит человечество, как в «Терминаторе». На веб-сайте Центра безопасности ИИ подробно представлен более тонкий взгляд на нашу гибель, включая потенциальную роль ИИ в разработке более эффективного химического оружия, усилении кампаний по дезинформации и усугублении социального неравенства.
В этих опасениях нет ничего нового. Страхи по поводу ИИ почти так же стары, как и зарождение этой технологии, и уже почти столетие играют большую роль в научной фантастике. Айзек Азимов создал «Три закона робототехники» еще в 1942 году, а в научно-фантастическом романе «Дюна» 1965 года ИИ полностью запрещен на всей территории известной галактики в попытке спасти человечество.
В марте технологические лидеры, в том числе Илон Маск (давний представитель опасностей ИИ) и другие ведущие исследователи ИИ, призвали к шестимесячному мораторию на исследования ИИ, «более мощные, чем GPT-4», последняя версия большой мультимодальной модели OpenAI. . В апреле Ассоциация по развитию искусственного интеллекта опубликовала собственное письмо, призывающее к разработке способов «гарантировать, что общество сможет воспользоваться великими обещаниями ИИ, одновременно управляя своими рисками». А чуть ранее в этом месяце эксперт по искусственному интеллекту Джеффри Хинтон, известный как «отец искусственного интеллекта», также выразил опасения по поводу растущих технологий — вплоть до того, что сожалел о деле своей жизни.
Не все эксперты по искусственному интеллекту присоединяются к этим спорам. Ученый-компьютерщик из Принстонского университета рассказал Би-би-си, что «нынешний ИИ далеко не настолько способен, чтобы эти риски материализовались. В результате он отвлекает внимание от краткосрочного вреда ИИ», такого как его предвзятое и исключающее поведение. Тем не менее, и Microsoft, и OpenAI призвали правительство США регулировать развитие ИИ, а в середине мая юридический подкомитет Сената провел заседание по вопросам надзора за ИИ.
Мрачное будущее искусственного интеллекта все еще не написано, и некоторые технические руководители и эксперты пытаются сохранить его таким.
Вам также может понравиться
Что можно и чего нельзя делать при использовании малярного скотча
Лучшие портативные грили-барбекю для приготовления пищи где угодно
Могут ли умные часы продлить вашу жизнь?
Вам также может понравиться