Виталик Бутерин призывает к «мягкой паузе» в развития ИИ, чтобы смягчить риски

Соучредитель Ethereum Виталик Бутерин предлагает в качестве крайней меры "мягкую паузу" в использовании вычислительных мощностей промышленного масштаба для решения потенциальных рисков, связанных с быстро развивающимся искусственным интеллектом

Виталик Бутерин призывает к «мягкой паузе» в развития ИИ, чтобы смягчить риски
Photo by Andrea De Santis / Unsplash

Соучредитель Ethereum предлагает временно ограничить вычислительные мощности искусственного интеллекта промышленного масштаба, подчеркивая необходимость надзора и этических гарантий.

Соучредитель Ethereum Виталик Бутерин предлагает в качестве крайней меры "мягкую паузу" в использовании вычислительных мощностей промышленного масштаба для решения потенциальных рисков, связанных с быстро развивающимся искусственным интеллектом.

В блоге, опубликованном 5 января, Бутерин предложил ограничить глобальные вычислительные ресурсы на 99% на срок от одного до двух лет, чтобы дать человечеству время подготовиться к появлению сверхинтеллектуальных систем искусственного интеллекта. Он подчеркнул, что такие меры следует принимать только в том случае, если менее ограничительные варианты, такие как привлечение разработчиков ИИ к ответственности за ущерб, окажутся безуспешными.

"Цель заключалась бы в том, чтобы иметь возможность сократить мировые вычислительные ресурсы на 90-99% на один-два года в критический период, чтобы дать больше времени человечеству для подготовки", - пишет он. "Однако ценность одного-двух лет не должна быть переоценена: год "военного режима" может легко стоить ста лет работы в условиях самоуспокоенности".

Предложение Бутерина прозвучало на фоне растущей озабоченности в технологическом сообществе по поводу ускоренного развития ИИ. В мае 2023 года эксперты и исследователи в области технологий подписали открытое письмо, опубликованное в журнале Science, призывающее к прекращению разработки ИИ, мотивируя это рисками, включая "крупномасштабный социальный вред, злонамеренное использование и необратимую потерю человеческого контроля над автономными системами ИИ".

"Проблемы, связанные с супер-интеллектуальным ИИ, являются реальными рисками, особенно те, которые связаны с потенциальным насыщением власти и принятия решений в системах ИИ", - сказал Тодд Руфорд, генеральный директор Autonomys, The Defiant. "Эти проблемы требуют надзорных и нормативных рамок для их решения".

Руфорд пояснил, что децентрализация является путем вперед, позволяя распределять контроль и способствовать совместному подходу к разработке. "Это обеспечит, чтобы системы ИИ оставались подотчетными и, что еще более важно, прозрачными и лучше подготовленными к смягчению потенциальных рисков неправильного использования или дальнейших последствий", - добавил он.

Он также отметил, что предложение Бутерина вызвало оживленную дискуссию, призывая технологическую индустрию уделять приоритетное внимание этичному развитию и надежным гарантиям по мере продолжения прогресса в области технологий искусственного интеллекта.

Read More