Билл Гейтс считает, что призыв приостановить работу над нейросетями мощнее GPT-4 на полгода не решит проблемы. По его мнению, вместо ввода моратория необходимо определить проблемные области и заняться ими.
Кроме того, Гейтс сомневается, что разработчики и IT-компании последуют призыву профильных экспертов и прекратят работать свои разработки над нейросетями.
«Я не думаю, что просьба к одной определённой группе приостановить разработку ИИ-систем разрешит текущие вызовы. Очевидно, у этих систем есть огромные преимущества. Что нам нужно, так это определить области риска», — заявил СМИ Гейтс. По его мнению, многие страны просто проигнорируют письмо с этих предостережением.
22 марта Гейтс заявил, что ИИ должен сократить неравенство и уменьшить несправедливость. Основатель Microsoft уверен, что начинается «Эра AI», а «искусственный интеллект столь же революционен, как мобильные телефоны и Интернет».
В конце марта некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».
После этого организация проблем этики в IT Center for Artificial Intelligence and Digital Policy направила жалобу против OpenAI в Федеральную торговую комиссию США. Она потребовала запретить компании развёртывать новые модели GPT, а также запросила регулятора начать расследование в отношении OpenAI из-за выпуска GPT-4, чтобы выяснить, не нарушает ли он законы США и других стран.
В начале апреля группа специалистов по этике AI выступила с ответом на письмо Future of Life. Они скептически отнеслись к призыву взять шестимесячную «паузу» в развитии AI и обучении систем, «более мощных, чем GPT-4», раскритиковали текст письма за акцент на гипотетических будущих угрозах, связанных с развитием искусственного интеллекта. По их мнению, реальный вред может принести использование AI-технологий уже сегодня.
Кроме того, Гейтс сомневается, что разработчики и IT-компании последуют призыву профильных экспертов и прекратят работать свои разработки над нейросетями.
«Я не думаю, что просьба к одной определённой группе приостановить разработку ИИ-систем разрешит текущие вызовы. Очевидно, у этих систем есть огромные преимущества. Что нам нужно, так это определить области риска», — заявил СМИ Гейтс. По его мнению, многие страны просто проигнорируют письмо с этих предостережением.
22 марта Гейтс заявил, что ИИ должен сократить неравенство и уменьшить несправедливость. Основатель Microsoft уверен, что начинается «Эра AI», а «искусственный интеллект столь же революционен, как мобильные телефоны и Интернет».
В конце марта некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».
После этого организация проблем этики в IT Center for Artificial Intelligence and Digital Policy направила жалобу против OpenAI в Федеральную торговую комиссию США. Она потребовала запретить компании развёртывать новые модели GPT, а также запросила регулятора начать расследование в отношении OpenAI из-за выпуска GPT-4, чтобы выяснить, не нарушает ли он законы США и других стран.
В начале апреля группа специалистов по этике AI выступила с ответом на письмо Future of Life. Они скептически отнеслись к призыву взять шестимесячную «паузу» в развитии AI и обучении систем, «более мощных, чем GPT-4», раскритиковали текст письма за акцент на гипотетических будущих угрозах, связанных с развитием искусственного интеллекта. По их мнению, реальный вред может принести использование AI-технологий уже сегодня.
Билл Гейтс считает, что призыв приостановить работу над нейросетями мощнее GPT-4 не решит проблемы
Билл Гейтс считает , что призыв приостановить работу над нейросетями мощнее GPT-4 на полгода не решит проблемы. По его мнению, вместо ввода моратория необходимо определить проблемные области и...
habr.com