Форум города Пущино: НАШ ФОРУМ |
Облако тегов: |
Навигация форума: |
|
Для полноценной работы с сайтом вам необходимо установить Adobe Flash Player не ниже 10-ой версии. |
|
На главную | Форумы | Регистрация | Правила форума | Русская баня | Дневники | Сообщения за день | Поиск |
Важная информация |
|
Опции темы | Опции просмотра |
29.03.2023, 12:56 | #1 | ||||||||||||
Тень интеллигенции
. Backyard Shootout Champion!Турниров выиграно: 7 Регистрация: 12.01.2008
Сообщений: 23,391
Вы сказали Спасибо: 9,142
Поблагодарили 20,571 раз(а) в 8,688 сообщениях
Изображений: 14044 Записей в дневнике: 3
|
«Угроза всему человечеству». Маск и Возняк призвали приостановить обучение систем ИИ мощнее GPT-4
Некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».
В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма. Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ. В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений. Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо. «Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймём все риски», — сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. — «Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают». OpenAI представила GPT-4 14 марта. Модель способна интерпретировать не только текст, но и изображения. Также она теперь распознаёт схематичные образы, в том числе и нарисованные от руки. После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, лежащие в её основе. Участники сообщества ИИ раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет воспроизведение её работы другими. Одновременно это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.
__________________
Как ставить хайд:
Скрытый текст:
Правила оформления релизов!!! | Как стать Power User? | Как залить файлы на Downloadcenter/Megaupload? Как стать модератором на нашем форуме Предложения по улучшению форума | VIP раздел - - - Автошкола города Пущино и Серпухова: www.karvetauto.ru |
||||||||||||
Этот пользователь сказал Спасибо administrator за это полезное сообщение: | Valerius (29.03.2023) |