фото: verslas media

Искусственный интеллект как угроза человечеству. Маск и Возняк призвали сделать паузу в развитии технологий ИИ 2

Ведущие фигуры в области разработки технологий искусственного интеллекта, включая Илона Маска и сооснователя Apple Стива Возняка, предлагают сделать паузу в развитии технологий искусственного интеллекта до тех пор, пока не будут разработаны и применены надежные протоколы безопасности.

Закричала и упала! Тревожные события в Иманте и Вакарбулли – две женщины ранены из пневматического оружия, полиция ищет свидетелей
“За какое время Рига превратилась в такую помойку?” — житель вернулся на место взрыва и в недоумении от увиденного
Военный эксперт: не надейтесь на “особое отношение” — посмотрите, как бомбят Харьков, а ведь там 90% русскоязычных
Читать другие новости

Их призыв содержится в открытом письме, опубликованном некоммерческим исследовательским Институтом будущего жизни (Future of Life Institute) и подписанном более чем тысячей ведущих предпринимателей и экспертов.

Авторы письма, опубликованного спустя всего две недели после того, как американская исследовательская лаборатория OpenAI раскрыла подробности нового, самого продвинутого на сегодняшний день чат-бота GPT-4, предлагают ввести полугодовой мораторий на обучение систем, более мощных чем чат-бот GPT-4. Свой собственный чат-бот Bard также отрыла для тестирования компания Google.

В письме цитируется строчка из блога основателя OpenAI Сэма Альтмана, который предположил, что “в какой-то момент, прежде, чем начинать обучать новые системы, важно будет заручиться независимой оценкой”.

“Мы согласны с этим, – пишут авторы открытого послания, – и этот момент уже наступил. Мощные ИИ-системы следует разрабатывать только после того, как мы убедимся, что последствия их применения будут положительными, а связанные с ними риски – управляемыми”.

О каких рисках идет речь

В письме подробно описываются эти потенциальные риски для общества и цивилизации в целом. По мнению авторов, они заключаются в том, что системы на основе искусственного интеллекта могут вступить в конкуренцию с людьми, что может привести к экономическим и политическим взрывам.

В обращении приводятся четыре главные вопроса, которые, по словам авторов, должно задать себе человечество:

Должны ли мы позволять машинам запрудить наши информационные каналы пропагандой и ложью?”

Должны ли мы отдать на откуп автоматам всю работу, в том числе ту, что приносит людям удовольствие?”

Должны ли мы развивать разум нечеловеческого происхождения, который в будущем может нас превзойти по численности и интеллектуальным способностям, сделать нас неполноценными и нас заместить?”

Должны ли мы рисковать потерей контроля над нашей цивилизацией?”

Эксперты и представители ИИ-индустрии считают, что на разработку и внедрение надежных протоколов безопасности должно хватить шести месяцев. Но авторы письма призывают правительства стран мира вмешаться, если какие-либо компании не выполнят требования моратория.

Авторы письма – не единственные, кто в последнее время выражает опасения по поводу бесконтрольного развития технологий ИИ.

В понедельник озабоченность по поводу этических и юридических последствий применения передовых технологий вроде ChatGPT выразило полицейское подразделение Евросоюза Европол, предупредивший о том, что потенциально эти системы могут использоваться для разных типов интернет-мошенничества – от фишинга до киберпреступлений, а также распространения дезинформации.

“Мне кажется, всем уже понятно, что искусственный интеллект открывает огромные возможности и может внести весомый вклад в создание лучшего будущего для всех нас, но не следует забывать и о связанных с этим рисках – предвзятости, дезинформации и даже манипуляциях, так что следовало бы облечь эти технологии в правила и установить над ними контроль, – заявила в связи с этим в интервью Би-би-си специалист в области защиты частных данных Ивана Бартолетти. – Нам необходимо создать атмосферу доверия, чтобы пользователи осознавали, что говорят с машиной, и что у этих машин могут быть сбои”.

Сторонники технологий искусственного интеллекта говорят, что они позволяют упростить многие рутинные задачи, а также сделать поиск информации более точным.

В начале февраля российские СМИ рассказывали об истории выпускника РГГУ Александра Жадана, который написал при помощи ChatGPT дипломную работу, потратив на это около суток. Работу он сумел защитить и получить на ее основании диплом. После этого руководство ВУЗа заявило, что снова проверит диплом Жадана, а также выразило намерение запретить использование ChatGPT в образовательных организациях.

Чат-бот ChatGPT составляет свои ответы таким образом, что у пользователя может создаться иллюзия общения с живым человеком. Он также способен применять различные языковые стили.

При этом разработчики предупреждают, что ChatGPT имеет лишь отдаленное представление о событиях и явлениях, произошедших после 2021 года, поскольку его база знаний с тех пор не обновлялась. Кроме того, нередки случаи, когда искусственный интеллект начинает “галлюцинировать”, то есть давать вымышленные ответы, не имеющие никакого отношения к действительности, или делать ошибки в логических построениях.

NASHA.LV призывает пользователей быть вежливыми, свободными от ненависти и грубости в своих комментариях.
Закричала и упала! Тревожные события в Иманте и Вакарбулли – две женщины ранены из пневматического оружия, полиция ищет свидетелей
“За какое время Рига превратилась в такую помойку?” — житель вернулся на место взрыва и в недоумении от увиденного
Военный эксперт: не надейтесь на “особое отношение” — посмотрите, как бомбят Харьков, а ведь там 90% русскоязычных
“Вновь у нас отбирают деньги — в праздничные дни теперь точно никто не будет работать!”: работники о новом “ужасном” предложении Сейма
“Если я хочу увеличить свою пенсию, могу ли я сама делать взносы?” — Сармите спрашивает о налогах
Читать другие новости
Выгоднее ли ездить заправляться в соседние страны? Опубликованы подробные данные о тенденциях цен на топливо за прошлую неделю
Из-за технических сбоев в VID части жителей медицинские чеки могут отображаться в годовых декларациях неполностью
Военный эксперт: не надейтесь на “особое отношение” — посмотрите, как бомбят Харьков, а ведь там 90% русскоязычных
Счастливчики! Для 3 знаков зодиака следующая неделя будет особенно удачной
Что есть для здоровья мозга: учёные обнаружили неожиданную информацию
Соблюдай правила! В Риге усилят контроль за использованием электроскутеров
ВИДЕО. «Я тебе лицо разобью!» Рудольф Бреманис становится очень агрессивным на встрече выпускников школы
750 000 евро! Люди обсуждают, сколько “airBaltic” заработает на репатриационных рейсах латвийцев из ОАЭ
Россия готовится к полной изоляции? В Москве произошёл тревожный эксперимент
Предсказывали ли Ванга и Нострадамус конфликт на Ближнем Востоке? Вот какие прогнозы они делали на 2026 год
Как после праздников восстановить форму и не потерять ее?
Новый год – лучший ты! Актуальные процедуры для фигуры мечты
Волшебные процедуры красоты с мгновенным эффектом
“Так было и в прошлом году…”: прокомментировала рост цен на топливо Эвика Силиня
“Мухаммед – правитель Европы”: Лембергс обеспокоен большим количеством мусульман
“Цены на цветы растут быстрее, чем на бензин!”: пользователи делятся фотографиями резкого подорожания
Литовская разведка: Россия расширяет военные подразделения на границах НАТО
“Вновь у нас отбирают деньги — в праздничные дни теперь точно никто не будет работать!”: работники о новом “ужасном” предложении Сейма