Искусственный интеллект захватит мир 0
Хокинг предупреждал, что суперинтеллектуальный искусственный интеллект (ИИ) может стать одним из самых значимых событий в истории человечества — как в хорошем, так и в плохом смысле. Проблема возникает тогда, когда цели ИИ не совпадают с интересами людей.
Даже если ИИ никогда напрямую не причинит вреда людям, он может развиться настолько, что люди больше не будут иметь значения в планах этого суперинтеллекта. Точно так же, как мы защищаем животных, ИИ может игнорировать потребности людей, если они будут мешать достижению его целей. Предупреждение Хокинга подчёркивает, что контроль над технологиями так же важен, как и их развитие — неправильный подход может привести к катастрофическим последствиям.



