«Мы зажигаем фитиль» — почему ведущий эксперт по безопасности ИИ боится искусственного интеллекта.
Автор: METAMIND AI
Загружено: 2025-12-09
Просмотров: 7077
Описание:
Холли Элмор, исполнительный директор Pause.ai US, рассказывает, почему сверхинтеллектуальный ИИ представляет собой экзистенциальную угрозу, к которой человечество не готово. Она объясняет критическую разницу между узкоспециализированными инструментами ИИ и искусственным общим интеллектом (AGI), который может превзойти человеческий интеллект во всех областях, — и почему «умнее» не означает «безопаснее». Узнайте о глобальном движении, работающем над приостановкой опасного развития ИИ, прежде чем мы потеряем контроль над технологией, которая может изменить или уничтожить цивилизацию.
👉 Скачайте свой БЕСПЛАТНЫЙ пакет «Ускоритель ИИ» — высококачественные подсказки для повышения вашей продуктивности, креативности и успеха: https://bit.ly/3MqUhUQ
Исполнительный директор | Pause.ai US Холли возглавляет американское отделение глобального движения Pause.ai, которое выступает за приостановку самых передовых экспериментов с ИИ до тех пор, пока не будут созданы рамки безопасности и управления. Она создала общественную организацию, охватывающую 16-17 городов в Соединенных Штатах, и координирует работу с международными отделениями в 15 странах мира.
Организатор по безопасности ИИ и защитник политики | Движение Pause.ai. Холли организует протесты, демонстрации и образовательные кампании для повышения осведомленности общественности об экзистенциальных рисках, связанных с искусственным общим интеллектом и сверхинтеллектом. Она успешно боролась с федеральным законодательством о приоритете ИИ, которое блокировало бы регулирование на уровне штатов без создания какой-либо федеральной структуры, и возглавляет национальные кампании по мобилизации граждан для обращения к своим представителям по вопросам безопасности ИИ.
//ССЫЛКИ
Личный сайт: hollyelmore.substack.com
Профессиональный сайт: https://www.pauseai-us.org/
Twitter: / ilex_ulmus
//ЗАМЕТКИ К ВЫПУСКУ
00:00 - 03:41 | Чем отличается AGI от современного ИИ
03:42 - 07:22 | Тезис об ортогональности: интеллект без морали
07:23 - 11:04 | Почему сверхинтеллект автоматически не будет заботиться о людях
11:05 - 14:46 | Как ядерные договоры предоставляют план регулирования ИИ
14:47 - 18:28 | Управление вычислительными ресурсами: отслеживание развития ИИ со спутников
18:29 - 22:10 | Почему мы не можем ждать предупредительных выстрелов
22:11 - 25:52 | ChatGPT как личный тревожный звонок
25:53 - 29:34 | Рождение и рост движения Pause.ai
29:35 - 33:16 | Борьба с приоритетом ИИ в федеральном законодательстве
33:17 - 36:53 | Как принять участие в движении Pause
//ИНТЕРВЬЮ
AGI против сверхинтеллекта | Понимание критической разницы между общим интеллектом человеческого уровня и системами, превосходящими человеческие способности во всех областях.
Проблема муравейника | Как сверхинтеллектуальный ИИ может непреднамеренно навредить людям, подобно тому как люди редко задумываются о муравьях, на которых наступают во время ходьбы.
Прецеденты ядерных договоров | Почему международные соглашения о ядерном оружии обеспечивают проверенную основу для регулирования развития передового ИИ.
Стратегия управления вычислительными ресурсами | Как тепловые сигнатуры центров обработки данных и узкие места в вычислительных ресурсах позволяют отслеживать и контролировать разработку ИИ со спутников.
Глобальное движение Pause.ai | Создание низовой поддержки в 15 странах и 16 городах США для прекращения опасных экспериментов с ИИ.
Шаги действий на низовом уровне | Конкретные способы, которыми граждане могут влиять на политику в области ИИ посредством петиций, работы с представителями власти и местной организации.
//ЦИТАТЫ
«Когда мы проходим мимо муравейника, большинство людей, как правило, не задумываются о том, чтобы раздавить несколько муравьев. Понимаете? Просто им все равно. Понимаете? И вот такими будут их отношения».
«Интеллект — это способность достигать целей, и это может быть направлено на что угодно. Например, ваши ценности, ваша мораль определяют ваши цели, но способность достигать целей независима от этого».
«Центры обработки данных, которые обучают ИИ, излучают огромные тепловые сигнатуры, видимые со спутников. Скрыть передовой ИИ, по крайней мере, на время обучения машинного обучения, от всего мира будет очень и очень сложно».
«Это как рыночный сбой, который положит конец всем рыночным сбоям. Нам нужно внешнее регулирование, внешнее по отношению к проекту создания ИИ».
«Я действительно не думал, что мы, вероятно, увидим, как компьютер освоит естественный язык при моей жизни».
«Нет никакого естественного закона, который бы запрещал быть умнее человека».
«Если этого не делать, они никогда не получат предупредительных выстрелов, которые происходят на самом деле».
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: