Как модель с 27 миллионами параметров превзошла искусственный интеллект с триллионом параметров.
Автор: Bug
Загружено: 2026-01-11
Просмотров: 469
Описание:
Модель ИИ с 27 миллионами параметров сделала то, чего не смогли модели с триллионами параметров, такие как GPT и Claude, — она превзошла их в сложных логических тестах.
По крайней мере, так гласили заголовки.
В этом видео мы разберем, как модель ИИ, в 100 раз меньшая по размеру, превзошла GPT, почему это сработало и почему история гораздо сложнее, чем казалось на первый взгляд. Это не чат-бот. Это не универсальный ИИ. Это специалист по логике, предназначенный для решения задач замкнутых систем, таких как судоку, лабиринты и тест ARC.
Мы объясняем:
• Как этот крошечный ИИ использует рекуррентность и циклы вместо масштабирования
• Почему традиционные модели с длинными многошаговыми рассуждениями испытывают трудности
• Разница между общим интеллектом и оптимизацией, специфичной для конкретной задачи
• Почему головоломки ARC обманчивы — и почему они важны
• Что обнаружила команда ARC после проверки результатов
• Как результаты упали с впечатляющих до тревожных при тестировании на новых задачах
• Почему эта модель мыслит векторами (математикой), а не токенами (словами)
И как это связано с вычислительными ресурсами во время тестирования, o1/o3 от OpenAI и будущим моделей рассуждений
Это видео — не рекламный ход, а подробный анализ.
Да, модель крошечная.
Да, результаты были реальными.
Но нет, это не ИИ.
Однако это взгляд в будущее, где интеллект — это не размер, а то, как модели мыслят, зацикливаются и совершенствуются внутри себя.
Если вас интересует:
искусственный интеллект, ARC-AGI, модели рассуждений, GPT против небольших моделей, бенчмарки ИИ, вычислительные ресурсы во время тестирования или будущее архитектуры ИИ — это видео для вас.
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: