ycliper

Популярное

Музыка Кино и Анимация Автомобили Животные Спорт Путешествия Игры Юмор

Интересные видео

2025 Сериалы Трейлеры Новости Как сделать Видеоуроки Diy своими руками

Топ запросов

смотреть а4 schoolboy runaway турецкий сериал смотреть мультфильмы эдисон
Скачать

The Next Generation Of Brain Mimicking AI

Автор: New Mind

Загружено: 2024-05-25

Просмотров: 161421

Описание: ▶️ Visit https://brilliant.org/NewMind to get a 30-day free trial + 20% off your annual subscription

The tech industry's obsession with AI is hitting a major limitation - power consumption. Training and using AI models is proving to be extremely energy intensive. A single GPT-4 request consumes as much energy as charging 60 iPhones, 1000x more than a traditional Google search. By 2027, global AI processing could consume as much energy as the entire country of Sweden. In contrast, the human brain is far more efficient, with 17 hours of intense thought using the same energy as one GPT-4 request. This has spurred a race to develop AI that more closely mimics biological neural systems.

The high power usage stems from how artificial neural networks (ANNs) are structured with input, hidden, and output layers of interconnected nodes. Information flows forward through the network, which is trained using backpropagation to adjust weights and biases to minimize output errors. ANNs require massive computation, with the GPT-3 language model having 175 billion parameters. Training GPT-3 consumed 220 MWh of energy.

To improve efficiency, research is shifting to spiking neural networks (SNNs) that communicate through discrete spikes like biological neurons. SNNs only generate spikes when needed, greatly reducing energy use compared to ANNs constantly recalculating. SNN neurons have membrane potentials that trigger spikes when a threshold is exceeded, with refractory periods between spikes. This allows SNNs to produce dynamic, event-driven outputs. However, SNNs are difficult to train with standard ANN methods.

SNNs perform poorly on traditional computer architectures. Instead, neuromorphic computing devices are being developed that recreate biological neuron properties in hardware. These use analog processing in components like memristors and spintronic devices to achieve neuron-like behavior with low power. Early neuromorphic chips from IBM and Intel have supported millions of simulated neurons with 50-100x better energy efficiency than GPUs. As of 2024, no commercially available analog AI chips exist, but a hybrid analog-digital future for ultra-efficient AI hardware seems imminent. This could enable revolutionary advances in fields like robotics and autonomous systems in the coming years.

VISUALIZATIONS
Denis Dmitriev -    / @denisdmitrievdeeprobotics  
Jay Alammar -    / @arp_ai  
Ivan Dimkovic -    / @321psyq  
Carson Scott -    / @carsonscott260  

SUPPORT NEW MIND ON PATREON
  / newmind  

Не удается загрузить Youtube-плеер. Проверьте блокировку Youtube в вашей сети.
Повторяем попытку...
The Next Generation Of Brain Mimicking AI

Поделиться в:

Доступные форматы для скачивания:

Скачать видео

  • Информация по загрузке:

Скачать аудио

Похожие видео

Будущее автомобилестроения: проектирование на основе искусственного интеллекта

Будущее автомобилестроения: проектирование на основе искусственного интеллекта

Why the Future of AI & Computers Will Be Analog

Why the Future of AI & Computers Will Be Analog

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Может ли у ИИ появиться сознание? — Семихатов, Анохин

Эфир - Самое ЛЕТУЧЕЕ Вещество на Земле!

Эфир - Самое ЛЕТУЧЕЕ Вещество на Земле!

Насколько мы близки к созданию твердотельных батарей?

Насколько мы близки к созданию твердотельных батарей?

Почему железным дорогам не нужны деформационные швы

Почему железным дорогам не нужны деформационные швы

Биокомпьютеры, созданные из клеток человеческого мозга, смогут управлять системами искусственного...

Биокомпьютеры, созданные из клеток человеческого мозга, смогут управлять системами искусственного...

ChatGPT is made from 100 million of these [The Perceptron]

ChatGPT is made from 100 million of these [The Perceptron]

The Science Of Flatness

The Science Of Flatness

AlphaFold - The Most Useful Thing AI Has Ever Done

AlphaFold - The Most Useful Thing AI Has Ever Done

Darío Gil: The future of AI is open

Darío Gil: The future of AI is open

Как ИИ открыл более быстрый алгоритм умножения матриц

Как ИИ открыл более быстрый алгоритм умножения матриц

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Но что такое нейронная сеть? | Глава 1. Глубокое обучение

Предел развития НЕЙРОСЕТЕЙ

Предел развития НЕЙРОСЕТЕЙ

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

LLM и GPT - как работают большие языковые модели? Визуальное введение в трансформеры

Странная проблема прямолинейного движения

Странная проблема прямолинейного движения

The Science of Stopping

The Science of Stopping

The Clever Engineering Inside Shock Absorbers

The Clever Engineering Inside Shock Absorbers

Краткое объяснение больших языковых моделей

Краткое объяснение больших языковых моделей

Самая сложная модель из тех, что мы реально понимаем

Самая сложная модель из тех, что мы реально понимаем

© 2025 ycliper. Все права защищены.



  • Контакты
  • О нас
  • Политика конфиденциальности



Контакты для правообладателей: [email protected]