Создание и развертывание чат-бота GenAI RAG на AWS: Bedrock, LlamaIndex и AppRunner
Автор: Analytics Vidhya
Загружено: 2026-03-12
Просмотров: 30
Описание:
Описание
В этом подробном руководстве Картик Нингана, инженер MLOps в Typewise, шаг за шагом покажет вам, как создать и развернуть профессионального чат-бота GenAI с генерацией, дополненной поиском (RAG), в облаке AWS.
Вы узнаете, как создать инструмент анализа документов, способный извлекать полезную информацию из сложных отчетов (например, писем акционерам Amazon) с использованием современного стека технологий ИИ. В этом видео рассматриваются все аспекты, от высокоуровневой архитектуры до пошагового разбора кода и финального развертывания.
🚀 Ключевые моменты:
Конвейер RAG: Настройка баз знаний AWS Bedrock для автоматического приема и извлечения документов.
База данных векторов: Внедрение Amazon OpenSearch для высокопроизводительного хранения векторов.
Оркестрация приложений: Использование LlamaIndex для создания интеллектуального агента чат-бота.
Фронтенд: Создание чистого пользовательского интерфейса с использованием Gradio (чистый Python).
MLOps и развертывание: контейнеризация приложения с помощью Docker, загрузка в AWS ECR и размещение на AWS AppRunner.
Безопасность: управление конфиденциальными ключами API OpenAI с помощью AWS Parameter Store.
🛠 Используемые сервисы и инструменты:
AWS: Bedrock, S3, OpenSearch, ECR, AppRunner, Parameter Store, Titan Embeddings.
ИИ/код: OpenAI GPT, LlamaIndex, Gradio, Python, Boto3.
Для кого это предназначено?
Для разработчиков, специалистов по анализу данных и инженеров MLOps, стремящихся перенести приложения GenAI с локальных ноутбуков в масштабируемую облачную среду.
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: