Uruchom AI lokalnie (Ollama, Llama, WebUI)
Автор: Arkadiusz Siczek
Загружено: 2024-12-16
Просмотров: 8499
Описание:
Przygotowałem nowy tutorial. Tym razem pokazuję jak krok po kroku wdrożyć aplikację w stylu chatGPT. Wszystko uruchamiasz lokalnie na własnym komputerze. Nie musisz się zatem martwić o poufność danych. Do tego, wszystkie użyte narzędzia są darmowe
Technologie jakie wykorzystamy to:
linux
llama 3.3 (wg. wielu jest to bardziej zaawansowany model od tego wykorzystywanego w chatGPT)
webUI (nakładka graficzna, która pozwoli nam zbudować narzędzie podobne do chatGPT)
Aha, jeżeli byłeś na ostatnim webinarze to dzisiejszy materiał będzie świetnym uzupełnieniem. Tu pokazuję krok po kroku jak wszystko uruchomić. Do tego używamy nowszy i bardziej zaawansowany model Llamy.
👉 Szkolenie z AI:
https://asdevops.pl/ai/
👉 Zapisz się na newsletter:
https://blog.askomputer.pl/news/
👉 Ollama: https://ollama.com/download/linux
Stworzenie kontenera:
docker run -d -p 3000:8080 --network host -e OLLAMA_API_BASE_URL=http://localhost:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Agenda:
Wstęp 00:00 - 0:54
Instalacja Ollama 0:54 - 2:11
Uruchomienie Llama 2:11 - 3:31
Instalacja Dockera 3:31 - 4:19
Uruchomienie WebUI 4:19 - 4:56
Ogłoszenie 4:56 - 5:49
Logowanie 5:49 - 6:27
Interfejs WEB 6:27 - 7:05
Prywatny chatGPT 7:05 - 9:16
Dokumentacja 9:16 - 11:31
Tworzymy Asystentów 11:31 - 13:17
Podsumowanie 13:17 - 14:15
Повторяем попытку...
Доступные форматы для скачивания:
Скачать видео
-
Информация по загрузке: