Это простое Streamlit-приложение, реализующее чат-бота на основе модели LLAMA 3.1 с использованием API Groq.
Приложение предоставляет пользовательский интерфейс для общения с языковой моделью LLAMA 3.1. Оно сохраняет историю чата в рамках текущей сессии и использует настраиваемый системный промпт.
- Интерактивный чат с моделью LLAMA 3.1
- Сохранение истории чата в рамках сессии
- Настраиваемый системный промпт через конфигурационный файл
- Python 3.7+
- Streamlit
- Groq Python SDK
-
Клонируйте репозиторий:
git clone https://github.com/instocky/streamlit-groq.git cd llama-3.1-chatbot
-
Установите зависимости:
pip install -r requirements.txt
-
Создайте файл
config.json
в корневой директории проекта со следующим содержимым:{ "GROQ_API_KEY": "ваш_апи_ключ_здесь", "SYSTEM_PROMPT": "Вы - полезный ассистент, специализирующийся на..." }
Замените "ваш_апи_ключ_здесь" на ваш реальный API ключ Groq.
Чтобы запустить приложение, выполните следующую команду в терминале:
streamlit run main.py
После запуска откройте браузер и перейдите по адресу, указанному в терминале (обычно http://localhost:8501).
Вы можете изменить системный промпт, отредактировав поле SYSTEM_PROMPT
в файле config.json
.
- История чата сохраняется только в рамках текущей сессии Streamlit.
- При длительном использовании может возникнуть проблема с количеством токенов в запросе к API.
Если у вас есть вопросы или предложения, пожалуйста, создайте issue в этом репозитории.