Stockbot
Stockbot es un Chatbot de Inteligencia Artificial que responde con gráficos de acciones interactivos en vivo, información financiera, noticias, screeners y más. Puedes configurar un nodo Gaia como backend LLM.
Tenga en cuenta que Stockbot aprovecha la llamada a la función para llamar a la API externa. Deberá utilizar el modelo que admite la llamada a función, como llama-3.1-8b.
Requisitos previos
Necesitará un nodo Gaia preparado para proporcionar servicios LLM a través de una URL pública. Puede
En este tutorial, utilizaremos un nodo Llama3 público con el soporte de llamada a función.
Atributo | Valor |
---|---|
URL del punto final de la API | https://llama8b.gaia.domains/v1 |
Nombre del modelo | llama |
CLAVE API | gaia |
Si estás usando un servicio de Dominio, no tu propio nodo, necesitarás obtener una clave API de Gaia.
Ejecutar el agente
En primer lugar, necesitaremos obtener el código fuente del Stockbot bifurcado.
https://github.com/JYC0413/stockbot-on-groq.git de clones de git
CD Stockbot-on-Groq
A continuación, configure el .env
archivo.
cp .env.example .env.local
Aquí deberá configurar cuatro parámetros.
- LLAMAEDGE_BASE_URL: URL para la URL base de la API LLM.
- LLAMAEDGE_NOMBRE_MODELO: Nombre del modelo a utilizar.
- LLAMAEDGE_API_KEY: Clave API para acceder a los servicios LLM.
Si estás usando un servicio de Dominio, no tu propio nodo, necesitarás obtener una clave API de Gaia.
A continuación, tendremos que instalar las dependencias necesarias.
npm instalar
A continuación, vamos a ejecutar la aplicación localmente.
npm run dev
Finalmente, puede abrir http://localhost:3000 y hacer las preguntas relacionadas con las acciones.