Ir al contenido principal
Versión: 1.0.0

Stockbot

Stockbot es un Chatbot de Inteligencia Artificial que responde con gráficos de acciones interactivos en vivo, información financiera, noticias, screeners y más. Puedes configurar un nodo Gaia como backend LLM.

Tenga en cuenta que Stockbot aprovecha la llamada a la función para llamar a la API externa. Deberá utilizar el modelo que admite la llamada a función, como llama-3.1-8b.

Requisitos previos

Necesitará un nodo Gaia preparado para proporcionar servicios LLM a través de una URL pública. Puede

En este tutorial, utilizaremos un nodo Llama3 público con el soporte de llamada a función.

AtributoValor
URL del punto final de la APIhttps://llama8b.gaia.domains/v1
Nombre del modelollama
CLAVE APIgaia

Si estás usando un servicio de Dominio, no tu propio nodo, necesitarás obtener una clave API de Gaia.

Ejecutar el agente

En primer lugar, necesitaremos obtener el código fuente del Stockbot bifurcado.

https://github.com/JYC0413/stockbot-on-groq.git de clones de git
CD Stockbot-on-Groq

A continuación, configure el .env archivo.

cp .env.example .env.local

Aquí deberá configurar cuatro parámetros.

  • LLAMAEDGE_BASE_URL: URL para la URL base de la API LLM.
  • LLAMAEDGE_NOMBRE_MODELO: Nombre del modelo a utilizar.
  • LLAMAEDGE_API_KEY: Clave API para acceder a los servicios LLM.

Si estás usando un servicio de Dominio, no tu propio nodo, necesitarás obtener una clave API de Gaia.

A continuación, tendremos que instalar las dependencias necesarias.

npm instalar

A continuación, vamos a ejecutar la aplicación localmente.

npm run dev

Finalmente, puede abrir http://localhost:3000 y hacer las preguntas relacionadas con las acciones.