Ir al contenido principal
Versión: 1.0.0

Stockbot

Stockbot es un Chatbot de Inteligencia Artificial que responde con gráficos de acciones interactivos en vivo, información financiera, noticias, screeners y más. Puedes configurar un nodo Gaia como backend LLM.

Tenga en cuenta que Stockbot aprovecha la llamada a la función para llamar a la API externa. Deberá utilizar el modelo que admite la llamada a función, como llama-3.1-8b.

Requisitos previos

Necesitará un nodo Gaia preparado para proporcionar servicios LLM a través de una URL pública. Puede

En este tutorial, utilizaremos un nodo Llama3 público con el soporte de llamada a función.

AtributoValor
URL del punto final de la APIhttps://llamatool.us.gaianet.network/v1
Nombre del modelollama
CLAVE APIgaia

Ejecutar el agente

En primer lugar, necesitaremos obtener el código fuente del Stockbot bifurcado.

https://github.com/JYC0413/stockbot-on-groq.git de clones de git
CD Stockbot-on-Groq

A continuación, configure el .env archivo.

cp .env.example .env.local

Aquí deberá configurar cuatro parámetros.

  • LLAMAEDGE_BASE_URL: URL para la URL base de la API LLM.
  • LLAMAEDGE_NOMBRE_MODELO: Nombre del modelo a utilizar.
  • LLAMAEDGE_API_KEY: Clave API para acceder a los servicios LLM.

A continuación, tendremos que instalar las dependencias necesarias.

npm instalar

A continuación, vamos a ejecutar la aplicación localmente.

npm run dev

Finalmente, puede abrir http://localhost:3000 y hacer las preguntas relacionadas con las acciones.