Stockbot
Stockbot es un Chatbot de Inteligencia Artificial que responde con gráficos de acciones interactivos en vivo, información financiera, noticias, screeners y más. Puedes configurar un nodo Gaia como backend LLM.
Tenga en cuenta que Stockbot aprovecha la llamada a la función para llamar a la API externa. Deberá utilizar el modelo que admite la llamada a función, como llama-3.1-8b.
Requisitos previos
Necesitará un nodo Gaia preparado para proporcionar servicios LLM a través de una URL pública. Puede
En este tutorial, utilizaremos un nodo Llama3 público con el soporte de llamada a función.
Atributo | Valor |
---|---|
URL del punto final de la API | https://llamatool.us.gaianet.network/v1 |
Nombre del modelo | llama |
CLAVE API | gaia |
Ejecutar el agente
En primer lugar, necesitaremos obtener el código fuente del Stockbot bifurcado.
https://github.com/JYC0413/stockbot-on-groq.git de clones de git
CD Stockbot-on-Groq
A continuación, configure el .env
archivo.
cp .env.example .env.local
Aquí deberá configurar cuatro parámetros.
- LLAMAEDGE_BASE_URL: URL para la URL base de la API LLM.
- LLAMAEDGE_NOMBRE_MODELO: Nombre del modelo a utilizar.
- LLAMAEDGE_API_KEY: Clave API para acceder a los servicios LLM.
A continuación, tendremos que instalar las dependencias necesarias.
npm instalar
A continuación, vamos a ejecutar la aplicación localmente.
npm run dev
Finalmente, puede abrir http://localhost:3000 y hacer las preguntas relacionadas con las acciones.