La inteligencia artificial ya no solo responde, también toma decisiones. Con frameworks como LangGraph y plataformas como watsonx.ai , puedes construir agentes que razonen y actúen de forma autónoma 🤯.
En este artículo, te explicaremos cómo implementar un agente ReAct (Reasoning + Action) localmente y desplegarlo en IBM Cloud, todo esto con un ejemplo práctico que incluye una herramienta de consulta del clima 🌤️.
Necesitamos:
¿Lo tienes todo? Pues lo primero es lo primero, clonar el repositorio que usaremos como ejemplo. Está basado en los ejemplos oficiales de IBM.
git clone https://github.com/thomassuedbroecker/watsonx-agent-langgraph-deployment-example.git cd ./agents/langgraph-arxiv-research
Antes de nada, entendamos el proyecto de ejemplo.
[Developer Workstation] → [CI/Build Process] → [Deployment] ↓Los principales archivos del agente son:
ai_service.py | Archivo principal que inicia el servicio del agente en producción. |
agent.py | Lógica central del agente IA basado en LangGraph. Define el flujo de trabajo. |
tools.py | Herramientas conectadas al agente (Weather API). |
python3.12 -m venv .venv
source
./.venv
/bin/activate
python3 -m pip
install
--upgrade pip
python3 -m pip
install
poetry
También recomendamos el uso de Anaconda o miniconda. Nos permite gestonar entornos virtuales o paquetes de Python de forma sencilla y es muy utilizado en ML.
Para que Python pueda encontrar nuestros módulos personalizados (como los agentes y las herramientas), necesitamos incluir el directorio actual en la variable de entorno PYTHONPATH
export
PYTHONPATH=$(
pwd
):${PYTHONPATH}
echo
${PYTHONPATH}
Una vez tenemos listo el entorno es el momento de las variables. Debes crear un archivo config.toml si no lo tienes ya y usar tus credenciales de IBM Cloud:
[deployment]
watsonx_apikey
=
"TU_APIKEY"
space_id
=
"SPACE_ID"
deployment_id
=
"YOUR_DEPLOYMENT_ID"
[deployment.custom]
model_id
=
"mistralai/mistral-large"
# underlying model of WatsonxChat
thread_id
=
"thread-1"
# Más información: https://langchain-ai.github.io/langgraph/how-tos/persistence/
sw_runtime_spec
=
"runtime-24.1-py3.11"
Encontrarás tus variables aquí:
https://dataplatform.cloud.ibm.com/developer-access
Una vez allí, selecciona tu espacio de despliegue y copia los datos necesarios (API Key
, Space ID
, etc.).
Toca probar el agente:
source
./.venv
/bin/activate
poetry run python examples
/execute_ai_service_locally
.py
Ya que es un agente meteorológico ¿por qué no lo pruebas con algo como algo como…?
“What is the current weather in Madrid?”
La consola debería darte el tiempo en Madrid. ¡Enhorabuena! solo nos falta hacer el deploy en watsonx.ai
source
./.venv
/bin/activate
poetry run python scripts
/deploy
.py
config.toml
) con tus credenciales y espacio de despliegue.runtime-24.1-py3.11
).deployment_id
, necesario para interactuar con el agente después.✅ En resumen:
Toma tu agente local, lo prepara y lo convierte en un servicio accesible desde la nube.
{
"messages": [
{
"content": "What is the weather in Malaga?",
"data": {
"endog": [
0
],
"exog": [
0
] },
"role": "User"
}
] }
source ./.venv/bin/activate poetry run python examples/query_existing_deployment.py
Si te ha quedado alguna duda, te recomendamos el siguiente vídeo tutorial donde podrás seguir paso a paso el desarrollo conectado con watsonx.ai
Si quieres seguir explorando este tipo de implementaciones o aprender más sobre desarrollo cloud e inteligencia artificial, te invitamos a explorar nuestros cursos de IA👇
¿Te imaginas cómo sería tener una infraestructura potente y sin pagar licencias propietarias? Pues... se…
Cuando hablamos de servidores IBM Power, muchas decisiones parecen una batalla entre dos mundos: la…
IBM i 7.6 estará disponible el 18 de abril de 2025. IBM i es la evolución…
¿Te imaginas encontrar soluciones a tus problemas de Linux, AIX, IBM i, etc... en español?!🙀…
📌 ¿Te llama la atención las automatizaciones, IA, etc? Estás en tu sitio. En SIXE…
Post en constante actualización (basada exclusivamente en la opiniones y expectativas de SIXE) La evolución…