Amazon y AWS continúan liderando el camino en la creación de tecnologías inclusivas, con avances significativos en la integración de asistentes de voz como Amazon Alexa. Estas herramientas permiten a los usuarios realizar consultas y recibir respuestas al instante, eliminando la necesidad de teclear, una característica invaluable para personas con discapacidades motoras, quienes están realizando múltiples tareas simultáneas o se encuentran lejos de un ordenador.
En la actualidad, los chatbots han transcendido su origen como tecnologías de nicho y se han convertido en una herramienta omnipresente en servicios de atención al cliente, operando 24/7 y proporcionando asistencia automatizada. Los recientes avances en modelos de lenguaje grande (LLM), específicamente en IA generativa, han facilitado conversaciones más naturales y fluidas. La introducción de asistentes de voz ha marcado el inicio de una era de interfaces conversacionales, donde la interacción verbal se está convirtiendo en la norma debido a su simplicidad y efectividad.
En este contexto, exploramos la construcción de un chatbot contextual basado en voz, completamente sin servidor, enfocado en la accesibilidad. Este proyecto no solo proporciona un asistente conversacional inteligente capaz de comprender y responder a entradas vocales de manera contextual, sino que también es adaptable para apoyar a usuarios con diversas discapacidades. Basado en Amazon Bedrock y utilizando el modelo de lenguaje Anthropic Claude, el asistente está diseñado para ofrecer soporte personalizado y realizar tareas específicas según las necesidades del usuario.
La integración de Anthropic Claude con la arquitectura sin servidor de Amazon Bedrock permite el despliegue de una solución altamente escalable y económica. Esta integración, demostrada en una aplicación de muestra disponible en el repositorio de GitHub, detalla técnicas avanzadas de procesamiento de lenguaje natural y estrategias para mejorar la accesibilidad para personas con discapacidades motoras.
El desarrollo del proyecto busca facilitar la comprensión de cómo construir un chatbot contextual basado en voz, empleando los últimos avances en inteligencia artificial y computación sin servidor. Un desafío clave identificado en la implementación fue la necesidad de indicar claramente cuándo iniciar y detener las conversaciones. Para solucionar esto, se introdujo un botón de «Hablar» que, al ser presionado, activa el proceso de transcripción de voz. Alternativamente, para personas con discapacidades motoras más severas, se puede implementar un botón físico dedicado o usar comandos de voz específicos, similares al uso de «Alexa» para comenzar una consulta.
La arquitectura de la solución utiliza servicios gestionados ofrecidos por AWS, todos ellos sin servidor y accesibles a través de sus API. La aplicación fue desarrollada en React, utilizando la herramienta de construcción Vite y el AWS SDK para JavaScript, integrando servicios como Amazon Polly para conversión de texto a voz, Amazon Transcribe para convertir voz a texto, y Amazon Bedrock para capacidades avanzadas de IA generativa.
Este desarrollo no solo mejora significativamente la accesibilidad para personas con discapacidades físicas, sino que también facilita el manejo de múltiples tareas a través de la interacción vocal, ofreciendo una experiencia más eficiente y humanizada. La esperanza es que esta tecnología pueda resolver algunos de los desafíos cotidianos que enfrentan las personas con discapacidades, permitiéndoles interactuar con la tecnología de manera más independiente y eficaz.