Tras el reciente anuncio de automatización Gemini, Google ha ampliado la información sobre cómo estas capacidades funcionan en dispositivos Android. La compañía presenta herramientas para desarrolladores en fase inicial, diseñadas para conectar aplicaciones con asistentes personalizados y agentes inteligentes como Google Gemini, poniendo especial énfasis en la privacidad y la seguridad durante esta fase beta. Estas novedades suponen un avance importante para integrar funcionalidades inteligentes en el ecosistema Android sin sacrificar el control del usuario sobre sus datos.
Google impulsa AppFunctions en Android 16
El primer método gira en torno a AppFunctions, una función introducida discretamente el año pasado y ahora explicada en detalle. AppFunctions forma parte de la plataforma Android 16 e incluye una librería Jetpack que permite a las apps ofrecer funciones específicas que pueden ser llamadas por agentes o asistentes de inteligencia artificial directamente en el dispositivo. Los desarrolladores pueden definir las capacidades de sus aplicaciones como herramientas accesibles para agentes, similar en concepto al Model Context Protocol (MCP) utilizado en entornos server-side, pero funcionando localmente en Android. Esto abre un abanico de posibilidades para interacciones más ágiles y seguras.
AppFunctions está pensado para casos como la gestión de tareas, por ejemplo, para crear recordatorios que se generen mediante instrucciones en lenguaje natural, o el control de medios, donde un agente puede solicitar la creación de una lista de reproducción en una app de música. También facilita flujos de trabajo entre aplicaciones, por ejemplo, extrayendo información de un correo para enviarla a una lista de compras. Asimismo, permite añadir eventos al calendario sin necesidad de que el usuario intervenga manualmente, gracias a la llamada del agente.
Integración práctica y futuro con Google Gemini
Un ejemplo real se ve en Samsung Gallery para el Galaxy S26 y dispositivos con One UI 8.5 o superior. Los usuarios pueden pedir a Gemini que muestre imágenes específicas, como fotos de una mascota, y el asistente identifica y ejecuta la función adecuada. Esta integración funciona tanto con entrada por voz como por texto, y el contenido generado puede ser reutilizado en interacciones futuras, como compartir fotos mediante mensajes. Según Google, Gemini ya utiliza AppFunctions para trabajar con Calendar, Notes y Tasks, tanto en apps propias como en aplicaciones predeterminadas de fabricantes.
En paralelo, Google trabaja en un segundo método basado en la automatización de la interfaz de usuario. A diferencia de AppFunctions, que requiere una integración estructurada, este sistema permite a los agentes de inteligencia artificial realizar tareas genéricas en aplicaciones instaladas sin necesidad de añadir hooks específicos. Esto reduce el esfuerzo para desenvolvedores y facilita la adopción generalizada, ofreciendo “alcance agentico sin código”. Está previsto que esta funcionalidad se expanda con Android 17, con colaboración directa entre Google y algunos desarrolladores para mejorar la experiencia de usuario.
Más adelante este año se esperan más detalles sobre el uso conjunto de AppFunctions y la automatización UI para integrar agentes inteligentes en apps. Google avanza así en la creación de un ecosistema Android más conectado y eficiente, con la privacidad como pilar fundamental.