Olvídate de «Ok Google», el Asistente de Google te responderá si lo miras

Google ha presentado una nueva función que te permitirá prescindir del famoso “Ok Google”, y hablar directamente con tu asistente de voz.

«No más necesidad de Ok Google» para que el Asistente de Google funcione. No lo decimos nosotros, sino el propio buscador. Durante su conferencia Google I/O, la compañía de Mountain View presentó extensamente Android 13, pero también tuvo algunas palabras para los asistentes conectados.

Entre las nuevas funciones anunciadas, «Mira y habla», que estará disponible en el altavoz Google Nest Hub Max. La promesa es simple: gracias a “100 señales captadas por la cámara y el micrófono”, los asistentes conectados ya no necesitarán escuchar la famosa frase para activarse. Bastará con hablar mientras se miran para que se iluminen.

Copia de la miniatura Mira y hablaLa función Look and Talk fue anunciada por Google // Fuente: Google

Cientos de señales capturadas

Look and Talk ya está disponible en los EE. UU., pero solo en Google Nest Hub Max. No hay fecha anunciada en este momento para un despliegue en el resto del mundo. Esta es una opción, que por tanto puede activarse o no en función de las necesidades de los usuarios.

La función ha sido diseñada para garantizar la privacidad del usuario, explica Google, lo que significa que solo la podrán usar las personas autorizadas para hacerlo, sin temor a ver que un Nest Hub Max comienza a responder a las voces. ella podía escuchar en la televisión. El asistente conectado reconocerá a los usuarios con las funciones Face Match y Voice Match de Nest Hub Max.

nest-hub-max-unoEl Google Nest Hub Max // Fuente: Google

Una vez habilitada, la opción Mirar y hablar te permitirá simplemente hablar y pedirle cosas al Google Nest Hub Max, sin necesidad de decir «Ok Google». Por otro lado, será necesario que estés cerca del dispositivo (no más de un metro y medio), y que mires en su dirección. El asistente tiene en cuenta 100 señales para confirmar que le estás hablando, como la proximidad, la orientación de la cabeza y la mirada, o el movimiento de los labios y lo que Google llama “conocimiento del contexto”.

Lea También:  Bitcoin pierde el 50% de su valor en 6 meses: ¿debemos entrar en pánico?

Es importante destacar que todos los sensores han sido probados y ajustados para funcionar con todos los tonos de piel. De hecho, este es un problema recurrente para las inteligencias artificiales, que a menudo están demasiado entrenadas con fotos de hombres blancos y que reconocen mal los tonos en tonos de piel más oscuros.

Otro detalle importante, en el que insiste Google: todos los vídeos resultantes de estas interacciones serán procesados ​​directamente por el asistente conectado, y no se compartirán con Google, ni con nadie más.

Deja un comentario