Saltar al contenido
ᐅ HielosMendez – Información digital que te dejara helado 🧊🥶

Google contrató fotógrafos para ayudar a entrenar la cámara de ‘clips’ con tecnología de inteligencia artificial

Hasta ahora, todas las cámaras de tu vida han estado completamente bajo tu control: tú decides qué filman y durante cuánto tiempo. La próxima cámara Clips de Google es diferente. Utiliza el aprendizaje automático para decidir qué es importante y luego procesa o descarta el metraje en consecuencia. Google presentó este dispositivo en octubre de 2017, pero aún no está disponible. Se espera que salga a la venta pronto, y ahora Google ha detallado cómo sintonizó la red neuronal de la cámara para comprender qué es un momento significativo.

La idea es que Clips se ejecute continuamente, pero solo guardará los clips de video que crea que querrá. También hay un botón del obturador para capturas manuales. Tiene tres horas de duración de la batería y 16 GB de almacenamiento local. No carga ningún video en la nube para su procesamiento, por lo que la red neuronal en el dispositivo (llamada Moment IQ) necesitaba ser extremadamente eficiente.

En muchos sentidos, Clips es la encarnación de lo que Google llama «diseño centrado en el ser humano». Esa es simplemente la idea de que los productos de IA deberían hacer algo útil para el usuario sin agregar estrés o complicaciones adicionales. The Clips observa el mundo y te ofrece el video que cree que te hará sonreír. Sin embargo, entrenar a la red para que comprenda un concepto abstracto como un video memorable no fue tarea fácil.

Como todas las redes neuronales, Clips necesitaba ver montones de videos «buenos» y «malos» para ajustar su comportamiento. Algunos de los marcadores de la red eran obvios. Los videos borrosos o parcialmente obstruidos pueden ignorarse fácilmente. Sin embargo, Google también necesitaba enseñarle a la IA sobre el concepto de tiempo. No querrás demasiado relleno en tus clips, incluso si sucede algo interesante en algún momento.

clips

El equipo detrás de Clips inicialmente solo mostró las imágenes de modelos que consideraron hermosas o interesantes. Junto con la comprensión de la profundidad de campo, la iluminación y la regla de los tercios, los empleados de Google pensaron que la red podría comprender qué hace que un clip sea bueno. Sin embargo, ese no fue el caso. Para ayudar a plasmar el matiz de los videos memorables en Clips, Google contrató a un documentalista, un reportero gráfico y un fotógrafo de bellas artes para decidir qué imágenes usar en los Clips de capacitación.

Google admite que la IA no será perfecta, pero el equipo parece estar seguro de que será capaz de generar «buenos» videos. No sabremos qué parte del video de Clips será bueno hasta que se lance. Todavía no hay fecha de lanzamiento, pero costará $ 250 cuando salga.