Hace unos meses no sorprendíamos con el anuncio de que SONY presentaba sus nuevos sensores IMX500 y 501 que iban a integrar la AI en el propio sensor óptico.
Aunque ya conocíamos (y habíamos hecho algún pequeño proyecto) utilizando la cámara Deeplens de Amazon, la idea de bajar aún más la computación «edge» no solo a nivel de máquina sino a nivel de pixel abre un inmenso mundo de posibilidades.
Es necesario un enfoque diferente para permitir una visión eficiente de las máquinas inteligentes.
Dos trabajos de la colaboración entre las Universidades de Bristol y Manchester han mostrado cómo la detección y el aprendizaje pueden combinarse para crear novedosas cámaras para sistemas de inteligencia artificial.
Esta mejora de la eficiencia puede verse, por ejemplo, en el ojo de la rana, que tiene detectores que localizan objetos parecidos a moscas, directamente en el punto donde se perciben las imágenes.
Los trabajos, uno dirigido por Laurie Bose y el otro por Yanan Liu en Bristol, han revelado dos refinamientos hacia este objetivo:
Uno es implementar CNNs (Convolutional Neural Networks), una forma de algoritmo de inteligencia artificial para permitir la comprensión visual, directamente al nivel de la imagen.
Las CNNs que el equipo ha desarrollado pueden clasificar “fotogramas” a miles de veces por segundo, sin tener que grabar estas imágenes o enviarlas a su procesamiento.
Este método haría que los sistemas robotizados fueran mucho más eficientes y seguros, ya que no sería necesario grabar imágen alguna.
El trabajo ha sido posible gracias a la arquitectura SCAMP desarrollada por Piotr Dudek, de la Universidad de Manchester, y su equipo.
El SCAMP es un chip procesador de cámara que el equipo describe como un Pixel Processor Array (PPA).
Un PPA tiene un procesador incrustado en todos y cada uno de los pixeles que pueden comunicarse entre sí para procesar de forma verdaderamente paralela.
1002