Takeo Kanade (Hyōgo, Japón, 78 años) habla con soltura de la visión artificial a la que le lleva dedicados más de 40 años. Esta disciplina científica permite ver un partido de fútbol desde el punto de vista del balón o un partido de tenis a través del ojo de halcón. Los algoritmos fundamentales que ha desarrollado Kanade junto a su compañero Bruce Lucas, llamado método Lucas-Kanade, ayudan a ordenadores y robots a comprender imágenes en movimiento. Su trabajo también ha contribuido a mejorar la cirugía robótica, la conducción autónoma y el reconocimiento facial. “En el futuro los robots serán mejores que los humanos, de una manera o de otra”, admite. Gracias a sus desarrollos
El investigador se doctoró en Ingeniería Eléctrica en la Universidad de Kyoto en 1974. Descubrió su pasión por la ingeniería cuando salía a pescar con 5 años y se fabricaba su propio anzuelo. Es catedrático de Informática y Robótica en la Universidad Carnegie Mellon de Pittsburgh (EE UU) y fundador del Centro de Tecnología para la Calidad de Vida, que dirigió entre 2006 y 2012.
Pregunta. ¿Cree que la visión robótica llegará un día a igualar la visión humana?
Respuesta. Sí, y en algún momento puede ser mejor que la de los humanos. De hecho, en algunas áreas ya son mejores, como en el caso del reconocimiento facial por ordenador. Durante mucho tiempo se pensó que era un área con una gran ventaja, ya que somos buenos reconociendo a la gente que conocemos. Sin embargo, si conocemos a alguien nuevo en un entorno desconocido, a menudo solemos perderle de vista.
P. ¿Cuál de los dos tiene menor probabilidad de fallar?
R. El ser humano. Los coches autónomos pueden ver hasta 200 metros en todas las direcciones y reconocer la ubicación de otros coches, peatones o bicicletas de una manera muy precisa, pero nosotros tenemos mejor comprensión. Podemos tener algunas expectativas sobre lo que le está ocurriendo al coche que está delante de ti. También puedes reconocer si estás conduciendo cerca de un colegio, y prever que haya niños que puedan cruzar la carretera. Los ordenadores están intentando llegar a ese nivel de comprensión, pero por ahora no es tan bueno; y es algo fundamental para evitar accidentes.
P. ¿La conducción será 100% autónoma algún día?
R. Dentro de diez años o incluso menos. Sin embargo, hay que convencer a la gente. Es como el uso del coche, que a pesar de que causa accidentes y muertes, produce un beneficio tan grande que, como sociedad, lo aceptamos.
P. En el mundo de la visión artificial, ¿cuáles son los retos del futuro?
R. ¿Puedes estar en un mundo que esté mapeado desde el mundo real? Ese es el siguiente nivel. Yo lo llamo realidad virtualizada. La realidad virtual ahora no es virtual: es un mundo real que está virtualizado. También está la posibilidad de interactuar con el entorno y con las personas del mundo virtual. Que alguien pueda verse reflejado en un espejo dentro del mundo virtual. Otro reto es la teletransportación, pero sin descomponer tu cuerpo y enviarlo al otro lugar, como en la película Star Trek. Se realiza con unas herramientas, como si fueran drones, que te dan una fuerza de reacción en las piernas a través del cuerpo para que te puedas teletransportar, visual y acústicamente, y que puedas interactuar físicamente en tiempo real.
P. ¿Cómo se puede prevenir el uso malicioso de deepfakes (vídeos falsos)?
R. Me siento parcialmente responsable de ello. En 2010, hice un vídeo del presidente Obama hablando en japonés con unas imágenes generadas con mi cara. Pensé que era un video de broma. No se puede luchar contra los deepfakes, lo único que lo impide es nuestra integridad.
P. Pero si la tecnología se puede volver contra nosotros…
R. Se utiliza con el fin de engañar, pero la tecnología no puede saber cuál es su objetivo. Se puede crear un tipo de tecnología y usarla con fines distintos para los que había sido desarrollada. Hay que ser más inteligente, más rápido que ella y estar informado. La marca de agua, por ejemplo, cuando las utilizas y se conoce, en ese mismo momento ya se ha creado una manera instantánea de borrarla.
P. ¿Cómo se puede aprovechar la visión artificial para mejorar la calidad de vida de las personas con discapacidad?
R. Se trata de desarrollar una tecnología de calidad de vida, como hacemos en nuestro centro. Su esencia es aumentar la independencia de personas con discapacidad o de personas mayores. No se trata de que los robots lo hagan todo, sino lo contrario. Mi fórmula del robot perfecto equivale a lo que quieres hacer menos lo que puedes hacer. Es decir, compensar la parte que el humano no puede hacer para que pueda hacerlo junto al robot. Además, en los casos de rehabilitación o educación, el robot perfecto debe de hacer un poco menos para que la persona recupere la motivación y la capacidad.
P. ¿Cómo han contribuido sus trabajos a la precisión quirúrgica?
R. Los robots cirujanos pueden utilizar sensores más desarrollados que los cirujanos humanos. Los sensores humanos son muy limitados, nosotros no tenemos sensores acústicos o sensores multimodales. Antes de una operación quirúrgica, los androides pueden, por ejemplo, detectar la ubicación de un tumor, su forma o tamaño, con rayos X o una resonancia magnética, y en el momento de la cirugía, utilizan sensores de imágenes.
P. ¿Qué le ha aportado el origami a su carrera?
R. La esencia de mi teoría, A Theory of Origami World (Teoría del mundo Origami, en inglés) es que la percepción de la forma tridimensional de una imagen debe derivar de una explicación matemática y no del resultado de un aprendizaje. Si por ejemplo dibujas una caja, existen cinco formas más posibles que se generan exactamente con la misma imagen, pero son diferentes a la caja. Cuando doy una charla, por ejemplo, bromeo con el público diciendo que la sala de conferencias y el edificio podrían ser de otras formas y el público mira a su alrededor y se lo imagina.
Fuente: EL PAÍS