Los que vimos ese capítulo de Black Mirror, donde una mujer encarga un robot para reemplazar a su novio fallecido, Westworld, o Ex Machina donde un genio usa la información de las redes, para programar robots con un Look & Feel humano, nos hemos preguntado…¿puede ser esto posible?

Desde los adelantos observados en neurociencia traslacionalingeniería neuromórfica que vienen presentando la Universidad de Stanford y el MIT, la respuesta es afirmativa. Sin embargo la pregunta más apropiada sería: ¿cuándo?

Ya desde los modelos antropomórficos presentados en 2014 hemos detectado varias brechas, especialmente de carácter físico estructural, para aportarles plasticidad a los movimientos, tecnológicas, como baterías de larga duración, velocidad de procesamiento, piel sintética interactiva, otras cognitivas, para procesar lo que estas unidades observan en el medio ambiente, pero quizá la brecha central en este momento está siendo… ¿cómo logramos que estas unidades se tornen más empáticas?

¿Cómo hacemos que aprendan a jerarquizar lo que realmente le importa a su interlocutor?

Simplemente aumentando la reserva cognitiva a través de técnicas de estimulación cerebral.

Mientras tanto, Alexa, Siri, Bixby y Google Assistant siguen trabajando en una interacción de comandos por voz pluri-lingüistas, las investigaciones de lenguajes extraterrestres van aportándonos una diversidad de interpretaciones, pudiendo asistir a la comunicación entre las máquinas y sus interlocutores humanos, clasificando las respuestas.

Desde el 2012 cuando Ridley Scott presentó al humanoide de ficción: David , hasta hoy, sigue de moda ver grupos de científicos discutiendo acerca de si los robots deben sentir emociones o no.

A mi criterio, esta discusión nace de una necesidad confrontativa y es atemporal. Una especulación filosófica de los que no comprenden el propósito humano. (ver artículo)

La clave está en resignificar el pasado, comprender el presente, pudiendo así abordar el futuro desde la apertura, libres de gravedad y condicionamientos.

Lejos estamos «culturalmente» de aceptar que un robot tome sus propias decisiones. Por el momento se los programa con respuestas fijas (de comunicación por voz, reducidos actos y movimientos toscos) como la propuesta de esta serie de Netflix.

Ficción de Humanoide Masculino presentado en la serie: Black Mirror.

De tanto en tanto, se les agrega algunos modismos para crear empatía. O sea, dar la sensación de que cada unidad nos escucha y observa desde su particularidad. Esto implica programar respuestas aleatorias inusuales, para crear la sensación de una personalidad diferenciada. Algo que ya se viene experimentando en el Aibo de Sony en forma precaria.

Sony Corp’s entertainment. Ver Video!

La cosa va de seguir progresando y la Inteligencia Artificial (ver artículo) se irá alimentando de algunas tecnologías y disciplinas tales como Deep Learning, Machine Learning, Computer Vision, Speech Analysis, Big Data & Data Mining, Conectividad 5G e IoT (ver artículo del Internet de las cosas), Bio y NanotecnologíaRealidad Virtual y Realidad Aumentada, Impresión 3DQuantum Computing… entre otras en función de “el código cerebral” y atender con respuestas a la altura de las expectativas.

La comunidad científica se manifiesta ofreciendo discursos bastante contradictorios. Mientras que los Rusos parecen trabajar diariamente en un proyecto que comenzó en 2012 llamado Global Future 2045, el colombiano Juan Carlos Niebles, investigador principal del laboratorio de inteligencia artificial de la Universidad de Stanford en California,  dice a CNet:»la inteligencia artificial, por ahora, no es tan inteligente». De hecho, «las llamamos inteligentes porque soñamos que algún día sean más inteligentes, pero realmente son bien tontas: asocian patrones y los relacionan entre ellos» nada más, afirma.

El desafío planteado en este artículo requeriría de integrar las unidades de inteligencia artificial con prototipos estéticos como este:

En la Fundación, estamos convencidos que los toscos movimientos que experimentan las unidades actuales, no seguirán siendo así por mucho tiempo. Ya que no solo la tecnología irá evolucionando, sino que nosotros como humanos, iremos adquiriendo competencias linguísticas, abordando algunas cuestiones éticas, y comprendiendo los riesgos que esto implica, mientras seguimos investigando sobre nuestras emociones e invirtiendo cada vez más horas del día en interactuar con asistentes de inteligencia artíficial. De esta forma nuestras expectativas sobre las unidades de robótica se irán transformando.

Es importante comprender que las unidades fabricadas hasta hoy, sirven para guiar y acompañar las decisiones humanas, en lugar de reemplazarlas.

10 Players que nos están sorprendiendo

Affectiva: compañía que lleva recopilados millones de videos faciales de 87 países, para aislar variables que indiquen signos de emociones y crear empatía.

Octavia: una robot estilo femenino en manos del Centro de Inteligencia Artificial de la Marina de los EE.UU es capaz de interactuar con cierta empatía. Viendo, oyendo y palpando elementos. Y Watson su contrapartida búrdamente masculina.

SoftBank Robotics: quien ofrece Pepper, un humanoide (que luce como un niño) construido para acompañarnos. De los observados en el CES 2018, es el que más me impresionó, por su calidad de reacción a las conductas humanas. Mientras balbucea algunas preguntas, está buscando aprender más sobre los gustos, hábitos y quién es el interlocutor que se encuentra enfrente. Pero aunque Pepper podría tener la capacidad de reconocer las emociones humanas, respondiendo con sonrisas felices o expresiones de tristeza, Pepper no siente tales emociones.

Starmind AI Technology: una empresa que conecta nuestra experiencia permitiéndonos acceder a todos los conocimientos de la organización. La empresa declara ser capaz de aumentar la eficiencia y conectar con el talento.

Boston Dynamics: empresa de ingeniería y robótica que se especializa en la construcción de robots. En diciembre de 2013 fue comprada por Google y producen algunas propuestas que atemorizan.

Touch Bionics: primera y compleja prótesis biónica del mundo que puede ser controlada por una aplicación de iPhone.

Willow Garage: laboratorio de investigación robótica dedicada a la creación de software de código abierto para robots personales. Scott Hassan, que hizo aportaciones al desarrollo de la tecnología de Google, fundó Willow Garage en 2006. Ver más.

Unimation: autora del primer robot industrial del mundoUnimate. Fundada en 1959 por los estadounidenses Joseph Engelberger y George Devol junto a un pequeño grupo de ingenieros y programadores de la universidad de Stanford,

Rethink Robotics: conocida por producir robots colaborativos como Sawyer y Baxter , robots utilizados en fábricas que pueden «enseñar» nuevas habilidades en lugar de programarlas.

Disney Imagineering Research & Development: Contrató un grupo de científicos que lideran y producen unidades para facilitar su trabajo. Ver video abajo.

Un desarrollo del Dr Fabián Sorrentino, creador del Modelo MƐT® Este artículo es parte de la currícula de la Carrera de Coaching & Mentoring de Ser.Red. Y una extensión bibliográfica del Manual del Mentor.