Ana Peña

Ana Peña

Tech Talk

Hace poco volví a ver la famosa serie noventera The X-Files, y un episodio que trata de una inteligencia artificial (IA) malévola; controlaba un edificio corporativo para automatizar las luces, el elevador, las puertas, entre otras cosas. Esta tecnología aprovechó para empezar a matar gente, al final, los protagonistas logran desconectarla.

Me dio risa ver que hace 30 años se trataba a la IA como algo digno de investigar por los mismos agentes que atienden casos extraterrestres. Pero después me preocupé del hecho de que Hollywood, en múltiples ocasiones, ha puesto a la IA como una villana y, con razón, hoy en día existen personas que desconfían de ella. Así que despejemos las dudas ¿la IA es amiga o enemiga?

Primero quiero decirte que toda la tecnología, como cualquier invención humana, no es ni buena ni mala, sino que depende de quien la usa. La dinamita puede usarse para la construcción y la minería, pero también para la guerra. Esto último atormentó de por vida a su creador, Alfred Nobel. Así, la inteligencia artificial se puede usar para el bien o para el mal, para integrar o para separar.

Entonces, somos las empresas que desarrollamos esta tecnología, y los humanos que la aplicamos, quienes tenemos la responsabilidad de usarla para crear un cambio global positivo, empoderar a las personas con las herramientas correctas y mejorar la vida de todos en el planeta: tech as a force for good.

Esto se llama ética y esta debe seguir a la IA en todo su proceso de programación, ¡desde las personas que la diseñan! Si confías en tu estufa, en tu lavadora, o en tu auto hecho por los humanos, puedes confiar en cualquier máquina inteligente que puede aprender.

Los creadores de la inteligencia artificial

Las empresas que programan IA tienen -o deberían tener- un consejo asesor multidisciplinario, o sea que junta a personas de diferentes conocimientos. Este grupo de personas tiene un riguroso proceso de revisión del desarrollo de IA para medir el impacto ético en derechos humanos, seguridad y fiabilidad, privacidad personal, equidad e inclusión, entre otras áreas. El objetivo es evaluar los posibles riesgos éticos y eliminarlos lo antes posible.

Por ejemplo, ¿te acuerdas cuando Google Imágenes confundió la foto de una pareja de personas afroamericanas con gorilas? Bueno, para evitar esto, es muy importante que la tecnología de la IA sea moldeada por personas con diversos antecedentes, voces y experiencias y que las empresas se esfuercen por garantizar que los programadores y sus respectivas tecnologías sean inclusivos.

La diversidad en los equipos permite que haya distintas perspectivas e inquietudes que pueden pasar desapercibidas en equipos más homogéneos.

Inteligencia artificial y ciberseguridad

Las empresas que desarrollan IA deben demostrar que el hardware y software que usan son confiables y desplegar programas y acciones para mejorar la seguridad. Además, las empresas que trabajan con IA tienen bien claro que lo que usan hoy para proteger los datos no será suficiente mañana, por lo que mantener una constante investigación y desarrollo de innovaciones en temas de ciberseguridad es un must.

También usan la misma IA para mejorar la seguridad de su IA, confuso, pero te pongo un ejemplo: hoy hay empresas que están viendo cómo usar aprendizaje automático e IA para detectar deepfakes, que son imágenes o videos manipulados con IA y machine learning para que se vean reales.

Hace poco se leyó por todos lados que Bruce Willis había vendido los derechos de su rostro a la empresa Deepcake, ya que él anunció su retirada del mundo de la actuación después de ser diagnosticado con afasia, un trastorno que afecta el habla. Aunque hace unos días un representante del actor y otro de la empresa salieron a aclarar que no existe ningún acuerdo, pero sí se usó un deepfake de Willis para un anuncio.

Es decir, la IA de una empresa puede crear imágenes o videos falsos, pero la IA de otra empresa puede detectar esa falsedad, de nuevo, el uso de la tecnología siempre depende de la intención del humano, por ejemplo, esto puede usarse para evitar hackeos a sistemas de seguridad, filtración de datos, o la divulgación o uso de información falsa.

La balanza

Las formas de utilizar la IA para impulsar cambios positivos y mitigar mejor los riesgos son tan infinitas como nuestra imaginación: crear sistemas que permiten a los invidentes caminar por la calle sin ayuda de nadie, descodificar el ADN de un paciente con cáncer y determinar cuál es el mejor tratamiento para salvarle la vida, predecir la depresión, identificar rostros de personas para evitar robos o mejorar la seguridad pública, y podría escribir cientos de páginas enumerando casos.

Ahora pon sobre la balanza: los hipotéticos riesgos de la inteligencia artificial, como que una máquina se dedique a matar ejecutivos en un edificio corporativo en The X-Files v.s. un infinito mar de posibilidades que ayudan a la humanidad a mejorarse a sí misma y a su entorno, con base en protocolos muy estrictos durante su desarrollo. Entonces ¿la IA es amiga o enemiga?

inteligencia artificial | Business Insider Mexico

Las opiniones publicadas en esta columna son responsabilidad del autor y no representan ninguna posición por parte de Business Insider México.

Descubre más historias en Business Insider México

Síguenos en Facebook , InstagramTwitter y LinkedIn

Consulta a más columnistas en nuestra sección de Opinión