La inteligencia artificial no tiene por qué ser malvada. Solo tenemos que enseñarle bien.

Material original
Este año, ha habido informes sensacionales sobre DeepMind, una inteligencia artificial desarrollada por Google, o mejor dicho, su “comportamiento extremadamente agresivo” en los casos en los que se queda “solo” con los dispositivos. Los investigadores de Google han enfrentado a agentes inteligentes de IA en 40 millones de rondas de un juego de computadora de recolección de frutas. En cierto momento, las manzanas se agotaron y los agentes comenzaron a atacarse entre sí, eliminando la competencia, reflejando así el peor de los impulsos humanos.
No es difícil encontrar otros ejemplos de mala conducta que 'adopta' la IA, como el famoso robot Tay de Microsoft. Lanzado en Twitter a principios de 2016, se suponía que Tay 'aprendería' a través de la interacción del usuario. Pero prácticamente desde el principio, fue sometida a una serie de comentarios racistas, antisemitas y misóginos. Mientras se educaba sobre el medio ambiente, Tay comenzó a lanzar una serie de respuestas provocativas, incluido el famoso '11 de septiembre: la obra de Bush, Hitler sería mucho mejor que este simio en el poder'. Los desarrolladores cerraron el proyecto solo 16 horas después del anuncio de Tay.
El ejemplo es simple. Pero hay un desafío en ello. Por supuesto, miles de millones de personas expresan sus pensamientos, sentimientos y experiencias en las redes sociales todos los días. Pero entrenar una plataforma de inteligencia artificial utilizando información de las redes sociales para replicar una experiencia de usuario 'humana' es arriesgado. Esto es similar a criar a un niño y alimentarlo constantemente con información de FoxNews o CNN sin ningún aporte de los padres o instituciones sociales. En cualquier caso, el resultado final puede ser un monstruo.

La realidad es que la información de las redes sociales, que refleja de forma bastante objetiva la huella digital que dejamos, puede no corresponder en absoluto al estado real de las cosas o no ser del todo agradable. Algunas publicaciones reflejan una ambición extrema, otras están cubiertas con un velo de anonimato y muestran una abominación rara vez vista en la vida.
En general, la información social en sí misma no es una instantánea de quiénes somos realmente o quiénes deberíamos ser. Cualquiera que sea la información útil de los perfiles de las redes sociales para el aprendizaje de la IA, carece de un sentido de la ética o del marco moral para evaluar dicha información. ¿Qué comportamientos de todo el espectro de la experiencia humana que compartimos en Twitter, Facebook deben modelarse y cuáles deben evitarse? ¿Qué está bien y qué está mal? ¿Dónde está el bien y dónde está el mal?
Una capa de software para religión y ética en IA
Comprender cómo integrar un componente ético en la IA no es un desafío nuevo. Ya en los años 40 del siglo pasado, Isaac Asimov trabajó duro para elaborar sus propias leyes de la robótica. Ley # 1: “Un robot no puede dañar a una persona o, por su inacción, permitir que se le haga daño a una persona”. Pero estos problemas ya no son ciencia ficción. Existe una necesidad urgente de pautas morales que orienten a la IA, con la que compartimos cada vez más nuestras vidas. La importancia está creciendo a medida que la IA ya está creando su propia IA sin intervención humana, como está sucediendo ahora con AutoML de Google. Tay se ha convertido en un personaje molesto relativamente inofensivo. Mañana, fácilmente podría comenzar a desarrollar estrategias para grandes corporaciones o jefes de estado. ¿Qué reglas debería seguir y qué debería ignorar? La ciencia aún no tiene una respuesta clara, no se puede sacar del conjunto de información social, no se puede obtener ni siquiera con las mejores herramientas analíticas, por grande que sea el tamaño de la muestra.
Pero las respuestas se pueden encontrar en la Biblia. Y en el Corán, la Torá, el Bhagavad Gita y los sutras budistas. Están ocultos en las obras de Aristóteles, Platón, Confucio, Descartes y otros filósofos antiguos y modernos. Durante miles de años hemos inventado las reglas del comportamiento humano, principios básicos que idealmente nos permitirían vivir en paz y prosperidad. Las recetas más poderosas han cruzado la línea del milenio con cambios menores, mostrando así su relevancia. Más importante aún, estas enseñanzas se basan en principios similares de comportamiento moral y ético, desde la regla de oro de la moralidad y la idea del carácter sagrado de la vida hasta el valor de la honestidad y el bien de la generosidad.

A medida que la IA evoluciona, necesitamos enfoques más religiosos, filosóficos y humanitarios para florecer que nunca. En muchos sentidos, la naturaleza del potencial de la mayoría de las tecnologías disruptivas depende directamente de la eficacia con la que apliquemos la sabiduría que ha pasado a través de los siglos. El enfoque no debe ser doctrinal ni inclinarse hacia una filosofía en particular. Pero para que la IA exista de manera efectiva, se necesita un fundamento ético. La información por sí sola no es suficiente. La IA necesita una religión: un código que no cambie según el contexto o el conjunto de entrenamiento.
En lugar de padres y sacerdotes, la responsabilidad de la educación ética recaerá cada vez más en los hombros de los desarrolladores de software y los científicos directos. Tradicionalmente, la ética no ha formado parte de la educación de los ingenieros informáticos y esto puede cambiar. En el caso de los algoritmos orientados a las consecuencias éticas, no es suficiente simplemente comprender las ciencias duras. Como enfatizó el investigador principal de IA Will Bridewell, es imperativo que los desarrolladores del futuro 'comprendan el estado ético de su trabajo y comprendan las implicaciones sociales de sus diseños'. En su razonamiento, toca la posibilidad de estudiar los principios éticos de Aristóteles y el budismo para el “desarrollo de la intuición en términos de comportamiento moral y ético”.

En un nivel más profundo, la responsabilidad recae en las organizaciones que emplean a estos desarrolladores, la industria a la que pertenecen, los gobiernos que regulan estas áreas y, en última instancia, nosotros. Ahora, las políticas públicas y la regulación en el campo de la IA siguen en su infancia, si es que existen. Pero ya se escuchan las voces de quienes no son indiferentes a este problema. Open AI, una empresa creada por Elon Musk y Sam Altman, busca controlar estos aspectos. Los líderes tecnológicos han formado una asociación sobre inteligencia artificial para explorar cuestiones éticas. Están surgiendo supervisores como AI Now.
Estamos buscando un marco ético que comunique exactamente cómo la IA traduce la información en decisiones y las hace justas, sólidas y representan el mejor lado de la humanidad.
Y esto no es una ilusión. Un escenario similar ya nos espera en un futuro próximo. Vale la pena enfatizar que en el caso de la inteligencia artificial de recolección de frutas “altamente agresiva” de Google, los investigadores finalmente cambiaron el contexto. Los algoritmos se han modificado deliberadamente para crear un entorno colaborativo. Como resultado, el triunfo fue celebrado por aquellos agentes que aprendieron a trabajar juntos. La lección es esta: la IA puede reflejar los mejores aspectos de nuestra naturaleza si le mostramos cómo hacerlo.
Por Ryan Holmes, director ejecutivo de Hootsuite
Lenta pero seguramente, la ciencia ficción se está moviendo de la categoría de leyendas de libros a la vida cotidiana. La inteligencia artificial chocará inevitablemente con la inteligencia de su creador y, con suerte, en esta etapa, a la IA ya se le “enseñará” a no dañar a los humanos. De lo contrario será SkyNet con todo lo que implica. Por otro lado, el peligro puede no estar del lado de las altas tecnologías, porque puede haber figuras que estén dispuestas a utilizar el avance en detrimento y perseguir algunos de sus propios objetivos egoístas. Y no se trata de robar un gato criptográfico. De modo que tenemos por delante el mismo enfrentamiento entre el bien y el mal, solo que en un nuevo nivel.
gorjeo
