Un año de escándalos tecnológicos: ¿cómo podemos frenar la inteligencia artificial?

Basado en materiales de AI Now Institute

Un año de escándalos tecnológicos: ¿cómo podemos frenar la inteligencia artificial?

El AI Now Institute, con sede en la Universidad de Nueva York, ha publicado su tercer informe anual sobre el estado de la inteligencia artificial en 2018. También incluye diez cláusulas que brindan pautas para gobiernos, investigadores y cualquier persona asociada con la industria.

2018 ha sido un año muy dramático para la IA, desde el impacto percibido Facebook en la limpieza étnica en Myanmar hasta los intentos de manipulación electoral de Cambridge Analytica, el motor de búsqueda secreto y censurado de Google para que China qué enojo causó a los empleados Microsoft de sus contratos con el Servicio de Migración de los Estados Unidos, que separó a las familias migrantes. Una gran cantidad de titulares de alto perfil, y las razones enumeradas anteriormente son solo algunos ejemplos entre cientos de títulos similares.

En el corazón de estos escándalos de IA similares a avalanchas hay una cuestión de responsabilidad: ¿Quién tiene la culpa si los sistemas de IA nos perjudican? ¿Cómo evaluaremos este daño y cómo eliminar sus consecuencias? ¿Dónde debemos intervenir y qué investigaciones adicionales debemos realizar para asegurarnos de que esta intervención sea eficaz? Hasta ahora, hay muy pocas respuestas a estas preguntas. Y los mecanismos regulatorios existentes son muy débiles en comparación con lo que se requiere en esta área. A medida que crece la penetración, la complejidad y la escala de estos sistemas, existe una preocupación creciente por la falta de responsabilidad y supervisión, incluidos los procedimientos legales relacionados.

Entonces, basándose en informes anteriores de 2016 y 2017, el Instituto de Inteligencia Artificial elaboró ​​su informe de 2018, donde estos temas ocuparon un lugar central. Proporciona un conjunto de pautas prácticas para ayudar a desarrollar pautas para administrar estas poderosas tecnologías.

Estas son las pautas.

1. Los gobiernos deben abordar la regulación de la IA empoderando a las agencias relevantes y habilitándolas para supervisar y monitorear estas tecnologías por aplicación.

Los sistemas de IA se están implementando rápidamente, sin una gobernanza, supervisión y responsabilidad adecuadas. Áreas como la salud, la educación, el derecho penal y el bienestar tienen su propia historia, marco legal y riesgos específicos. Los modelos de certificación y estándares nacionales genéricos ciertamente necesitarán obtener una especificación industrial más completa para una regulación más detallada. Necesitamos un enfoque específico que se centre no en la tecnología en sí, sino en su aplicación en un área específica. La Administración Federal de Aviación de EE. UU. Y la Administración Nacional de Seguridad del Tráfico en las Carreteras son buenos ejemplos de este enfoque.

2. El reconocimiento facial y el reconocimiento de emociones necesitan una regulación estricta para proteger el interés público.

Dicha regulación debería incluir leyes nacionales con una supervisión estricta, límites claros y claridad para el público. Las personas deberían tener derecho a negarse a implementar estas tecnologías tanto en el ámbito público como en el privado. Un simple anuncio público de su uso no es suficiente. El umbral para cualquier acuerdo debe ser alto, dados los peligros de una vigilancia constante y universal. El reconocimiento de emociones requiere una atención especial. Es una forma de reconocimiento facial que está diseñada para detectar aspectos como la personalidad, los sentimientos, la salud mental y el 'compromiso' de los empleados a partir de imágenes o videos. Tales posibilidades no están respaldadas por una investigación científica exhaustiva y se utilizan de manera irresponsable y poco ética, lo que a menudo recuerda a pseudociencias como la frenología y la fisonomía. Y si el reconocimiento de emociones se aplica en la contratación, los seguros, la educación y la policía, planteará riesgos muy graves a nivel personal y social.

3. La industria de la inteligencia artificial necesita urgentemente nuevos enfoques de gestión.

Como muestra el informe, las estructuras de gobernanza interna en la mayoría de las empresas de tecnología no proporcionan responsabilidad para los sistemas de IA. La regulación gubernamental es importante, pero los líderes de la industria de la IA también necesitan mecanismos internos de responsabilidad que vayan más allá de los simples estándares éticos. Estos deben incluir la representación de los empleados de primera línea en la junta directiva, los consejos de ética externos y el monitoreo e implementación independientes de las medidas de transparencia. Los expertos externos deben poder auditar y publicar información sobre sistemas críticos, y las empresas deben asegurarse de que su infraestructura de IA sea clara y transparente, incluida la forma en que se implementa y aplica la IA.

4. Las empresas que utilizan inteligencia artificial deben abandonar los secretos comerciales y otros requisitos legales que imposibilitan la rendición de cuentas del sector público.

Los proveedores y desarrolladores que crean inteligencia artificial y sistemas de toma de decisiones automatizados para uso gubernamental deben aceptar descartar los secretos comerciales y otros requisitos legales que pueden impedir que su software se verifique y comprenda por completo. Las reglas del secreto empresarial son un obstáculo para las salvaguardias legales y contribuyen al “efecto de caja negra”, creando sistemas impenetrables y no responsables. Esto hace que sea difícil evaluar el grado de sesgo, cuestionar decisiones y corregir errores. Cualquiera que cree tecnología para su uso en el sector público debe exigir a los proveedores que renuncien a estos requisitos antes de celebrar cualquier acuerdo.

5. Las empresas de tecnología deben proteger a los objetores de conciencia, las organizaciones de empleados y los denunciantes de irregularidades éticas.

La autoorganización y la resistencia de los trabajadores de la tecnología han actuado como una fuerza para la responsabilidad y la toma de decisiones éticas. Las empresas de tecnología deben proteger el derecho de los empleados a organizarse, emitir exposiciones y tomar decisiones éticas. Esto significa una política clara y protección de los objetores de conciencia, el derecho de los trabajadores a saber en qué están trabajando y la capacidad de evitar este trabajo sin un castigo posterior. Los empleados que plantean problemas éticos también deben ser protegidos, al igual que aquellos que plantean divulgaciones en interés público.

6. Las organizaciones de protección al consumidor deben aplicar las leyes de equidad publicitaria a los productos y servicios de inteligencia artificial.

Con la exageración en torno a la IA creciendo constantemente, la brecha entre las promesas de marketing y las propiedades reales del producto solo se está ampliando. Y esto aumenta los riesgos tanto para los compradores privados como para los clientes comerciales, a menudo con consecuencias fatales. Al igual que con otros productos y servicios que tienen el potencial de influir significativamente o explotar a las personas para sus propios fines, quienes venden IA deben cumplir con altos estándares y cumplir sus promesas, especialmente cuando hay una falta de base científica adecuada para cumplir esas promesas y las implicaciones a largo plazo no están claras.

7. Las empresas de tecnología deben comprometerse a abordar la discriminación en el lugar de trabajo.

Las empresas de tecnología y la inteligencia artificial en general son un área en la que intentan formar y contratar a tantos empleados diferentes como sea posible. Y si bien esto es importante, existe el riesgo de pasar por alto los casos en los que se discrimina a las personas. Las empresas deben abordar este tipo de problemas en el lugar de trabajo y explorar los vínculos entre las culturas excluyentes y los productos que crean y que solo pueden perpetuar las prácticas discriminatorias. Este cambio de enfoque debe ir acompañado de acciones prácticas de contratación.

8. La integridad, la responsabilidad y la transparencia en la inteligencia artificial requieren una comprensión completa de toda la “cadena de suministro”.

Para tener una responsabilidad significativa, debemos ser capaces de comprender y rastrear mejor los componentes básicos del sistema de IA y la 'cadena de suministro completa' en la que se basa. Esto significa el origen y uso de datos de entrenamiento, datos de prueba, modelos, API y otros componentes de infraestructura del ciclo de vida del producto. A esto lo llamamos 'control sobre la cadena de suministro completa' de los sistemas de inteligencia artificial y es un requisito previo para auditorías más exigentes. Una 'cadena de suministro completa' también significa costos ambientales y laborales reales, que incluyen el uso de energía, mano de obra en los países en desarrollo para generar datos de capacitación y trabajadores de clic para mantener y desarrollar sistemas de IA.

9. Se necesita una mayor financiación para los litigios, la gestión laboral y la participación de la comunidad en cuestiones de responsabilidad de la IA

Aquellas personas que corren mayor riesgo de ser perjudicadas por los sistemas de inteligencia artificial suelen ser las que peor pueden resistir las consecuencias al mismo tiempo. Necesitamos un mayor apoyo para los mecanismos de reparación y el compromiso cívico. Esto significa apoyar a los defensores de la comunidad para que representen a aquellos que están separados de la asistencia social mediante decisiones algorítmicas, apoyar a las organizaciones cívicas y sindicatos que abogan por grupos en riesgo de pérdida de empleo y explotación, y mantener una infraestructura para la participación pública.

10. El estudio de la inteligencia artificial en las universidades no debe limitarse a las disciplinas de informática e ingeniería.

La IA comenzó como un fenómeno interdisciplinario, pero ha evolucionado a lo largo de las décadas hasta convertirse en una disciplina técnica. Y a medida que la IA se aplica cada vez más en la esfera social, es necesario ampliar la gama de disciplinas a las que afecta, es decir, extraer conocimientos de las ciencias sociales y las humanidades. La IA se planeó originalmente para su uso en la sociedad y no puede limitarse al campo de la informática y la ingeniería, lo que impide que los estudiantes aprendan a explorar la vida social. La ampliación del espectro disciplinario en el estudio de la IA brindará una mayor atención al contexto social y nos permitirá centrarnos en las amenazas potenciales del uso de sistemas de IA en la sociedad humana.

Por supuesto, al ser un informe oficial, este conjunto de recomendaciones está condenado a ser, por un lado, demasiado clerical y, por otro, demasiado divorciado de la realidad. Qué bonitas suenan las cláusulas sobre la lucha contra la discriminación (sin embargo, con una clara impronta de las especificidades locales y estadounidenses) o que las empresas deberían proporcionar información importante literalmente a todos los que quieran, es hermosa y completamente irreal. Y, sin embargo, muchas cosas aquí te hacen pensar. La regulación regulatoria, como siempre, no está a la altura de los avances tecnológicos y, en el futuro, esto podría generar muchos más problemas de los que se podría suponer ahora.

¿Quizás ve algunas formas de resolver los problemas indicados? ¿O agregarías tus artículos a esta lista? ¿Cuáles le parecen importantes y cuáles son inverosímiles? ¡Comparte en los comentarios!

Rate article
Todo lo que necesita saber sobre los teléfonos inteligentes
Add a comment