- Gracias por registrarte !
- ¿De dónde surgió la idea de usar la IA para clasificar a los humanos y por qué las empresas están interesadas en usar esta tecnología?
- ¿Existe alguna forma segura o ética en la que la tecnología de inteligencia artificial pueda usarse para clasificar a los humanos?
- En su libro, habla sobre las formas cuestionables y, a veces, poco éticas en que se recopilan y utilizan los datos para entrenar la IA. ¿Por qué la industria de la IA es tan inflexible en el uso de datos y métodos de recopilación de datos que se ha demostrado que exacerban la desigualdad?
- ¿Cree que la industria de la IA está haciendo lo suficiente para combatir estos problemas éticos? ¿El potencial para crear nuevas tecnologías se interpone en el camino de la implementación de medidas de seguridad?
- ¿Cuál es su sentido de la comprensión de las personas sobre estos temas y cómo pueden afectarlos directamente? ¿Debería el público en general prestar más atención a la industria de la IA?
Gracias por registrarte !
Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación
El futuro es la inteligencia artificial, al menos según la industria tecnológica.
A medida que la industria avanza hacia la perspectiva de la Inteligencia Artificial General, o IA que tiene la capacidad de aprender y actuar como humanos, una de las formas en que se utiliza la IA es para clasificar a las personas. Las empresas están sacando provecho de la tecnología para usar en todo, desde la vigilancia hasta las redes sociales.
Sin embargo, los expertos dicen que a medida que avanza la IA, muchos ingenieros y científicos aún pasan por alto el daño que estos algoritmos pueden infligir a las comunidades marginadas.
y no se está haciendo lo suficiente para regular la industria.
Kate Crawford, investigadora de IA en la USC Annenberg y autora de « Atlas of AI », amplió los riesgos de confiar en la IA para ayudar a clasificar a los humanos.
¿De dónde surgió la idea de usar la IA para clasificar a los humanos y por qué las empresas están interesadas en usar esta tecnología?
Ha habido una larga historia de uso de IA para tareas de clasificación como el reconocimiento de emociones y la detección automática de raza, género, sexualidad e incluso delincuencia que se remonta a décadas. En mi libro « Atlas de IA », analizo esta historia para rastrear las formas en que las empresas han utilizado estas técnicas en contextos como la vigilancia y la publicidad dirigida. Pero no existe un consenso científico de que estos enfoques sean válidos en absoluto. Clasificar a las personas de esta manera supone que el género, la raza y la sexualidad son biológicos y visibles desde el rostro. Eso, como sabemos, simplemente no es cierto. Estos enfoques se basan en la premisa de que la biología es el destino, donde nuestros rostros se convierten en nuestro destino. Llamo a esto un « impulso frenológico » : el deseo de categorizar el carácter de las personas en función de la apariencia.
¿Existe alguna forma segura o ética en la que la tecnología de inteligencia artificial pueda usarse para clasificar a los humanos?
Consideremos lo que sucede en la clasificación de género. Reducir a los humanos a categorías binarias de género y hacer que las personas transgénero sean invisibles o « desviadas » son características comunes de los esquemas de clasificación en el aprendizaje automático. El artículo de Os Keyes sobre la detección automática de género en el reconocimiento facial muestra que el 95 por ciento de los artículos en el campo tratan el género como binario, y la mayoría describe el género como inmutable y fisiológico. Esto va en contra de décadas de investigación que muestran que el género es cultural, relacional e histórico. Si bien algunas empresas como Facebook respondieron creando más de 50 categorías de género, no aborda el daño más profundo de asignar a las personas a categorías de género o raza sin su consentimiento en primer lugar.
Los sistemas de aprendizaje automático están, de una manera muy real, construyendo raza y género : están definiendo el mundo dentro de los términos que han establecido, y esto tiene ramificaciones duraderas para las personas clasificadas. Cuando tales sistemas son aclamados como innovaciones científicas para predecir identidades, esto borra los problemas técnicos y éticos de cómo se construyeron los sistemas.
Entonces, la pregunta aquí es ¿por qué hacerlo? Aparte de las cuestiones éticas serias, es probable que clasificar el género, la raza o la sexualidad de las personas sin su consentimiento o aporte tenga una tasa de error significativa. Los sistemas técnicos están haciendo intervenciones ideológicas cuando dan etiquetas simplistas a algo tan complejo como la identidad personal, y lo hacen utilizando un conjunto reductivo de posibilidades de lo que es ser humano. Eso restringe el rango de cómo las personas son representadas y entendidas, lo que tiene serios impactos para todos nosotros.
En su libro, habla sobre las formas cuestionables y, a veces, poco éticas en que se recopilan y utilizan los datos para entrenar la IA. ¿Por qué la industria de la IA es tan inflexible en el uso de datos y métodos de recopilación de datos que se ha demostrado que exacerban la desigualdad?
Los modelos de aprendizaje automático requieren flujos continuos de datos para ser más precisos. Pero las máquinas son asintóticas y nunca alcanzan la precisión total, lo que justifica la extracción de más datos de tantas personas como sea posible. Esto ha creado un cambio de ideas como el consentimiento informado individual o la revisión ética de la investigación con sujetos humanos a la creación de « sujetos de datos » : aglomeraciones de puntos de datos sin subjetividad o contexto o derechos claramente definidos. Ese tipo de pensamiento ha creado un tipo de distancia ética y promovido una cultura en la que los ingenieros no son recompensados por pensar en las responsabilidades más amplias de lo que construyen.
¿Cree que la industria de la IA está haciendo lo suficiente para combatir estos problemas éticos? ¿El potencial para crear nuevas tecnologías se interpone en el camino de la implementación de medidas de seguridad?
Cuando se revela que los sistemas de IA producen resultados discriminatorios en las categorías de raza, género o discapacidad, algunas empresas se comprometen a reformar sus herramientas o diversificar sus datos. Pero el resultado suele ser una respuesta técnica limitada, generalmente un intento de abordar los errores técnicos y los datos sesgados para que el sistema de IA parezca más justo. Hay mucho más por hacer para abordar la lógica subyacente del uso de la clasificación automatizada y el daño potencial que esto puede causar.
¿Cuál es su sentido de la comprensión de las personas sobre estos temas y cómo pueden afectarlos directamente? ¿Debería el público en general prestar más atención a la industria de la IA?
Definitivamente he visto un aumento en la conciencia pública en torno a los problemas de sesgo y clasificación en la IA, pero lo que más se necesita es una acción regulatoria. Algunas entidades gubernamentales, como el Consejo de la Unión Europea, la Oficina del Comisionado de Información del Reino Unido y la Comisión Federal de Comercio están dando pasos firmes hacia la regulación, pero necesitamos más esfuerzos en muchos países para garantizar que las personas estén protegidas de estos daños.