Es hora de distinguir entre las verdaderas capacidades de la inteligencia artificial y las promesas exageradas de las grandes tecnológicas, afirman Arvind Narayanan, profesor de informática en la Universidad de Princeton, y Sayash Kapoor, doctorando en la misma institución. Del mismo modo que antaño los vendedores ofrecían “aceite de serpiente” como una cura milagrosa cuando en realidad no tenía ningún beneficio médico, hoy muchas personas exageran el potencial de la IA. Narayanan y Kapoor te invitan a luchar por el futuro de la IA que tú deseas, en lugar de aceptar el que las empresas tecnológicas intentan venderte. getAbstract y soy50plus recomiendan este libro para todos aquellos que quieran saber la realidad de la IA actualmente.
Ideas clave del libro
-
- Las capacidades de la IA predictiva están enormemente exageradas.
- La IA predictiva suele fallar por cinco razones principales, lo que genera consecuencias perjudiciales en el mundo real.
- Es hora de aceptar los límites de la IA predictiva, al tiempo que se mejora su precisión cuando sea posible.
- La IA generativa conlleva riesgos serios y requiere supervisión, prácticas laborales justas y educación pública.
- La IA utilizada en la moderación de contenidos tiene dificultades con el lenguaje, el contexto y la desinformación.
- Para mitigar los riesgos de la IA, es necesario fortalecer las instituciones democráticas.
- Los mitos sobre el potencial de la IA abundan porque los propios actores de la industria exageran su rendimiento.
- Asumir los fracasos de la IA para cumplir lo prometido exige un cambio de mentalidad.
La IA predictiva suele fallar por cinco razones
- Una buena predicción puede conducir a una conclusión errónea. La IA puede detectar patrones en los datos que son estadísticamente correctos, pero que, sin un análisis más profundo, pueden llevar a malas decisiones. Por ejemplo, en un estudio, una herramienta de IA descubrió que los pacientes con asma sufrían menos complicaciones por neumonía, lo que parecía indicar que deberían recibir un nivel de atención más bajo. Sin embargo, los pacientes asmáticos son en realidad más vulnerables a la neumonía; experimentan menos complicaciones porque reciben un nivel de atención más alto.
- Las personas pueden intentar “engañar” a los sistemas de IA. Los candidatos a un empleo pueden llenar sus solicitudes con palabras clave cuando se postulan mediante sistemas de contratación automatizados. De manera similar, algunos incluyen estanterías de libros en el fondo de sus videos, ya que se ha descubierto que ciertos modelos de IA se basan en factores arbitrarios, como la presencia de libros, para evaluar a los candidatos.
- La dependencia excesiva de la IA sin supervisión. Las personas tienden a confiar en la IA incluso cuando se equivoca. En 2013, los Países Bajos sustituyeron parte de la toma de decisiones humanas por un sistema de IA diseñado para detectar fraudes en las ayudas sociales. El algoritmo señaló erróneamente a 30 000 padres como sospechosos, usando la nacionalidad como predictor de fraude, lo que afectó de manera desproporcionada a personas de origen turco, marroquí o de Europa del Este.
- Los datos de entrenamiento pueden no ser lo suficientemente representativos. Las decisiones de la IA dependen de los datos con los que se entrena. Por tanto, su precisión depende de cuánto esos datos representen a la población objetivo. Por ejemplo, el condado de Allegheny, en Pensilvania, diseñó un sistema de IA para predecir el riesgo de maltrato infantil, usando datos de asistencia social pública como base. Como las familias con mayores ingresos no estaban representadas en los datos, el sistema terminó señalando de forma desproporcionada a las familias de bajos recursos para investigación o separación de sus hijos.
- La IA predictiva puede agravar las desigualdades. Con frecuencia, la IA predictiva se utiliza de manera que perjudica desproporcionadamente a las comunidades marginadas. Tras la implementación de la Affordable Care Act de 2010, las aseguradoras presionaron a los hospitales para reducir costos, lo que llevó a usar IA para identificar pacientes de alto riesgo y asignar atención preventiva. El sistema Impact Pro de Optum clasificó erróneamente a pacientes blancos como de mayor riesgo que a los pacientes negros, porque asumía que un mayor gasto sanitario equivalía a mayores necesidades médicas, lo que resultó en una peor atención para los pacientes negros.
La IA generativa conlleva riesgos serios y requiere supervisión, prácticas laborales justas y educación pública.
Hay cosas que la inteligencia artificial hace bien, como generar y clasificar imágenes. Por ejemplo, cuando sales a caminar puedes tomar una foto de un árbol y usar una herramienta de IA basada en redes neuronales profundas para identificar su especie — algo increíblemente útil.
Las investigaciones iniciales también muestran que los trabajadores del conocimiento pueden beneficiarse de la IA generativa, utilizándola para tareas como la redacción o la programación asistida. Sin embargo, la IA generativa conlleva riesgos importantes.
Por ejemplo, la gente usa con frecuencia la IA generativa para crear o manipular imágenes de personas en línea. La mayoría de estos “deepfakes” son de naturaleza pornográfica y se producen sin el consentimiento de las personas retratadas. De cara al futuro, sería recomendable lanzar iniciativas de educación pública que ayuden a la población a diferenciar entre los deepfakes —que pueden difundir desinformación— y las fuentes de noticias confiables.
“En nuestra opinión, el daño más grave de la IA generativa es la explotación laboral que constituye el núcleo mismo de cómo se construye y se utiliza hoy en día.”
Las empresas contratan a personas en países con menos recursos para que etiqueten contenido tóxico y entrenen los modelos de IA generativa. Estos trabajadores suelen estar sobrecargados, mal pagados y expuestos a un fuerte trauma psicológico por la naturaleza del contenido que deben revisar.
Es difícil estimar cuántos anotadores de datos existen en el mundo, ya que las empresas operan sin transparencia y obligan a los trabajadores a firmar acuerdos de confidencialidad. Ha llegado el momento de un nuevo movimiento laboral que mejore las condiciones de quienes realizan tareas de anotación para la IA.
Cómo conseguir el libro: Ver en getAbstract o comprar en Amazon.
Compártelo con tus amigos y ayúdanos a llegar a más gente ?
Arvind Narayanan es director del Centro de Políticas de Tecnología de la Información y profesor de Informática en la Universidad de Princeton. Sayash Kapoor es estudiante de doctorando en el Centro de Políticas de Tecnología de la Información de la Universidad de Princeton.
getAbstract
getAbstract es la biblioteca más grande del mundo de resúmenes de libros de negocios y de mejora personal, resúmenes de conferencias y de reportajes económicos, que se expande cada día.
Para más información visíta nuestra página web pulsando AQUÍ
