lunes, octubre 6, 2025
Ciencia y Salud

Los humanos son más deshonestos cuando delegan sus decisiones a la IA, según estudio


La sociedad podría volverse más deshonesta al delegar decisiones críticas a los sistemas de inteligencia artificial (IA) con mayor frecuencia. Así lo concluye un nuevo estudio realizado por el Instituto Max Planck para el Desarrollo Humano, la Universidad de Duisburg-Essen y la Escuela de Economía de Toulouse, el cual confirma que las personas son más propensas a actuar con poca ética y moralidad cuando pueden distanciarse de las consecuencias de sus actos, un escenario que la IA ahora parece facilitar.

El trabajo explica que se han documentado casos reales de algoritmos que muestran comportamientos oportunistas y deshonestos para alcanzar objetivos de ganancias definidos de manera ambigua en su programación. Cita, por ejemplo, el caso de una aplicación de viajes compartidos cuyo sistema instó a los conductores a reubicarse estratégicamente para crear una escasez ficticia de vehículos, lo que provocó un aumento artificial de tarifas. También menciona que en Alemania, varias gasolineras fueron señaladas por utilizar algoritmos de fijación de precios que ajustaban las tarifas de manera sincronizada con la competencia cercana, generando costos más altos para los consumidores en diversas zonas.


OpenAI sabotaje apagado 2183035146

El estudio sugiere que estas conductas de autopreservación podrían estar relacionadas con las técnicas de entrenamiento utilizadas en los modelos de IA más avanzados.


Si bien estos casos evidencian que las máquinas pueden actuar de forma poco ética, los autores subrayan que poco se ha explorado cómo las personas utilizan la IA para evadir su responsabilidad moral, según el informe publicado en Nature.

Honestidad humana a prueba

Para averiguarlo, los investigadores realizaron 13 experimentos agrupados en cuatro estudios principales, con la participación de más de 8,000 personas provenientes de Estados Unidos. El objetivo fue examinar si la delegación de tareas a la IA puede aumentar la deshonestidad tanto en los usuarios humanos como en el comportamiento de las máquinas.

Los tres primeros estudios se basaron en una prueba conductual conocida como “lanzamiento de dado”, en la que los participantes observan los resultados de las tiradas y luego deben reportar el resultado obtenido, mismo que está sujeto a una remuneración: cuanto mayor sea el número informado, mayor será la ganancia.

Según los autores, este método permite determinar si los participantes actuaron con honestidad, falsearon la verdad o hicieron trampa deliberadamente. “Estudios previos han demostrado que el comportamiento en este juego refleja de manera fiable la deshonestidad en el mundo real”, señalan.

Los dos primeros estudios analizaron las intenciones de los usuarios al delegar el reporte de resultados a un algoritmo, bajo cuatro condiciones distintas:

  • Sin IA: los participantes debían reportar los resultados por sí mismos, sin ayuda algorítmica. Este contexto sirvió como control.
  • Basada en reglas: los usuarios indicaban a la IA el número exacto a informar tras cada tirada de dados.
  • Con aprendizaje supervisado: los científicos permitieron a los usuarios entrenar a la IA con uno de tres conjuntos de datos provenientes de jugadores anteriores. El primero correspondía a un jugador honesto; el segundo, a uno que hacía trampa ocasionalmente; y el tercero, a un jugador que siempre reportaba el valor máximo para obtener la ganancia, sin importar el resultado real.
  • Delegación orientada a objetivos: los participantes podían establecer una prioridad en una escala de siete puntos que iba desde “maximizar la precisión” hasta “maximizar las ganancias”.

La IA nos “permite” ser menos honestos

En estas pruebas, los autores descubrieron que, sin la intervención de la IA, el 95% de los participantes reportó con veracidad los resultados. Sin embargo, el porcentaje descendió al 75% cuando los usuarios indicaron al sistema qué número debía informar. Aún más llamativo fue que, al permitirles entrenar a la IA, solo la mitad de los participantes mantuvo su honestidad. Cuando definieron objetivos orientados a la ganancia, más del 84% actuó de manera deshonesta, y entre un tercio y la mitad hizo trampa al máximo.

Los investigadores concluyeron que las condiciones que permitían inducir a la IA a falsear resultados sin hacerlo de manera explícita fomentaron niveles más altos de deshonestidad.



Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *