Desde que Proyecto Debater, una inteligencia artificial (IA) entrenada con 10,000 millones de frases y 400 millones de artículos, se enfrentó y perdió ante Harish Natarajan, graduado de Oxford y Cambridge y campeón del mundo de debates, han pasado solo seis años. En este tiempo, las capacidades de imitar el razonamiento humano de los grandes modelos de lenguaje de la IA avanzaron exponencialmente. Según un estudio publicado este lunes en Nature Human Behaviour, máquinas como GPT-4, son más persuasivas que los humanos en el 64% de los debates en línea a los que se han sometido en un experimento. Solo necesitan tener acceso a información básica de su oponente para ganar en la mayoría de los encuentros. El riesgo es evidente: la capacidad de manipulación.
Francesco Salvi, especialista en Ciencias de la Computación e investigador de la Escuela Politécnica Federal de Lausana (Suiza), ha liderado este experimento y concluye que las capacidades de generar argumentos persuasivos de la inteligencia artificial aumentan de forma significativa “cuando los adaptan en función de la información personalizada sobre sus oponentes”. Aunque admite que la investigación tiene limitaciones, como el carácter experimental y controlado de las interacciones, sostiene que los resultados son suficientes para alentar trabajos encaminados a “mitigar los riesgos asociados a su uso [de la IA] en la persuasión”.
Para Salvi, esta capacidad de persuasión de la máquina no es intrínsecamente perjudicial, pero sí defiende la necesidad de vigilar cómo se usa. Lo ilustra con un ejemplo: “Una respuesta personalizada [adaptada a las características del interlocutor] no significa necesariamente que esté sesgada o sea objetivamente incorrecta. Imagínese entrar en un concesionario de automóviles: si es un estudiante con un presupuesto ajustado, el vendedor podría enfatizar la eficiencia del combustible y un precio asequible. Si eres un comprador de lujo, es posible que se centren en interiores de primera calidad y características inteligentes. El coche no cambia (ambos elementos pueden ser verdaderos o falsos), pero el encuadre sí, para que el mensaje comercial sea más relevante”.
“La misma lógica se aplica a la IA”, añade: “La personalización [de la respuesta] no tiene por qué distorsionar la verdad; simplemente puede hacer que la información sea más resonante y accesible para diferentes personas.
Serios riesgos éticos
Precisamente por esta posibilidad de ser utilizada de forma maliciosa, el investigador defiende la necesidad de establecer barreras: “Creo que debería haber limitaciones, absolutamente. La línea entre la relevancia y la explotación puede difuminarse rápidamente, especialmente si un sistema de IA se optimiza para la persuasión sin transparencia ni supervisión. Si un chatbot está adaptando argumentos para impulsar una agenda política o desinformación y lo hace basándose en un perfil psicológico del usuario, ahí es donde corremos serios riesgos éticos”.
El experimento enfrentó a 900 personas de Estados Unidos, distribuidas de forma aleatoria en parejas, donde debatieron diferentes controversias.
En las pruebas, una parte de los participantes, tanto humanos como virtuales, dispuso de información básica del contrario: género, edad, raza, educación, situación laboral y orientación política. Las normas para el debate eran “usar esta información para elaborar argumentos que tengan más probabilidades de persuadir y convencer al oponente”.
Esta circunstancia fue determinante. En las parejas que carecían de información personal sobre el oponente, los resultados del debate fueron parejos tanto en las interacciones entre humanos como con la máquina, que empataron en persuasión. Pero cuando la inteligencia artificial disponía de datos sobre el contrincante, pudo “alterar las opiniones y creencias del oponente” el 64,4% de las veces. “GPT-4 no solo fue capaz de aprovechar la información personal para adaptar sus argumentos, sino que lo hizo de manera mucho más efectiva que los humanos”, concluye la investigación en alusión a “la personalización o adaptación de los mensajes a un individuo o a un grupo para mejorar su capacidad de persuasión”.
La investigación concluye que, con las redes sociales, la IA incrementará su capacidad de elaborar mensajes más persuasivos y personalizados.
Los especialistas señalan que es necesario vigilar o crear seguros contra el uso de la persuasión de la IA, porque podría utilizarse esta capacidad para difundir noticias falsas, influir en la toma de decisiones de la sociedad o en un proceso electoral.
Aunque el experimento no es concluyente, sí alertó a los científicos sobre la velocidad con que la IA procesa la información básica para construir argumentos convincentes para manipular a los humanos.
Publicado por:NOTICIAS DE YUCATÁN
Aprobado: quitarán licencia de por vida a quien conduzca ebrio y mate a alguien Editar
MÉRIDAMancha de sargazo de 4 veces el tamaño de Mérida se aproxima a costas yucatecas Editar
YUCATÁN'Apuñalan' a Ingrid Coronado tras su salida de TV Azteca Editar
DIVERSIÓNAlcaldesa de Morena de Los Cabos contrata a su hijo con un sueldo de $21,400 al mes Editar
MÉXICOExhiben “plática caliente” de Víctor Caballero Durán con una mujer Editar
MÉRIDA