La inteligencia artificial (IA) ha avanzado a pasos agigantados en los últimos años, y uno de los aspectos más sorprendentes de esta evolución es su capacidad para persuadir. Un reciente estudio realizado por la Escuela Politécnica Federal de Lausana (EPFL) ha revelado que modelos de lenguaje como GPT-4 son un 64% más persuasivos que los humanos. Este hallazgo plantea importantes preguntas sobre el impacto de la IA en la comunicación y la manipulación de la opinión pública.
### La Eficacia de la IA en la Persuasión
El estudio, liderado por Francesco Salvi, emparejó a 900 residentes de Estados Unidos con otros humanos o con ChatGPT para debatir sobre temas sociopolíticos. Los resultados fueron sorprendentes: la IA demostró ser significativamente más convincente que los participantes humanos. Este fenómeno se atribuye a la capacidad de la IA para personalizar sus mensajes, adaptándolos a las necesidades y deseos de cada interlocutor.
Carlos Carrasco Farré, profesor de Sistemas de Información, IA y Ciencia de Datos en la Toulouse Business School, destaca que esta capacidad de personalización representa un riesgo considerable en el ámbito digital. La IA puede microsegmentar su mensaje de manera instantánea y a gran escala, lo que le otorga una ventaja en contextos como campañas políticas y marketing personalizado. Esto plantea la necesidad de una regulación más estricta para evitar la manipulación de la opinión pública a través de la persuasión algorítmica.
La personalización de los mensajes es clave para entender por qué la IA es tan efectiva en la persuasión. Según el estudio, cuando la IA tiene acceso a información personal del interlocutor, puede utilizar ese conocimiento para mejorar sus habilidades persuasivas. Esto sugiere que, a medida que las interacciones entre humanos y sistemas de IA se vuelven más comunes, la IA aprenderá a conocer mejor a sus ‘oponentes’ en los debates, generando argumentos a medida que pueden ser más convincentes que los de un ser humano.
### Implicaciones Éticas y Necesidad de Regulación
La capacidad de la IA para influir en la opinión pública plantea serias preocupaciones éticas. David E. Losada, catedrático de Ciencia de la Computación e Inteligencia Artificial en la Universidad de Santiago de Compostela, enfatiza la importancia de que las plataformas digitales y los reguladores adopten medidas para identificar y supervisar el uso de modelos de lenguaje en contextos persuasivos sensibles. Esto es especialmente relevante en un mundo donde los asistentes de IA se integran en plataformas de mensajería, redes sociales y servicios de atención al cliente.
Los autores del estudio sugieren que, al igual que se reguló la publicidad dirigida, es fundamental plantear acciones para controlar la persuasión algorítmica. La IA tiene el potencial de influir en la opinión pública de maneras que podrían ser perjudiciales si no se gestiona adecuadamente. OpenAI, la compañía detrás de GPT-4, ha reconocido en su última System Card que sus herramientas pueden ser más persuasivas que los humanos en ciertos contextos, aunque aclara que en términos generales no superan la capacidad humana en la mayoría de los casos.
La creciente capacidad de la IA para persuadir también plantea preguntas sobre la responsabilidad de las empresas que desarrollan estas tecnologías. A medida que la IA se convierte en una herramienta común en la comunicación, es esencial que los desarrolladores y las plataformas asuman la responsabilidad de garantizar que sus herramientas no se utilicen para manipular a las personas de manera inapropiada.
En resumen, el estudio de la EPFL subraya la necesidad de un enfoque más crítico hacia la interacción entre humanos y sistemas de IA. La capacidad de la IA para persuadir de manera efectiva puede ser una herramienta poderosa, pero también puede ser un arma de doble filo si no se maneja con cuidado. La regulación y la supervisión son esenciales para garantizar que la IA se utilice de manera ética y responsable, protegiendo así a los usuarios de posibles manipulaciones y abusos en el ámbito digital.