Ciencia & Tecnología
Expertos llaman a «desconfiar» de ChatGPT, Gemini y otras IA
Solo 27% de los usuarios en Alemania comprueban la veracidad de las respuestas de chatbots. No es un caso aislado en el mundo.
Solo 27% de los usuarios en Alemania comprueban la veracidad de las respuestas de chatbots. No es un caso aislado en el mundo.
Según una encuesta internacional, solo una cuarta parte de los usuarios en Alemania comprueban que los resultados producidos en consultas a chatbots de IA como ChatGPT, Google Gemini y Microsoft Copilot realmente correspondan a la verdad. En concreto, el 27 por ciento de los encuestados en este país afirmó que revisa textos, imágenes o traducciones generados por IA. Así lo demuestra el análisis internacional de la firma de auditoría y consultoría EY sobre el tema de la inteligencia artificial (IA). El promedio global de comprobación por parte de usuarios fue del 31 por ciento.
La disposición a verificar fue mayor en Corea del Sur (42 por ciento), así como en China y la India (40 por ciento cada uno). Con menos frecuencia que en Alemania, los usuarios de Francia y Suecia comprobaron poco sus resultados de IA: allí la cuota fue del 23 por ciento en cada caso.
Metodología de la encuesta sobre chatbots
Para la encuesta representativa se entrevistaron a unas 15.000 personas en 15 países entre diciembre de 2024 y febrero de 2025, más de 1.000 de ellas en Alemania. Un panorama similar surge a la pregunta de si los usuarios corrigen los contenidos generados por las IA: solo el 15 por ciento de los encuestados alemanes afirmaron que realizan o solicitan las correcciones pertinentes en los productos generados por IA, como textos o fotos, cuando estos contienen errores. En comparación internacional, la cifra es del 19 por ciento.
En China y la India, esta proporción es significativamente mayor: un 32 por ciento cada uno. En Francia (12 por ciento), Gran Bretaña y Japón (13 por ciento cada uno), incluso menos personas están dispuestas a modificar los resultados de las IA.
«Una llamada de atención»
El experto de EY, David Alich, advierte contra la confianza ciega en la tecnología. La proporción de usuarios de IA ha aumentado rápidamente en los últimos tiempos, especialmente en el área de creación de texto e imágenes. Cada vez más personas experimentan la IA como una herramienta útil tanto a nivel profesional como privado. Sin embargo, su uso requiere capacitación; es decir, es necesario saber cómo detectar errores en los chatbots de inteligencia artificial. De lo contrario, la tecnología también conlleva riesgos.
Los resultados de la IA suelen ser buenos, pero de ninguna manera son perfectos, señala el experto. En la mayoría de los casos es necesaria una autoridad de control humana. «El hecho de que solo una de cada cuatro personas consulte los resultados de la IA debería ser una llamada de atención e indicar que la tecnología se está utilizando de forma demasiado descuidada», afirma Alich.
Esto podría tener graves consecuencias, sobre todo en el entorno profesional, para los propios usuarios, pero también para sus empleadores.
el(DPA)
Deutsche Welle: DW.COM – Ciencia y Tecnologia