Cerca del 31% de los internautas españoles considera que ‘ChatGPT’ es una herramienta peligrosa, frente al 16% que considera que es una fuente de información «fiable», según se desprende de una encuesta realizada a españoles de entre 18 y 74 años por la Organización de Consumidores y Usuarios (OCU), junto al resto de organizaciones de Euroconsumers.
Por el contrario, el 38% de los usuarios de ‘ChatGPT’ creen que es una fuente de información fiable y el 22% de usuarios piensa que es una herramienta peligrosa. En este sentido, los usuarios que si que confían se inclinan más hacia la confianza de que su privacidad y sus datos están protegidos cuando usan ‘ChatGPT’ o sistemas similares. Así, casi la mitad de los encuestados (42%) que lo utilizan tienen una confianza moderada y el 45% bastante o mucha confianza.
No obstante, un 37% de todos los encuestados (usuarios de ChatGPT y no usuarios de ChatGPT) expresan que creen que la Inteligencia Artificial (IA) conducirá a un mayor abuso de datos privados/personales. En este sentido, el 31% de todos los encuestados confía en que las autoridades europeas puedan controlar los datos recopilados a través de ChatGPT y el 29% tiene alta confianza en las autoridades nacionales.
Asimismo, el 30% también piensa que las autoridades europeas y nacionales deberían tener la opción de poder bloquear temporalmente ‘ChatGPT’ si se trata de un asunto de interés nacional/europeo. Sin embargo, la experiencia con la prohibición temporal por parte de las autoridades italianas mostró que, a pesar de esto, el 20% de los usuarios italianos de ‘ChatGPT’ continuaron usándolo a través de una VPN privada y el 26% simplemente cambió a otras alternativas de software basadas en IA.
La encuesta constata que la mayoría de los encuestados (58%) cree que los consumidores deben estar bien informados cuando se trata de un sistema de decisiones automatizado. Sin embargo, el 31% de españoles se declaran a día de hoy bien informados sobre la Inteligencia Artificial. Mientras esto ocurre, un 15% encuestados piensa que la IA ya está muy presente en su vida diaria.
Al mismo tiempo, un 11% de los encuestados considera que la legislación actual es lo suficientemente adecuada para regular de manera eficiente las actividades basadas en IA; de hecho, un 37% cree que la IA conducirá a un mayor abuso de datos privados/personales y una mayoría (56%) cree firmemente que la IA nunca debe usarse para vigilar a los ciudadanos.
La encuesta revela que uno de cada dos encuestados han probado ‘ChatGPT’. Además, muestra que el 17% lo usa de vez en cuando, el 10% con frecuencia y un 3% a diario. Aun así, el 82% de los jóvenes entre 18 y 34 años ya ha usado la aplicación alguna vez.
Sin embargo, para los internautas que no lo usan las razones son la «falta de confianza en las respuestas generadas», que nunca han oído hablar del programa o la preocupación por la privacidad.
En cuanto a la principal razón por la que los encuestados utilizan ChatGPT u otros programas basados en ChatGPT, los encuestados confirman que es la búsqueda de información (74%), seguida del uso para generar textos (58%) o resumir textos extensos (41%); como fuente de inspiración para crear contenido (36%) o generar imágenes (31%).
Además, el 35% de todos los encuestados están convencidos de que puede ayudar a ahorrar mucho tiempo en muchas profesiones, aunque casi la misma cantidad (32%) cree que hará más vaga a la gente o creará más desempleo (28%).
Según la encuesta, en general, los usuarios de ChatGPT están muy satisfechos con esta herramienta; principalmente con la facilidad de uso (89% satisfechos/muy satisfechos), también con la eficacia en la generación de contenidos y la facilidad para registrarse (83%) y algo menos con la fiabilidad de las respuestas generadas por ‘ChatGPT’ (76%).
En este sentido, esta satisfacción general parece conducir también a una ventaja competitiva. Así, el 36% de los encuestados españoles que usaron ‘ChatGPT’ a través de ‘BING’ de Microsoft afirmaron que se convirtió en su principal motor de búsqueda por este motivo.
La OCU, ante el ChatGPT, aconseja precaución con el uso de esta tecnología y solicita a las administraciones una normativa que proteja suficientemente a los usuarios y sus datos.
Asimismo, considera que es necesario cumplir una serie de «buenas prácticas» en el desarrollo de las inteligencias artificiales para que sean «éticas, transparentes, imparciales y respeten los derechos fundamentales».
En este sentido, aconseja transparencia sobre el tipo de información con la que se ha entrenado la herramienta y la fuente de la que proviene; asunción de responsabilidad por la veracidad de la información proporcionada o, en su defecto, claridad acerca de si está o no comprobada esa información y de las formas de comunicar su exactitud; compromisos para evitar que los algoritmos de la herramienta lleven a discriminación de género, raza, religión, socioeconómica o de cualquier otro tipo produciendo información diferente en función de estas características; compromiso de no contribuir a delitos y de colaborar con la ley si se descubren conductas de riesgo de delitos.
Asimismo, considera que las inteligencias artificiales y todas las tecnologías (robots, algoritmos, etc.) deben tener obligación de identificar, prevenir, mitigar, rendir cuentas y responder (sus responsables incluso penalmente) por los impactos negativos de sus actividades. Por ello, pide que se adopte el principio de precaución ante consecuencias o usos imprevisibles de la IA.