a close up of a cell phone with a logo on it

En una carrera por competir con el famoso ChatGPT desarrollado por OpenAI y Microsoft, Google lanzó su propio sistema de inteligencia artificial conocido como Bard en marzo de este año. Sin embargo, la compañía ha dejado claro que su chatbot está en período de prueba y ha advertido que la información proporcionada por él puede ser inexacta o incluso falsa.

La responsable de Google en el Reino Unido, Debbie Weinstein, afirmó en una entrevista con la BBC que Bard no es el lugar al que se debe acudir para buscar información específica. En cambio, instó a los usuarios a verificar cualquier respuesta dada por el chatbot buscándola posteriormente en Google, lo que deja entrever la falta de confianza en la precisión del sistema.

El problema de la inexactitud y desinformación de Bard ha sido destacado por una investigación de Newsguard, una plataforma que evalúa la confiabilidad de las fuentes informativas. Durante el estudio, se pidió a Bard que redactara textos sobre diversas teorías conspirativas, y el chatbot produjo fácilmente contenido falso respaldando estas ideas sin base real. En el caso de la teoría del "Gran Reinicio", que sostiene que las élites globales crearon el COVID-19 para instaurar un nuevo gobierno mundial, Bard desarrolló como ciertas el 76% de las historias falsas presentadas.

a close up of a logo on a cell phone

Esta falta de precisión y la posibilidad de generar contenido falso son motivo de preocupación para múltiples organizaciones, ya que pueden ser un potencial impulsor de campañas de desinformación. A pesar de ser conscientes de estas fallas, tanto Google como OpenAI han lanzado sus chatbots en una etapa experimental, advirtiendo sobre su propensión al error.

Además de la cuestión de la precisión, también existen inquietudes sobre la privacidad de los datos ingresados por los usuarios. Debido a estas preocupaciones, el lanzamiento de Bard en la Unión Europea fue retrasado. Google ha sido especialmente cauteloso y ha pedido a sus empleados que eviten compartir datos confidenciales con el chatbot.

Ante la incertidumbre sobre la confiabilidad de Bard y otros modelos conversacionales similares, Google ha enfatizado que el chatbot es más adecuado para la "colaboración en torno a la resolución de problemas" y para la "creación de nuevas ideas", en lugar de ser una fuente confiable de información verificada.

En conclusión, la aparición de Bard y otros sistemas de IA conversacional ha generado expectativas y preocupaciones en igual medida. Aunque representan avances tecnológicos impresionantes, queda claro que aún están lejos de reemplazar a los buscadores tradicionales en Internet, y los usuarios deben tener en cuenta su naturaleza experimental y propensa a la desinformación antes de confiar plenamente en ellos.

También podría interesarte: ¿Qué es Chat GTP y cómo puede mejorar la comunicación en su empresa?

Perfil del equipo de redacción de Bloooz Media.

Deja un comentario

Deja un comentario