¿Puede la inteligencia artificial contestarnos una pregunta simple basada en datos certeros?
Una vez más, puse a prueba a Bing, el chatbot de Microsoft que funciona con inteligencia artificial a partir de una versión de la tecnología Generative Pretrained Transformer 4 (GPT-4): un modelo de lenguaje que genera respuestas a las preguntas y solicitudes de los usuarios. El experimento que llevo a cabo desde hace años, y del que he entregado algunos resultados en estas páginas, vuelve a demostrar que hay que desconfiar de la información que nos proporciona este motor de búsqueda de Microsoft, ya que cualquier incauto puede dar crédito a las sandeces producto de la mendacidad de Bing. Nuestro tema ahora es el de los libros latinoamericanos más vendidos. He aquí un fragmento de nuestra hilarante conversación.
Para tener acceso a este contenido, debes acceder con tu cuenta de membresía Suscripción mensual y Suscripción anual
Únete ahora
Únete ahora
¿Ya eres miembro? Accede aquí