Surgen dudas sobre la eficacia del chatbot de IA Bard de Google a medida que la empresa expande su implementación en varios productos.
Conversaciones filtradas revelan incertidumbres dentro de Google sobre la efectividad de Bard y si la inversión masiva necesaria vale la pena.
Los empleados de Google han cuestionado la eficacia de Bard en un chat exclusivo en Discord. Los gerentes de productos, diseñadores e ingenieros debaten si los recursos necesarios para Bard están justificados.
Algunos cuestionan la confiabilidad de la salida del modelo de lenguaje grande (LLM) y expresan la necesidad de verificación independiente de la información generada por Bard.
Otros plantean preocupaciones sobre los costos de desarrollo, el potencial de difusión de desinformación y los requisitos computacionales masivos del proyecto.
Google lanzó Bard en marzo como competidor del chatbot ChatGPT de OpenAI, agregando nuevas capacidades en los meses siguientes, como análisis de imágenes y respuesta en diferentes idiomas.
Sin embargo, la reciente expansión de Bard a productos como Gmail, Maps y YouTube ha estado marcada por críticas. La implementación ha sido acusada de proporcionar información falsa y recomendaciones peligrosas.
Críticos internos y externos argumentan que Google se está apresurando para mantenerse al día con los competidores, mientras descuida cuestiones éticas y el tratamiento de contratados mal remunerados que entrenan a Bard.
Google afirma que las discusiones sobre las fortalezas y debilidades de Bard son parte del proceso de mejora del producto basado en la retroalimentación de los usuarios.
En lo que respecta a los contratados, un portavoz de la empresa afirma que “simplemente no es el empleador de ninguno de estos trabajadores. Nuestros proveedores, como empleadores, determinan sus condiciones de trabajo, incluidos salarios y beneficios, horas y tareas asignadas, y cambios de empleo, y no Google”.