bardsGoogle

Dimite un investigador de IA de Google tras conocer que Bard utiliza datos de ChatGPTT

El mundo de la inteligencia artificial (IA) ha sido testigo de un evento sin precedentes en las últimas semanas.

Un investigador clave en el equipo de IA de Google ha presentado su renuncia después de descubrir que el proyecto Bard, un sistema de IA de lenguaje natural desarrollado por la compañía, utiliza datos de ChatGPT, otro sistema de IA desarrollado por OpenAI.

El investigador, cuyo nombre no ha sido revelado por razones de privacidad, trabajó en varios proyectos de IA dentro de Google antes de unirse al equipo de Bard. Después de descubrir que el sistema de IA de Google emplea información extraída de ChatGPT, un modelo de lenguaje de última generación desarrollado por OpenAI, el investigador presentó su renuncia de manera inmediata, citando preocupaciones éticas y legales.

La noticia ha generado un amplio debate dentro de la comunidad científica y tecnológica sobre la ética en el desarrollo de sistemas de IA y la utilización de datos.

Algunos expertos consideran que el uso de información de ChatGPT en Bard es un ejemplo de la falta de transparencia y el plagio en la investigación de IA.

ChatGPT es un modelo de lenguaje desarrollado por OpenAI basado en la arquitectura GPT-4. Desde su lanzamiento, ha demostrado ser una herramienta valiosa y versátil en una variedad de aplicaciones, desde la generación de texto hasta la traducción automática de idiomas. Sin embargo, su empleo por parte de Google en el desarrollo de Bard ha generado preocupaciones sobre la propiedad intelectual y la ética en la investigación de IA.

La renuncia del investigador ha puesto en evidencia las tensiones que existen entre las grandes empresas tecnológicas y los desarrolladores de IA. A medida que las aplicaciones de la inteligencia artificial continúan expandiéndose, la colaboración entre los investigadores y la transparencia en la investigación se vuelven fundamentales para garantizar el progreso ético y sostenible de la IA.

DE INTERES
El mundo secreto de la confesión íntima online

En respuesta a la situación, tanto Google como OpenAI han iniciado investigaciones internas para determinar si se han violado las políticas de ética y propiedad intelectual. La comunidad de IA espera con interés los resultados de estas investigaciones y las acciones que puedan tomarse para evitar futuros conflictos de este tipo.

Este incidente demuestra la necesidad de abordar las preocupaciones éticas y legales en el desarrollo de la inteligencia artificial. Es esencial que las empresas e investigadores trabajen juntos para garantizar la transparencia, la responsabilidad y la colaboración en la investigación y desarrollo de IA, a fin de fomentar un futuro tecnológico sostenible y ético para todos.

Comentarios cerrados.