Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Transparencia y reglas sobre el uso de ChatGPT según la comunidad científica

Los más recientes avances de la Inteligencia Artificial (IA) generativa han impactado a la comunidad científica.

La IA generativa es una rama del aprendizaje automático capaz de crear audio, imágenes, códigos de programación, texto, videos entre otro tipo de contenido. Algunos de los ejemplos más notorios son Midjourney que genera imágenes digitales a través de descripciones de texto o ChatGPT que como lo dice su nombre, es un chat de IA capaz de responder casi cualquier pregunta de manera detallada.

ChatGPT desarrollado por OpenAI fue lanzado al público en general en noviembre de 2022 y ya es considerado uno de los chatbot basados en IA más importantes. Las siglas GPT significan generative pretrained transformer o transformador preentrenado generativo en este sentido, su tarea es generar respuestas a casi cualquier pregunta que se le haga. Su uso se ha generalizado en los últimos meses y ya cuenta con una gran base de usuarios.

Los usuarios han utilizado ChatGPT para producir códigos de computadora o redactar ensayos por dar algunos ejemplos, por lo que su uso también ha desatado cuestionamientos sobre el aprovechamiento ético de esta herramienta.

Por otra parte, en la ciencia el uso de aprendizaje automático no es un tema desconocido, durante los últimos años esta herramienta se ha utilizado para observar y clasificar patrones de contenido, por ejemplo, en imágenes médicas o microscópicas. No obstante, el poder de la IA generativa ahora puede generar imágenes médicas o realizar descripciones médicas sobre imágenes, incluso algunos científicos han aprovechado ChatGPT para la creación de los abstractos o resúmenes de sus artículos.

También clasificado entre los large language models o grandes modelos de lenguaje (LLM), Chat GPT ha despertado dudas en la comunidad científica al ser una herramienta gratuita, de uso libre y nula regulación. Diversos miembros e instituciones de la comunidad científica han planteado la regulación de este tipo de herramientas, ya que, a pesar de ser una herramienta útil para facilitar el trabajo humano, también puede ser utilizado para producir spam o incluso información falsa.

Recientemente Nature en conjunto con todas las revistas de Springer Nature publicaron un artículo donde expone los peligros de la IA generativa en la comunidad científica y de investigación, como que los estudiantes y científico utilicen este tipo de herramientas para producir contenido y hacerlo pasar como propio.

Por ello han formulado dos principios, que ya han sido agregados a la guía para autores, sobre el uso de IA generativa:

“En primer lugar, ninguna herramienta LLM será aceptada como autor acreditado en un trabajo de investigación. Esto se debe a que cualquier atribución de autoría conlleva la responsabilidad del trabajo, y las herramientas de IA no pueden asumir tal responsabilidad.

En segundo lugar, los investigadores que utilicen herramientas LLM deben documentar este uso en las secciones de métodos o agradecimientos. Si un artículo no incluye estas secciones, se puede utilizar la introducción u otra sección apropiada para documentar el uso del LLM.”

Asimismo, Nature explica que la investigación debe sentar sus bases en la transparencia de sus métodos, así como la integridad y veracidad por parte los autores.

Contenidos Relacionados

Secured By miniOrange