Filter by input type
Select all
News
Pages
Events
Filter by category
Select all
AI ANALYTICS
Mobile Apps and Internet of Things
Advancement of science
big data
Connected communities
Coronavirus
Courses and training
DIAGNOSIS
Initial Editorial
Editorials
A world in the cloud
Events
Infographics
Artificial Intelligence and Science
IoT Apps
News
Digital platforms
Social networks
Review of scientific publications
Course Summary
Synopsis of essay
Overview of reference frames
Synopsis of recent publications
Use of Digital Platforms
Transparencia y reglas sobre el uso de ChatGPT según la comunidad científica

Los más recientes avances de la Inteligencia Artificial (IA) generativa han impactado a la comunidad científica.

La IA generativa es una rama del aprendizaje automático capaz de crear audio, imágenes, códigos de programación, texto, videos entre otro tipo de contenido. Algunos de los ejemplos más notorios son Midjourney que genera imágenes digitales a través de descripciones de texto o ChatGPT que como lo dice su nombre, es un chat de IA capaz de responder casi cualquier pregunta de manera detallada.

ChatGPT desarrollado por OpenAI fue lanzado al público en general en noviembre de 2022 y ya es considerado uno de los chatbot basados en IA más importantes. Las siglas GPT significan generative pretrained transformer o transformador preentrenado generativo en este sentido, su tarea es generar respuestas a casi cualquier pregunta que se le haga. Su uso se ha generalizado en los últimos meses y ya cuenta con una gran base de usuarios.

Los usuarios han utilizado ChatGPT para producir códigos de computadora o redactar ensayos por dar algunos ejemplos, por lo que su uso también ha desatado cuestionamientos sobre el aprovechamiento ético de esta herramienta.

Por otra parte, en la ciencia el uso de aprendizaje automático no es un tema desconocido, durante los últimos años esta herramienta se ha utilizado para observar y clasificar patrones de contenido, por ejemplo, en imágenes médicas o microscópicas. No obstante, el poder de la IA generativa ahora puede generar imágenes médicas o realizar descripciones médicas sobre imágenes, incluso algunos científicos han aprovechado ChatGPT para la creación de los abstractos o resúmenes de sus artículos.

También clasificado entre los large language models o grandes modelos de lenguaje (LLM), Chat GPT ha despertado dudas en la comunidad científica al ser una herramienta gratuita, de uso libre y nula regulación. Diversos miembros e instituciones de la comunidad científica han planteado la regulación de este tipo de herramientas, ya que, a pesar de ser una herramienta útil para facilitar el trabajo humano, también puede ser utilizado para producir spam o incluso información falsa.

Recientemente Nature en conjunto con todas las revistas de Springer Nature publicaron un artículo donde expone los peligros de la IA generativa en la comunidad científica y de investigación, como que los estudiantes y científico utilicen este tipo de herramientas para producir contenido y hacerlo pasar como propio.

Por ello han formulado dos principios, que ya han sido agregados a la guía para autores, sobre el uso de IA generativa:

“En primer lugar, ninguna herramienta LLM será aceptada como autor acreditado en un trabajo de investigación. Esto se debe a que cualquier atribución de autoría conlleva la responsabilidad del trabajo, y las herramientas de IA no pueden asumir tal responsabilidad.

En segundo lugar, los investigadores que utilicen herramientas LLM deben documentar este uso en las secciones de métodos o agradecimientos. Si un artículo no incluye estas secciones, se puede utilizar la introducción u otra sección apropiada para documentar el uso del LLM.”

Asimismo, Nature explica que la investigación debe sentar sus bases en la transparencia de sus métodos, así como la integridad y veracidad por parte los autores.

Outstanding news

News by country

Related Content

Secured By miniOrange