Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
OpenAI, Google y Microsoft forman organismo para el desarrollo seguro de la IA

Google, Microsoft, OpenAI y Anthropic anunciaron el lanzamiento de Frontier Model Forum un nuevo organismo que busca garantizar el desarrollo responsable y seguro de modelos de inteligencia artificial.

El incremento en el uso y desarrollo de inteligencia artificial (IA), ha impulsado a compañías líderes como Google, Microsoft y OpenAI a crear un nuevo organismo que promueva la investigación segura sobre IA y que identifique las mejores prácticas y estándares dentro de la industria. Asimismo, Frontier Model Forum busca ser un organismo dentro de la industria, sin embargo, su objetivo también es ofrecer recomendaciones a los creadores de políticas públicas relacionadas con la IA.

Frontier Model Forum se basará en la experiencia técnica y operativa de las organizaciones que la componen, sin embargo, busca beneficiar a todo el ecosistema de IA, a través de la creación de puntos de referencia, avanzar en evaluaciones técnicas y sobre todo crear conocimiento que respalde las mejores prácticas de la industria.

Los objetivos centrales de Frontier Model Forum son cuatro:

  • Primero avanzar en la investigación de seguridad de la IA para la promoción y desarrollo de modelos, minimizar riesgos y permitir evaluaciones independientes, estandarizadas y seguras.
  • El segundo objetivo se enfoca en la identificación de las mejores prácticas para el desarrollo a implementación responsable de “Frontier Models” ayudando al público a comprender las limitaciones, las capacidades, el impacto y la naturaleza de la IA.
  • El tercer objetivo que tiene es colaborar con legisladores, académicos, sociedad civil y empresas para compartir conocimientos sobre los riesgos y la seguridad de los modelos de IA.
  • El cuarto y último objetivo principal es apoyar los esfuerzos para desarrollar aplicaciones que puedan ayudar a enfrentar desafíos importantes de la sociedad, por ejemplo, relacionados con el cambio climático o la prevención temprana de enfermedades como el cáncer.

La membresía para este foro está abierta a organizaciones que busquen desarrollar e implementar modelos de IA; demuestren compromiso con la seguridad de los modelos; y que estén dispuestos contribuir al avance del foro participando en indicativas conjuntas.

Kent Walker, presidente de Asuntos Globales de Google y Alphabet, explicó que “Estamos entusiasmados de trabajar junto con otras empresas líderes, compartiendo experiencia técnica para promover la innovación de IA responsable. Todos vamos a tener que trabajar juntos para asegurarnos de que la IA beneficie a todos”.

El Frontier Model Forum se centrará en tres áreas clave durante los próximos 12 meses: la identificación de las mejores prácticas; avanzar en la investigación de seguridad de la IA; y facilitar el intercambio de información entre empresas y gobiernos.

Por su parte, Brad Smith, presidente de Microsoft, mencionó que las empresas que desarrollen tecnologías basadas en IA tienen la responsabilidad de que estas sean seguras. “Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad”, agregó.

Durante los próximos meses, esta nueva organización establecerá una junta para guiar la estrategia, además las empresas fundadoras cerrarán arreglos con actores clave del gobierno y de la sociedad civil.

Además de manera inicial el Frontier Model Forum ya ha comenzado a apoyar a iniciativas multilaterales y gubernamentales como el G7 Hiroshima, o el Consejo de Comercio y Tecnología de Estados Unidos.

Noticias destacadas

Noticias por país

Comparte el contenido

Salud Digital en el mundo

  • — Science Brief: Omicron (B.1.1.529) Variant/ actualizaciones CDC
    Ver más
  • — Coronavirus resource center / Johns Hopkins
    Ver más
  • — Rastreo epidemiológico de contactos COVID-19 / Curso Johns Hopkins
    Ver más
  • — Comportamiento infección SARS-CoV-2 / Calculadora FCS
    Ver más
  • — Omicron SARS-CoV-2 variant: a new chapter in the COVID-19 pandemic/ Artículo The Lancet
    Ver más
  • — Genomic Epidemiology Tracker / GISAID
    Ver más
  • — Consorcio Mexicano de Vigilancia Genómica
    Ver más
Secured By miniOrange