Filtrar por tipo de entrada
Seleccionar todo
Noticias
Páginas
Eventos
Filtrar por categorías
Seleccionar todo
AI ANALITICA
Apps móviles e Internet de las Cosas
Avance de la ciencia
Big data
Comunidades conectadas
Coronavirus
Cursos y capacitaciones
DIAGNOSTICO
Editorial inicial
Editoriales
El mundo en la nube
Eventos
Infografías
Inteligencia Artificial y Ciencia
IoTApps
Noticias
Plataformas digitales
Redes sociales
Reseña de publicaciones científicas
Resumen de Cursos
Sinopsis de ensayo
Sinopsis de Marcos de Referencia
Sinopsis de publicaciones recientes
Uso de Plataformas Digitales
Casa Blanca firma acuerdos con empresas de tecnología para gestionar riesgos de la IA

El Gobierno de Estados Unidos aseguró compromisos voluntarios con ocho empresas de tecnología para gestionar los riesgos que plantea la IA

El gobierno de Estados Unidos anunció la firma de acuerdos con ocho empresas líderes en inteligencia artificial (IA) para gestionar los riesgos y beneficios relacionados con el uso de esta clase de herramientas.  La Casa Blanca busca avanzar hacia una IA segura y confiable, y para ello han asegurado compromisos voluntarios de estas empresas líderes del sector que incluyen a Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI, y Stability. Estos compromisos representan un paso importante en la antesala de nuevas regulaciones por parte del gobierno a estas tecnologías.

Previamente, en julio de este año, la Administración logró compromisos voluntarios por parte de siete empresas líderes en IA para impulsar el desarrollo de una IA segura, confiable y responsable. En este sentido, la secretaria de Comercio de los Estados Unidos, Gina Raimondo, el jefe de Gabinete de la Casa Blanca, Jeff Zients, y otros funcionarios de la administración, se reunieron con líderes de la industria en la Casa Blanca para anunciar que la Administración ha asegurado una segunda ronda de compromisos voluntarios de las ocho empresas mencionadas.

La Casa Blanca, considera que compromisos son fundamentales y sirven como un paso intermedio hacia la acción gubernamental en la estrategia integral de la Administración para cumplir con las promesas y gestionar los riesgos de la IA responsable.

En este sentido, las compañías especializadas en IA se comprometen a:

Garantizar que los productos sean seguros antes de su lanzamiento al público

  • Realizarán pruebas de seguridad internas y externas en sus sistemas de IA antes de su lanzamiento, con la participación de expertos independientes. Esto servirá como defensa contra algunas de las fuentes más significativas de riesgos de IA, como la bioseguridad, la ciberseguridad y sus efectos en la sociedad en general.
  • Compartirán información con la industria y con gobiernos, organizaciones de la sociedad civil y académicos sobre la gestión de riesgos de IA. Esto incluye las mejores prácticas en seguridad, información sobre intentos de eludir las salvaguardias y colaboración técnica.

Construir sistemas que prioricen la seguridad

  • Invertirán en ciberseguridad y en medidas para prevenir amenazas internas para proteger los modelos de IA propietarios y no publicados. Estos modelos son la parte más esencial de un sistema de IA, y las empresas consideran vital que se publiquen únicamente cuando esté previsto y se hayan evaluado los riesgos de seguridad.
  • Facilitarán la identificación y notificación de vulnerabilidades en sus sistemas de IA por parte de terceros. Algunos problemas pueden persistir incluso después del lanzamiento de un sistema de IA, y un mecanismo sólido de notificación permite encontrarlos y solucionarlos rápidamente.

Ganar la confianza del público

  • Desarrollarán mecanismos técnicos sólidos para garantizar que los usuarios sepan cuándo el contenido ha sido generado por IA, mediante un sistema de marca de agua. Esto fomentará la creatividad y productividad con la IA, al tiempo que reducirá los riesgos de fraude y engaño.
  • Darán a conocer de forma pública las capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de IA. Estos informes abarcarán tanto riesgos de seguridad como riesgos sociales, como los efectos sobre la equidad y el sesgo.
  • Priorizarán la investigación sobre los riesgos sociales que pueden plantear los sistemas de IA, incluyendo la prevención del sesgo y la discriminación perjudicial, así como la protección de la privacidad.

El gobierno estadounidense busca garantizar que la IA se desarrolle de manera segura y responsable, protegiendo los derechos y la seguridad de la población y evitando daños y discriminación. Además de estos compromisos, se están llevando a cabo otras acciones importantes, como la competencia “AI Cyber Challenge” para proteger el software más crítico de los Estados Unidos.

Por otra parte, la IA está jugando un rol cada vez más importante en la atención médica, ya que ha revolucionado la forma en que se diagnostican, tratan y gestionan diversas enfermedades. Sus principales aplicaciones incluyen la interpretación de imágenes médicas, como radiografías y escáneres, para detectar enfermedades; el análisis de datos para identificar patrones y tendencias que pueden impulsar la investigación médica; la personalización de tratamientos y terapias según las necesidades específicas de los pacientes; y la optimización de la atención al paciente a través de la predicción de resultados y la gestión eficiente de recursos.

En este sentido, la IA está demostrando ser una herramienta valiosa para mejorar la precisión y la eficiencia en la atención médica, y su adopción continúa brindando beneficios clínicamente relevantes a pacientes y profesionales de la salud. Por ello la importancia de crear compromisos con la industria que desarrolla estas tecnologías, ya que las soluciones de IA planten desafíos que requieren una regulación y supervisión adecuadas para garantizar su uso responsable y ético.

Contenidos Relacionados

Secured By miniOrange