{"id":41186,"date":"2023-10-17T08:56:44","date_gmt":"2023-10-17T14:56:44","guid":{"rendered":"https:\/\/saluddigital.com\/?p=41186"},"modified":"2025-10-19T00:35:07","modified_gmt":"2025-10-19T06:35:07","slug":"casa-blanca-firma-acuerdos-con-empresas-de-tecnologia-para-gestionar-riesgos-de-la-ia","status":"publish","type":"post","link":"https:\/\/saluddigital.com\/en\/big-data\/casa-blanca-firma-acuerdos-con-empresas-de-tecnologia-para-gestionar-riesgos-de-la-ia\/","title":{"rendered":"Casa Blanca firma acuerdos con empresas de tecnolog\u00eda para gestionar riesgos de la IA"},"content":{"rendered":"<div data-elementor-type=\"wp-post\" data-elementor-id=\"41186\" class=\"elementor elementor-41186\" data-elementor-post-type=\"post\">\n\t\t\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-3b29410b elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"3b29410b\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-187ec1d0\" data-id=\"187ec1d0\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-6312aa2d elementor-widget elementor-widget-heading\" data-id=\"6312aa2d\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"heading.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t<h2 class=\"elementor-heading-title elementor-size-default\">El Gobierno de Estados Unidos asegur\u00f3 compromisos voluntarios con ocho empresas de tecnolog\u00eda para gestionar los riesgos que plantea la IA<\/h2>\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-4e2de51e elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"4e2de51e\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-7520cba4\" data-id=\"7520cba4\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-4cfaa9c elementor-widget elementor-widget-text-editor\" data-id=\"4cfaa9c\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>El gobierno de Estados Unidos anunci\u00f3 la firma de acuerdos con ocho empresas l\u00edderes en inteligencia artificial (IA) para gestionar los riesgos y beneficios relacionados con el uso de esta clase de herramientas.\u00a0 La Casa Blanca busca avanzar hacia una IA segura y confiable, y para ello han asegurado compromisos voluntarios de estas empresas l\u00edderes del sector que incluyen a Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI, y Stability. Estos compromisos representan un paso importante en la antesala de nuevas regulaciones por parte del gobierno a estas tecnolog\u00edas.<\/p><p>Previamente, en julio de este a\u00f1o, la Administraci\u00f3n logr\u00f3 compromisos voluntarios por parte de siete empresas l\u00edderes en IA para impulsar el desarrollo de una IA segura, confiable y responsable. En este sentido, la secretaria de Comercio de los Estados Unidos, Gina Raimondo, el jefe de Gabinete de la Casa Blanca, Jeff Zients, y otros funcionarios de la administraci\u00f3n, se reunieron con l\u00edderes de la industria en la Casa Blanca para anunciar que la Administraci\u00f3n ha asegurado una segunda ronda de compromisos voluntarios de las ocho empresas mencionadas.<\/p><p>La Casa Blanca, considera que compromisos son fundamentales y sirven como un paso intermedio hacia la acci\u00f3n gubernamental en la estrategia integral de la Administraci\u00f3n para cumplir con las promesas y gestionar los riesgos de la IA responsable.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-53d37a4a elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"53d37a4a\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-215af9b1\" data-id=\"215af9b1\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-425546fc elementor-widget elementor-widget-image\" data-id=\"425546fc\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"image.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<img fetchpriority=\"high\" decoding=\"async\" width=\"1200\" height=\"630\" src=\"https:\/\/saluddigital.com\/wp-content\/uploads\/2023\/10\/10-23-22.jpg\" class=\"attachment-full size-full wp-image-41188\" alt=\"\" srcset=\"https:\/\/saluddigital.com\/wp-content\/uploads\/2023\/10\/10-23-22.jpg 1200w, https:\/\/saluddigital.com\/wp-content\/uploads\/2023\/10\/10-23-22-660x347.jpg 660w, https:\/\/saluddigital.com\/wp-content\/uploads\/2023\/10\/10-23-22-840x441.jpg 840w, https:\/\/saluddigital.com\/wp-content\/uploads\/2023\/10\/10-23-22-768x403.jpg 768w, https:\/\/saluddigital.com\/wp-content\/uploads\/2023\/10\/10-23-22-18x9.jpg 18w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/>\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-2332a170 elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"2332a170\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-347f74fe\" data-id=\"347f74fe\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-367964b2 elementor-widget elementor-widget-text-editor\" data-id=\"367964b2\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"text-editor.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t\t\t<p>En este sentido, las compa\u00f1\u00edas especializadas en IA se comprometen a:<\/p><p><strong>Garantizar que los productos sean seguros antes de su lanzamiento al p\u00fablico<\/strong><\/p><ul><li>Realizar\u00e1n pruebas de seguridad internas y externas en sus sistemas de IA antes de su lanzamiento, con la participaci\u00f3n de expertos independientes. Esto servir\u00e1 como defensa contra algunas de las fuentes m\u00e1s significativas de riesgos de IA, como la bioseguridad, la ciberseguridad y sus efectos en la sociedad en general.<\/li><li>Compartir\u00e1n informaci\u00f3n con la industria y con gobiernos, organizaciones de la sociedad civil y acad\u00e9micos sobre la gesti\u00f3n de riesgos de IA. Esto incluye las mejores pr\u00e1cticas en seguridad, informaci\u00f3n sobre intentos de eludir las salvaguardias y colaboraci\u00f3n t\u00e9cnica.<\/li><\/ul><p><strong>Construir sistemas que prioricen la seguridad<\/strong><\/p><ul><li>Invertir\u00e1n en ciberseguridad y en medidas para prevenir amenazas internas para proteger los modelos de IA propietarios y no publicados. Estos modelos son la parte m\u00e1s esencial de un sistema de IA, y las empresas consideran vital que se publiquen \u00fanicamente cuando est\u00e9 previsto y se hayan evaluado los riesgos de seguridad.<\/li><li>Facilitar\u00e1n la identificaci\u00f3n y notificaci\u00f3n de vulnerabilidades en sus sistemas de IA por parte de terceros. Algunos problemas pueden persistir incluso despu\u00e9s del lanzamiento de un sistema de IA, y un mecanismo s\u00f3lido de notificaci\u00f3n permite encontrarlos y solucionarlos r\u00e1pidamente.<\/li><\/ul><p><strong>Ganar la confianza del p\u00fablico<\/strong><\/p><ul><li>Desarrollar\u00e1n mecanismos t\u00e9cnicos s\u00f3lidos para garantizar que los usuarios sepan cu\u00e1ndo el contenido ha sido generado por IA, mediante un sistema de marca de agua. Esto fomentar\u00e1 la creatividad y productividad con la IA, al tiempo que reducir\u00e1 los riesgos de fraude y enga\u00f1o.<\/li><li>Dar\u00e1n a conocer de forma p\u00fablica las capacidades, limitaciones y \u00e1reas de uso apropiado e inapropiado de sus sistemas de IA. Estos informes abarcar\u00e1n tanto riesgos de seguridad como riesgos sociales, como los efectos sobre la equidad y el sesgo.<\/li><li>Priorizar\u00e1n la investigaci\u00f3n sobre los riesgos sociales que pueden plantear los sistemas de IA, incluyendo la prevenci\u00f3n del sesgo y la discriminaci\u00f3n perjudicial, as\u00ed como la protecci\u00f3n de la privacidad.<\/li><\/ul><p>El gobierno estadounidense busca garantizar que la IA se desarrolle de manera segura y responsable, protegiendo los derechos y la seguridad de la poblaci\u00f3n y evitando da\u00f1os y discriminaci\u00f3n. Adem\u00e1s de estos compromisos, se est\u00e1n llevando a cabo otras acciones importantes, como la competencia \u201c<em>AI Cyber Challenge<\/em>\u201d para proteger el software m\u00e1s cr\u00edtico de los Estados Unidos.<\/p><p>Por otra parte, la IA est\u00e1 jugando un rol cada vez m\u00e1s importante en la atenci\u00f3n m\u00e9dica, ya que ha revolucionado la forma en que se diagnostican, tratan y gestionan diversas enfermedades. Sus principales aplicaciones incluyen la interpretaci\u00f3n de im\u00e1genes m\u00e9dicas, como radiograf\u00edas y esc\u00e1neres, para detectar enfermedades; el an\u00e1lisis de datos para identificar patrones y tendencias que pueden impulsar la investigaci\u00f3n m\u00e9dica; la personalizaci\u00f3n de tratamientos y terapias seg\u00fan las necesidades espec\u00edficas de los pacientes; y la optimizaci\u00f3n de la atenci\u00f3n al paciente a trav\u00e9s de la predicci\u00f3n de resultados y la gesti\u00f3n eficiente de recursos.<\/p><p>En este sentido, la IA est\u00e1 demostrando ser una herramienta valiosa para mejorar la precisi\u00f3n y la eficiencia en la atenci\u00f3n m\u00e9dica, y su adopci\u00f3n contin\u00faa brindando beneficios cl\u00ednicamente relevantes a pacientes y profesionales de la salud. Por ello la importancia de crear compromisos con la industria que desarrolla estas tecnolog\u00edas, ya que las soluciones de IA planten desaf\u00edos que requieren una regulaci\u00f3n y supervisi\u00f3n adecuadas para garantizar su uso responsable y \u00e9tico.<\/p>\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<section class=\"elementor-section elementor-top-section elementor-element elementor-element-3153267e elementor-section-boxed elementor-section-height-default elementor-section-height-default wpr-particle-no wpr-jarallax-no wpr-parallax-no wpr-sticky-section-no\" data-id=\"3153267e\" data-element_type=\"section\" data-e-type=\"section\">\n\t\t\t\t\t\t<div class=\"elementor-container elementor-column-gap-default\">\n\t\t\t\t\t<div class=\"elementor-column elementor-col-100 elementor-top-column elementor-element elementor-element-228f8522\" data-id=\"228f8522\" data-element_type=\"column\" data-e-type=\"column\">\n\t\t\t<div class=\"elementor-widget-wrap elementor-element-populated\">\n\t\t\t\t\t\t<div class=\"elementor-element elementor-element-5070c58e elementor-widget elementor-widget-toggle\" data-id=\"5070c58e\" data-element_type=\"widget\" data-e-type=\"widget\" data-widget_type=\"toggle.default\">\n\t\t\t\t<div class=\"elementor-widget-container\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle\">\n\t\t\t\t\t\t\t<div class=\"elementor-toggle-item\">\n\t\t\t\t\t<div id=\"elementor-tab-title-1341\" class=\"elementor-tab-title\" data-tab=\"1\" role=\"button\" aria-controls=\"elementor-tab-content-1341\" aria-expanded=\"false\">\n\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon elementor-toggle-icon-left\" aria-hidden=\"true\">\n\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-closed\"><i class=\"fas fa-caret-right\"><\/i><\/span>\n\t\t\t\t\t\t\t\t<span class=\"elementor-toggle-icon-opened\"><i class=\"elementor-toggle-icon-opened fas fa-caret-up\"><\/i><\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t\t<\/span>\n\t\t\t\t\t\t\t\t\t\t\t\t<a class=\"elementor-toggle-title\" tabindex=\"0\"> BIBLIOGRAPHY<\/a>\n\t\t\t\t\t<\/div>\n\n\t\t\t\t\t<div id=\"elementor-tab-content-1341\" class=\"elementor-tab-content elementor-clearfix\" data-tab=\"1\" role=\"region\" aria-labelledby=\"elementor-tab-title-1341\"><p><strong>WHITE HOUSE<\/strong><\/p><p><a href=\"https:\/\/www.whitehouse.gov\/-room\/statements-releases\/2023\/09\/12\/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai\/\">https:\/\/www.whitehouse.gov\/-room\/statements-releases\/2023\/09\/12\/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai\/<\/a><\/p><\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t\t\t\t<\/div>\n\t\t\t\t\t\t<\/div>\n\t\t\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/div>\n\t\t\t\t\t<\/div>\n\t\t<\/section>\n\t\t\t\t<\/div>","protected":false},"excerpt":{"rendered":"<p>El Gobierno de Estados Unidos asegur\u00f3 compromisos voluntarios con ocho empresas de tecnolog\u00eda para gestionar los riesgos que plantea la IA El gobierno de Estados Unidos anunci\u00f3 la firma de acuerdos con ocho empresas l\u00edderes en inteligencia artificial (IA) para gestionar los riesgos y beneficios relacionados con el uso de esta clase de herramientas.\u00a0 La Casa Blanca busca avanzar hacia una IA segura y confiable, y para ello han asegurado compromisos voluntarios de estas empresas l\u00edderes del sector que incluyen a Adobe, Cohere, IBM, Nvidia, Palantir, Salesforce, Scale AI, y Stability. Estos compromisos representan un paso importante en la antesala de nuevas regulaciones por parte del gobierno a estas tecnolog\u00edas. Previamente, en julio de este a\u00f1o, la Administraci\u00f3n logr\u00f3 compromisos voluntarios por parte de siete empresas l\u00edderes en IA para impulsar el desarrollo de una IA segura, confiable y responsable. En este sentido, la secretaria de Comercio de los Estados Unidos, Gina Raimondo, el jefe de Gabinete de la Casa Blanca, Jeff Zients, y otros funcionarios de la administraci\u00f3n, se reunieron con l\u00edderes de la industria en la Casa Blanca para anunciar que la Administraci\u00f3n ha asegurado una segunda ronda de compromisos voluntarios de las ocho empresas mencionadas. La Casa Blanca, considera que compromisos son fundamentales y sirven como un paso intermedio hacia la acci\u00f3n gubernamental en la estrategia integral de la Administraci\u00f3n para cumplir con las promesas y gestionar los riesgos de la IA responsable. En este sentido, las compa\u00f1\u00edas especializadas en IA se comprometen a: Garantizar que los productos sean seguros antes de su lanzamiento al p\u00fablico Realizar\u00e1n pruebas de seguridad internas y externas en sus sistemas de IA antes de su lanzamiento, con la participaci\u00f3n de expertos independientes. Esto servir\u00e1 como defensa contra algunas de las fuentes m\u00e1s significativas de riesgos de IA, como la bioseguridad, la ciberseguridad y sus efectos en la sociedad en general. Compartir\u00e1n informaci\u00f3n con la industria y con gobiernos, organizaciones de la sociedad civil y acad\u00e9micos sobre la gesti\u00f3n de riesgos de IA. Esto incluye las mejores pr\u00e1cticas en seguridad, informaci\u00f3n sobre intentos de eludir las salvaguardias y colaboraci\u00f3n t\u00e9cnica. Construir sistemas que prioricen la seguridad Invertir\u00e1n en ciberseguridad y en medidas para prevenir amenazas internas para proteger los modelos de IA propietarios y no publicados. Estos modelos son la parte m\u00e1s esencial de un sistema de IA, y las empresas consideran vital que se publiquen \u00fanicamente cuando est\u00e9 previsto y se hayan evaluado los riesgos de seguridad. Facilitar\u00e1n la identificaci\u00f3n y notificaci\u00f3n de vulnerabilidades en sus sistemas de IA por parte de terceros. Algunos problemas pueden persistir incluso despu\u00e9s del lanzamiento de un sistema de IA, y un mecanismo s\u00f3lido de notificaci\u00f3n permite encontrarlos y solucionarlos r\u00e1pidamente. Ganar la confianza del p\u00fablico Desarrollar\u00e1n mecanismos t\u00e9cnicos s\u00f3lidos para garantizar que los usuarios sepan cu\u00e1ndo el contenido ha sido generado por IA, mediante un sistema de marca de agua. Esto fomentar\u00e1 la creatividad y productividad con la IA, al tiempo que reducir\u00e1 los riesgos de fraude y enga\u00f1o. Dar\u00e1n a conocer de forma p\u00fablica las capacidades, limitaciones y \u00e1reas de uso apropiado e inapropiado de sus sistemas de IA. Estos informes abarcar\u00e1n tanto riesgos de seguridad como riesgos sociales, como los efectos sobre la equidad y el sesgo. Priorizar\u00e1n la investigaci\u00f3n sobre los riesgos sociales que pueden plantear los sistemas de IA, incluyendo la prevenci\u00f3n del sesgo y la discriminaci\u00f3n perjudicial, as\u00ed como la protecci\u00f3n de la privacidad. El gobierno estadounidense busca garantizar que la IA se desarrolle de manera segura y responsable, protegiendo los derechos y la seguridad de la poblaci\u00f3n y evitando da\u00f1os y discriminaci\u00f3n. Adem\u00e1s de estos compromisos, se est\u00e1n llevando a cabo otras acciones importantes, como la competencia \u201cAI Cyber Challenge\u201d para proteger el software m\u00e1s cr\u00edtico de los Estados Unidos. Por otra parte, la IA est\u00e1 jugando un rol cada vez m\u00e1s importante en la atenci\u00f3n m\u00e9dica, ya que ha revolucionado la forma en que se diagnostican, tratan y gestionan diversas enfermedades. Sus principales aplicaciones incluyen la interpretaci\u00f3n de im\u00e1genes m\u00e9dicas, como radiograf\u00edas y esc\u00e1neres, para detectar enfermedades; el an\u00e1lisis de datos para identificar patrones y tendencias que pueden impulsar la investigaci\u00f3n m\u00e9dica; la personalizaci\u00f3n de tratamientos y terapias seg\u00fan las necesidades espec\u00edficas de los pacientes; y la optimizaci\u00f3n de la atenci\u00f3n al paciente a trav\u00e9s de la predicci\u00f3n de resultados y la gesti\u00f3n eficiente de recursos. En este sentido, la IA est\u00e1 demostrando ser una herramienta valiosa para mejorar la precisi\u00f3n y la eficiencia en la atenci\u00f3n m\u00e9dica, y su adopci\u00f3n contin\u00faa brindando beneficios cl\u00ednicamente relevantes a pacientes y profesionales de la salud. Por ello la importancia de crear compromisos con la industria que desarrolla estas tecnolog\u00edas, ya que las soluciones de IA planten desaf\u00edos que requieren una regulaci\u00f3n y supervisi\u00f3n adecuadas para garantizar su uso responsable y \u00e9tico. BIBLIOGRAF\u00cdA WHITE HOUSE https:\/\/www.whitehouse.gov\/-room\/statements-releases\/2023\/09\/12\/fact-sheet-biden-harris-administration-secures-voluntary-commitments-from-eight-additional-artificial-intelligence-companies-to-manage-the-risks-posed-by-ai\/<\/p>","protected":false},"author":1,"featured_media":41188,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[156,160],"tags":[145],"class_list":["post-41186","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-big-data","category-noticias","tag-noticias"],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/41186","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/comments?post=41186"}],"version-history":[{"count":0,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/posts\/41186\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/media\/41188"}],"wp:attachment":[{"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/media?parent=41186"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/categories?post=41186"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/saluddigital.com\/en\/wp-json\/wp\/v2\/tags?post=41186"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}