Nuestro sitio web utiliza cookies para mejorar y personalizar su experiencia y para mostrar anuncios (si los hay). Nuestro sitio web también puede incluir cookies de terceros como Google Adsense, Google Analytics, Youtube. Al usar el sitio web, usted consiente el uso de cookies. Hemos actualizado nuestra Política de Privacidad. Por favor, haga clic en el botón para consultar nuestra Política de Privacidad.

Impacto de la nueva política de IA de Google en la vigilancia

https://www.eldiario.com.co/wp-content/uploads/2025/02/Levantamiento-del-paro-minero-en-Antioquia-acuerdos-en-Marmato-y-Caucasia-2025-02-05T085113.830.png

En un giro importante en su política de ética en inteligencia artificial (IA), Google ha suprimido de sus normativas la restricción explícita de emplear su tecnología en aplicaciones vinculadas con armamento y supervisión. Este cambio, dado a conocer el 4 de febrero de 2025, ha suscitado un extenso debate sobre las consecuencias éticas y sociales de la IA en ámbitos militares y de seguridad.

En una decisión que marca un cambio significativo en su política de ética en inteligencia artificial (IA), Google ha eliminado de sus directrices la prohibición explícita de utilizar su tecnología en aplicaciones relacionadas con armamento y vigilancia. Esta modificación, anunciada el 4 de febrero de 2025, ha generado un amplio debate sobre las implicaciones éticas y sociales de la IA en contextos militares y de seguridad.

Evolución de las Directrices de IA de Google

  • Aplicaciones que pudieran causar o tengan tendencia a causar daño generalizado.
  • Armas u otras tecnologías cuyo objetivo principal o uso sea provocar o facilitar directamente daño a personas.
  • Tecnologías que recojan o usen información para vigilancia que infrinja normas aceptadas internacionalmente.
  • Tecnologías cuyo propósito vaya en contra de principios ampliamente reconocidos del derecho internacional y de los derechos humanos.

Estas normas se implementaron tras las críticas internas y externas que la empresa enfrentó por su involucramiento en el Proyecto Maven, una iniciativa del Departamento de Defensa de Estados Unidos que utilizaba IA para analizar imágenes de drones. La controversia llevó a Google a no renovar el contrato, estableciendo límites claros sobre el uso de su tecnología en contextos militares y de vigilancia.

Actualización de los Principios Éticos

Revisión de los Principios Éticos

«Creemos que las democracias deben encabezar el desarrollo de la IA, guiadas por principios fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y consideramos que las empresas, los gobiernos y las organizaciones que comparten estos ideales deberían colaborar para … .»

Consecuencias y Reacciones

«Creemos que las democracias deberían liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para … .»

Implicaciones y Reacciones

«Es profundamente preocupante ver a Google renunciar a su compromiso con el uso ético de la tecnología de IA sin la participación de sus empleados o del público en general, a pesar del sentimiento de larga data de los empleados de que la empresa no debería estar en el negocio de la guerra.»

Además, expertos en ética de la IA han advertido sobre los riesgos de desarrollar sistemas de armas autónomas y han abogado por la implementación de controles globales para regular su uso. Stuart Russell, científico informático británico, ha subrayado los peligros asociados con el desarrollo de sistemas de armas autónomas y ha argumentado a favor de un sistema de control global.

Antecedentes y Proyecciones Futuras

Contexto y Perspectivas Futuras

Este cambio en la política de Google se produce en un momento de creciente competencia global por el liderazgo en IA y en medio de debates sobre cómo gobernar esta tecnología emergente. La empresa ha enfatizado la necesidad de que las democracias lideren el desarrollo de la IA, … . Sin embargo, la eliminación de prohibiciones específicas plantea preguntas sobre cómo Google equilibrará sus objetivos comerciales con las consideraciones éticas y sociales en el desarrollo y la aplicación de la IA.

Por Otilia Adame Luevano

También te puede gustar