El jueves pasado, los senadores Elizabeth Warren y Eric Schmitt presentaron un proyecto de ley destinado a fomentar una mayor competencia por los contratos otorgados por el Pentágono en inteligencia artificial y computación en la nube. Amazon, Microsoft, Google y Oracle actualmente dominar esos contratos. “La forma en que los grandes crecen en IA es absorbiendo los datos de todos y usándolos para entrenar y expandir sus sistemas”, le dijo Warren. Correo de Washington.
el nuevo factura “requeriría un proceso de adjudicación competitivo” para los contratos, lo que prohibiría al Pentágono utilizar precios “sin licitación” para empresas de servicios en la nube o modelos básicos de IA. (La medida de los legisladores se produjo un día después de que OpenAI anunciara que su tecnología se desplegaría en el campo de batalla por primera vez en asociación con Anduril, completando una reversión de su política de un año de no trabajar con el ejército).
Si bien las grandes tecnológicas se han visto afectadas por investigaciones antimonopolio, incluida la demanda en curso contra Google por su dominio en las búsquedas, así como una investigación recientemente abierta sobre microsoft— Los reguladores también están acusando a las empresas de inteligencia artificial de, bueno, simplemente mentir.
El martes, la Comisión Federal de Comercio tomó medidas contra la empresa de cámaras inteligentes IntelliVision, diciendo que la empresa fabrica afirmaciones falsas sobre su tecnología de reconocimiento facial. IntelliVision ha promocionado sus modelos de IA, que se utilizan en sistemas de cámaras de seguridad tanto domésticas como comerciales, como si funcionaran sin prejuicios raciales o de género y estuvieran entrenados en millones de imágenes, dos afirmaciones que la FTC considera falsas. (La empresa no pudo respaldar la afirmación de sesgo y el sistema fue entrenado con solo 100.000 imágenes, dice la FTC).
Hace una semana, la FTC hizo lo mismo las reclamaciones fraude contra el gigante de la seguridad Evolv, que vende productos de escaneo de seguridad de IA a estadios, escuelas K-12 y hospitales. Evolv promociona sus sistemas como que ofrecen una mejor protección que los simples detectores de metales, diciendo que utilizan IA para detectar con precisión armas, cuchillos y otras amenazas mientras ignoran los elementos inofensivos. La FTC alega que Evolv infló sus afirmaciones de precisión y que sus sistemas fallaron en una serie de ocasiones, como un incidente en 2022 cuando no pudieron detectar un cuchillo de siete pulgadas que finalmente se utilizó para apuñalar a un estudiante.
Estas se suman a las quejas que volvió a presentar la FTC Septiembre contra varias empresas de IA, incluida una que vendió una herramienta para generar reseñas de productos falsas y otra que vende servicios de “Abogados de IA”.