MINNEAPOLIS, MN
El Departamento de Justicia de EE.UU. advirtió este martes de que las agencias federales castigarán el uso de la inteligencia artificial que afecte los derechos civiles, la competencia justa, la protección de los consumidores y la igualdad de oportunidades.
Kristen Clarke, de la División de Derechos Civiles en esa cartera, indicó que las plataformas de redes sociales, bancos, propietarios de viviendas, empleadores y otros negocios “se apoyan en la inteligencia artificial, los algoritmos y otras herramientas de datos para automatizar la toma de decisiones y la conducción de sus negocios”.
“Estamos listos para hacer que rindan cuentas las entidades que no atiendan las consecuencias discriminatorias que ocurren a menudo”, subrayó en un comunicado.
La AI se ha propagado en todos los rincones de la economía, recordó por su parte Rohit Chopra, director del Buró de Protección Financiera del Consumidor.
“Las agencias regulatorias necesitan ir por delante de este crecimiento para prevenir los resultados discriminatorios que amenazan la estabilidad financiera de las familias”, añadió el funcionario.
Por su parte la directora de la Comisión Federal de Comercio, Lina Khan, sostuvo que “ya vemos cómo las herramientas de AI pueden fortalecer el fraude y automatizar la discriminación, y no dudaremos en emplear todas nuestras atribuciones legales para proteger a los estadounidenses de estas amenazas”.
Algunos usos más generalizados de AI incluyen los “asistentes” de voz, el reconocimiento facial para el acceso en teléfonos celulares y la detección de fraudes financieros.
Los vehículos autónomos usan memoria limitada de AI para observar la velocidad y dirección de otros vehículos como ayuda para “leer la ruta” y hacer ajustes necesarios.
La inteligencia artificial es el simulacro de procesos de la inteligencia humana hecho por máquinas, especialmente sistemas computarizados. Las aplicaciones específicas de AI incluyen sistemas expertos, procesamiento de lenguaje natural, reconocimiento del habla y visión por máquinas.