banner

Noticias

Apr 27, 2024

La inteligencia artificial está atrayendo la atención de los legisladores estatales y tienen muchas preguntas.

ARCHIVO: El logotipo de OpenAI se ve en un teléfono móvil frente a una pantalla de computadora que muestra el resultado de ChatGPT, el 21 de marzo de 2023, en Boston. A medida que los legisladores estatales se apresuran a controlar la tecnología de inteligencia artificial en rápida evolución, a menudo se centran primero en sus propios gobiernos estatales antes de imponer restricciones al sector privado. Los legisladores están buscando formas de proteger a los electores de la discriminación y otros daños sin obstaculizar los avances de vanguardia en medicina, ciencia, negocios, educación y más. (Foto AP/Michael Dwyer, archivo)

ARCHIVO – El gobernador de Connecticut, Ned Lamont, pronuncia el discurso sobre el estado del estado durante la sesión inaugural de la Legislatura, en el Capitolio del estado, el 4 de enero de 2023, en Hartford, Connecticut. Los legisladores de Connecticut, el miércoles 19 de julio de 2023, aprobaron una proyecto de ley que impone nuevos controles al uso de inteligencia artificial por parte del gobierno estatal. (Foto AP/Jessica Hill, archivo)

HARTFORD, Connecticut, EE.UU. (AP) — Mientras los legisladores estatales se apresuran a controlar la tecnología de inteligencia artificial en rápida evolución, a menudo se centran primero en sus propios gobiernos estatales antes de imponer restricciones al sector privado.

Los legisladores están buscando formas de proteger a los electores de la discriminación y otros daños sin obstaculizar los avances de vanguardia en medicina, ciencia, negocios, educación y más.

“Estamos empezando por el gobierno. Estamos tratando de dar un buen ejemplo”, dijo el senador estatal de Connecticut, James Maroney, durante un debate en mayo.

Connecticut planea inventariar todos sus sistemas gubernamentales utilizando inteligencia artificial para fines de 2023 y publicar la información en línea. Y a partir del próximo año, los funcionarios estatales deberán revisar periódicamente estos sistemas para garantizar que no conduzcan a una discriminación ilegal.

Maroney, un demócrata que se ha convertido en una autoridad de referencia en IA en la Asamblea General, dijo que los legisladores de Connecticut probablemente se centrarán en la industria privada el próximo año. Planea trabajar este otoño en una legislación modelo sobre IA con legisladores en Colorado, Nueva York, Virginia, Minnesota y otros lugares que incluya “barandillas de seguridad amplias” y se centre en cuestiones como la responsabilidad de los productos y la exigencia de evaluaciones de impacto de los sistemas de IA.

“Está cambiando rápidamente y hay una rápida adopción de personas que lo utilizan. Así que tenemos que adelantarnos a esto”, dijo en una entrevista posterior. "En realidad ya lo hemos respaldado, pero no podemos esperar mucho más para asumir algún tipo de responsabilidad".

En total, al menos 25 estados, Puerto Rico y el Distrito de Columbia introdujeron proyectos de ley sobre inteligencia artificial este año. A finales de julio, 14 estados y Puerto Rico habían adoptado resoluciones o promulgado legislación, según la Conferencia Nacional de Legislaturas Estatales. La lista no incluye proyectos de ley centrados en tecnologías específicas de inteligencia artificial, como el reconocimiento facial o los automóviles autónomos, algo que el NCSL está rastreando por separado.

Las legislaturas de Texas, Dakota del Norte, Virginia Occidental y Puerto Rico han creado órganos asesores para estudiar y monitorear los sistemas de IA que utilizan sus respectivas agencias estatales, mientras que Luisiana formó un comité de nueva tecnología y seguridad cibernética para estudiar el impacto de la IA en las operaciones, adquisiciones y políticas estatales. . Otros estados adoptaron un enfoque similar el año pasado.

Los legisladores quieren saber “¿Quién lo usa? ¿Cómo lo estás utilizando? Simplemente recopilamos esos datos para descubrir qué hay ahí fuera, quién está haciendo qué”, dijo Heather Morton, analista legislativa del NCSL que rastrea cuestiones de inteligencia artificial, ciberseguridad, privacidad e Internet en las legislaturas estatales. "Eso es algo que los estados están tratando de resolver dentro de sus propias fronteras estatales".

La nueva ley de Connecticut, que exige que los sistemas de IA utilizados por las agencias estatales sean examinados periódicamente para detectar una posible discriminación ilegal, se produce después de que una investigación realizada por la Clínica de Libertad de Medios y Acceso a la Información de la Facultad de Derecho de Yale determinara que la IA ya se está utilizando para asignar estudiantes a escuelas especializadas. fijar fianzas y distribuir prestaciones sociales, entre otras tareas. Sin embargo, el público desconoce en su mayoría los detalles de los algoritmos.

La tecnología de inteligencia artificial, dijo el grupo, "se ha extendido por todo el gobierno de Connecticut rápidamente y en gran medida sin control, un desarrollo que no es exclusivo de este estado".

Richard Epink, director legal de la Unión Estadounidense de Libertades Civiles de Idaho, testificó ante el Congreso en mayo sobre el descubrimiento, a través de una demanda, de los “algoritmos computarizados secretos” que Idaho estaba usando para evaluar a personas con discapacidades del desarrollo para servicios de atención médica financiados con fondos federales. El sistema automatizado, dijo en un testimonio escrito, incluía datos corruptos que se basaban en entradas que el estado no había validado.

La IA puede ser una abreviatura de muchas tecnologías diferentes, desde algoritmos que recomiendan qué ver a continuación en Netflix hasta sistemas de IA generativa como ChatGPT que pueden ayudar a escribir o crear nuevas imágenes u otros medios. El aumento de la inversión comercial en herramientas de IA generativa ha generado fascinación pública y preocupación sobre su capacidad para engañar a la gente y difundir desinformación, entre otros peligros.

Algunos estados aún no han intentado abordar el problema. En Hawái, el senador estatal Chris Lee, demócrata, dijo que los legisladores no aprobaron este año ninguna legislación que regule la IA "simplemente porque creo que en ese momento no sabíamos qué hacer".

En cambio, la Cámara y el Senado de Hawaii aprobaron una resolución propuesta por Lee que insta al Congreso a adoptar pautas de seguridad para el uso de inteligencia artificial y limitar su aplicación en el uso de la fuerza por parte de la policía y el ejército.

Lee, vicepresidente del Comité Senatorial de Trabajo y Tecnología, dijo que espera presentar un proyecto de ley en la sesión del próximo año que sea similar a la nueva ley de Connecticut. Lee también quiere crear un grupo o departamento de trabajo permanente para abordar cuestiones de IA con la experiencia adecuada, algo que admite que es difícil de encontrar.

“En este momento no hay mucha gente que trabaje en gobiernos estatales o instituciones tradicionales que tenga este tipo de experiencia”, afirmó.

La Unión Europea está liderando el mundo en la construcción de barreras en torno a la IA. Se ha debatido en el Congreso una legislación bipartidista sobre IA, que el líder de la mayoría del Senado, Chuck Schumer, dijo en junio maximizaría los beneficios de la tecnología y mitigaría riesgos significativos.

Sin embargo, el senador de Nueva York no se comprometió a dar detalles específicos. En julio, el presidente Joe Biden anunció que su administración había obtenido compromisos voluntarios de siete empresas estadounidenses destinados a garantizar que sus productos de inteligencia artificial sean seguros antes de lanzarlos.

Maroney dijo que lo ideal sería que el gobierno federal liderara el camino en la regulación de la IA. Pero dijo que el gobierno federal no puede actuar a la misma velocidad que una legislatura estatal.

"Y como hemos visto con la privacidad de los datos, realmente tuvo que surgir en los estados", dijo Maroney.

Algunos proyectos de ley a nivel estatal propuestos este año se han adaptado estrictamente para abordar preocupaciones específicas relacionadas con la IA. Las propuestas en Massachusetts impondrían limitaciones a los proveedores de salud mental que utilizan IA y evitarían “entornos de trabajo distópicos” donde los trabajadores no tienen control sobre sus datos personales. Una propuesta en Nueva York impondría restricciones a los empleadores que utilizan la IA como una “herramienta de decisión laboral automatizada” para filtrar candidatos a puestos de trabajo.

Dakota del Norte aprobó un proyecto de ley que define qué es una persona, dejando claro que el término no incluye la inteligencia artificial. El gobernador republicano Doug Burgum, un candidato presidencial con posibilidades remotas, ha dicho que tales barreras son necesarias para la IA, pero aún así se debe adoptar la tecnología para hacer que el gobierno estatal sea menos redundante y más receptivo a los ciudadanos.

En Arizona, la gobernadora demócrata Katie Hobbs vetó una legislación que prohibiría que las máquinas de votación tengan software de inteligencia artificial. En su carta de veto, Hobbs dijo que el proyecto de ley “intenta resolver desafíos que actualmente no enfrenta nuestro estado”.

En Washington, la senadora demócrata Lisa Wellman, ex analista de sistemas y programadora, dijo que los legisladores estatales deben prepararse para un mundo en el que los sistemas mecánicos prevalezcan cada vez más en nuestra vida diaria.

Ella planea implementar una legislación el próximo año que requeriría que los estudiantes tomen ciencias de la computación para graduarse de la escuela secundaria.

“En mi opinión, la inteligencia artificial y la informática son ahora una parte fundamental de la educación”, dijo Wellman. "Y necesitamos entender realmente cómo incorporarlo".

Los periodistas de Associated Press Audrey McAvoy en Honolulu, Ed Komenda en Seattle y Matt O'Brien en Providence, Rhode Island, contribuyeron a este informe.

COMPARTIR