Lo que debe saber: Nuevas reglas de IA en los EE.

RESUMEN EJECUTIVO:

Como la aplicación para consumidores de más rápido crecimiento en la historia, con más de 100 millones de usuarios activos mensuales, ChatGPT ha llamado la atención de legisladores y analistas de políticas de todo el mundo.

Debido a la ola de interés en la tecnología, la Administración Nacional de Telecomunicaciones e Información de los Estados Unidos (NTIA) está solicitando la opinión del público sobre la mejor manera de crear medidas de responsabilidad para la IA.

"De la misma manera que las auditorías financieras crearon confianza en la precisión de los estados financieros para las empresas, los mecanismos de rendición de cuentas para la IA pueden ayudar a garantizar que un sistema de IA sea confiable", dijo Alan Davidson, jefe de la Administración Nacional de Telecomunicaciones e Información de los Estados Unidos (NTIA).

Todo está en los detalles…

La NTIA tiene la intención de establecer barreras de protección que permitan a las agencias gubernamentales evaluar si las plataformas de IA se están desempeñando de la manera en que las empresas afirman que lo hacen, si son seguras, si tienen resultados discriminatorios o "reflejan niveles inaceptables de sesgo", entre otras cosas.

La Casa Blanca lanzó previamente una " guía "sobre el desarrollo de sistemas de inteligencia artificial en forma de una" declaración de derechos " voluntaria."Pero las empresas pueden o no cumplir con las pautas voluntarias.

Categorización de sistemas de IA

En Europa, los reguladores han propuesto un marco legal que clasifica los sistemas de IA en función del nivel de riesgo que introducen. Por ejemplo, las categorías podrían tener etiquetas como riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo.

Sin embargo, esta propuesta ha recibido el rechazo de las empresas tecnológicas. Algunos han notado que debido a que los chatbots tienen más de una utilidad, no pueden clasificarse simplemente como de riesgo limitado o alto riesgo.

Una actividad de chatbot de bajo riesgo puede consistir en pedirle a ChatGPT que publique una publicación en las redes sociales sobre un tema específico, mientras que una actividad de alto riesgo que podría ocurrir a través del mismo chatbot consiste en crear malware o incluso una amenaza de día cero.

Buenas barandillas de IA

En los Estados Unidos, "not no tenemos las barandas en su lugar, las leyes que necesitamos, la educación pública o la experiencia en el gobierno para manejar las consecuencias de los rápidos cambios que están teniendo lugar", dice Merve Hickok, presidenta y directora de investigación del Centro de IA y Política Digital.

En contraste con el pensamiento popular, podría decirse que las buenas barandillas no deberían restringir las capacidades de los usuarios. En su lugar, deben promover la innovación y, al mismo tiempo, evitar resultados perjudiciales en el mundo real. La IA tiene el potencial de impulsar profundas mejoras sociales, pero solo si permitimos esta posibilidad.

A algunos expertos les preocupa que la conversación actual sobre la IA pueda resultar en estancamiento en lugar de innovación. Por ejemplo, el pedido moratoria la IA es posiblemente una medida extrema, ya que adopta una postura de todo o nada.

A los ojos de algunos analistas, el éxito de la IA depende de un modelo de gobernanza flexible que incorpore soluciones prácticas, sin sofocar la innovación ni acelerarla a expensas de la conexión y el bienestar humanos.

Para obtener más información sobre IA, ChatGPT y políticas, consulte CyberTalk.org cobertura de liderazgo de pensamiento del pasado. Por último, echa un vistazo a la CyberTalk.org boletín de noticias. Regístrese hoy para recibir artículos de noticias de primer nivel, mejores prácticas y análisis de expertos cada semana.

Post Lo que debe saber: Nuevas reglas de IA en los EE. apareció primero en Charla cibernética.



>>Más