Responsible AI

Equilibrar la ética, la equidad y la sostenibilidad para lograr una AI responsable

Rackspace Technology establece estándares, políticas y proporciona gobernanza y supervisión para garantizar el uso responsable y ético de la AI. Nos comprometemos a usar la tecnología de una manera que sea coherente con los principios éticos de responsabilidad, equidad, transparencia y confianza.

ChatGPT de OpenAI ha sido fundamental para introducir la AI en el mercado de consumo general. El ritmo récord de adopción del producto y de las tecnologías de AI generativa subyacentes que usan otros modelos fundacionales, que abarcan lenguaje, código y elementos visuales, aceleró al mismo tiempo la innovación y el uso indebido de las tecnologías.

Esto ha llevado a algunas empresas a imponer prohibiciones integrales sobre el uso de las tecnologías y los productos en los sistemas corporativos. Al ritmo actual de adopción y dados los beneficios del uso responsable de la AI, es probable que las prohibiciones completas del uso de las tecnologías de AI sean ineficaces. En cambio, es más prudente que las organizaciones implementen controles y creen una cultura de uso responsable de la AI, concientizando y ofreciendo capacitaciones que incluyan orientación sobre los mejores usos de estas tecnologías y advertencias contra los posibles usos indebidos.

 

¿Cómo definimos el uso responsable de la AI?

La responsabilidad, a diferencia de la rendición de cuentas, no está relegada al control propietario individual o conjunto, sino al control propietario colectivo. La responsabilidad existe cuando uno está auténticamente alineado con lo que dice. Cuando se aplica eso a la AI, se trata de exigirles a los programadores y usuarios de los sistemas de AI que consideren el impacto potencial de estos sistemas en los individuos y la sociedad, asumiendo la responsabilidad y tomando medidas para mitigar las consecuencias negativas, de modo que conjuntamente como organización, tomemos las decisiones correctas.

La AI responsable se refiere al desarrollo, la implementación y el uso de la AI de una manera ética, confiable, justa e imparcial, transparente y beneficiosa para los individuos y la sociedad en general. El enfoque debe abarcar la innovación, mejorar la productividad y utilizar la tecnología como herramienta para eliminar los sesgos sociales inherentes. Se trata de usar la AI como un sistema de soporte para la toma de decisiones, y no como la encargada de tomar las decisiones.

 

Construir una cadena de confianza en la AI

Los sistemas de AI tienen de forma intrínseca múltiples capas de información codificadas como parte de los modelos implementados. Esto plantea un desafío al momento de aclarar qué información se comparte con las plataformas subyacentes para los servicios que integran funcionalidades de AI. Los modelos fundacionales están disponibles a partir de una variedad de fuentes, que van desde propiedad privada hasta código abierto. Luego, se amplían e incorporan en varios modelos funcionales, que se integran aún más en los productos.

Tomemos, por ejemplo, GitHub Copilot. Desde el usuario final, los programadores que usan Copilot para la programación de pares de AI deben ser conocer la IP de propiedad privada y los datos compartidos con la plataforma para crear código en conjunto. El primer anillo de la cadena corresponde a los usuarios individuales. Las organizaciones deben adoptar políticas y gobernanza para el uso de GitHub Copilot. Esa es la segunda capa de confianza que una organización coloca en el uso de un producto de software.

A su vez, GitHub usa OpenAI Codex para el modelo fundacional subyacente, y GitHub otorga la siguiente cadena de confianza a OpenAI. Para que podamos usarlo de manera responsable, debemos entender qué recopila GitHub y qué recopila la plataforma subyacente, en este caso OpenAI. Esto requiere construir esa cadena de confianza, donde GitHub confía en que OpenAI está haciendo lo correcto, y nosotros confiamos en que GitHub y nuestros compañeros de trabajo estén usando el servicio de manera responsable.

 

Nuestro enfoque para el uso responsable de la AI dentro de la organización

Hay mucho entusiasmo con respecto a las nuevas capacidades que presenta la AI generativa. Hay una mayor demanda para mejorar la productividad en el lugar de trabajo híbrido mediante el uso de copilotos de AI, así como el deseo de construir una empresa inteligente con el uso de modelos de AI seguros, asequibles y escalables. Queremos hacer todo esto de manera responsable.

Hemos tomado algunas medidas para elaborar políticas que se puedan aplicar y usar en nuestros escenarios de casos de uso y que, a su vez, tengan vinculación con estos. Estas son algunas pautas que seguimos para lograrlo:

  • Mantener las políticas simples y fáciles de entender.
  • Definir políticas de clasificación de datos y proporcionar orientación que incluya ejemplos concretos de clasificación de información y uso seguro de los datos.
  • Educar y capacitar a los equipos con principios y pautas de AI responsable, y contextualizar las políticas con ejemplos del mundo real.
  • Implementar un proceso para monitorear el uso ético de la AI.
  • Crear un consejo de gobernanza que pueda evaluar y validar la aplicación de políticas e implementar actualizaciones periódicas.

 

Nuestras principales políticas de AI:

  • Gobernanza y supervisión: hemos formado un comité y hemos definido propietarios para proporcionar supervisión, compliance, auditoría y aplicación del estándar de AI.
  • Uso autorizado del software: el uso del software de AI está sujeto al mismo proceso de adquisición global y supervisión de uso interno que aplicamos a otras aplicaciones de software.
  • Uso responsable y ético: fomentamos el uso ético, la supervisión y la capacidad de explicación de los modelos de AI. Esto incluye garantizar la validez, la confiabilidad, la seguridad, la responsabilidad, la transparencia, nuestra capacidad para explicar e interpretar la imparcialidad y el manejo de sesgos perjudiciales.
  • Información confidencial y sensible: hemos implementado estándares de clasificación de la información y brindamos orientación clara sobre el uso de los servicios de AI para garantizar la protección adecuada de la propiedad intelectual, los datos regulados y la información confidencial.
  • Retención, privacidad y seguridad de datos: seguimos las políticas de administración y retención de datos, y mantenemos el compliance de las políticas corporativas de seguridad y privacidad de datos.
  • Informes: se alienta a los empleados a denunciar de buena fe las violaciones del estándar de AI.

 

Conclusión

En resumen, aquí están nuestros principios rectores básicos que nos ayudan a crear políticas y construir un ambiente socialmente responsable que fomente la innovación y evite el uso negativo y las consecuencias de la AI.

  • AI para un buen uso: cree y use la AI para el bien colectivo y limite los factores perjudiciales.
  • Eliminar el sesgo: sea justo y elimine el sesgo a través de algoritmos, conjuntos de datos y aprendizaje de refuerzo.
  • Responsabilidad y capacidad de explicación: debemos responsabilizarnos de cualquier uso de la AI y los usos derivados, y emplear la capacidad de explicación como base para cualquier proceso de construcción de modelos.
  • Privacidad e IP: mantendremos un uso seguro de los datos corporativos y de la propiedad intelectual.
  • Transparencia: el uso de modelos y conjuntos de datos estará bien catalogado y documentado.
  • Uso ético: supervisaremos y validaremos el uso ético de conjuntos de datos y AI.
  • Mejor productividad: centraremos los esfuerzos de adopción de AI para mejorar la productividad, aumentar la eficiencia operativa y estimular la innovación.

 

 

< entidad-drupal data-align="left" data-embed-button="media_entity_embed" data-entity-embed-display="view_mode:media.full" data-entity-type="media" data-entity-uuid="ffc70d81-8bc0-42e9-b646-2faec089e354" data-langcode="en"> < /drupal-entity>

Aproveche el poder de la IA de forma rápida y responsable con Foundry for AI de Rackspace Technology (FAIR™). FAIR™ está a la vanguardia de la innovación global en IA, allanando el camino para que las empresas aceleren la adopción responsable de soluciones de IA. FAIR se alinea con cientos de casos de uso de IA en una amplia gama de industrias y, al mismo tiempo, permite la personalización mediante la creación de una estrategia de IA personalizada que se aplica a sus necesidades comerciales específicas. Capaces de implementarse en cualquier plataforma de nube pública privada, híbrida o de hiperescala, las soluciones FAIR empoderan a las empresas de todo el mundo al ir más allá de la transformación digital para desbloquear la creatividad, liberar la productividad y abrir la puerta a nuevas áreas de crecimiento para nuestros clientes.Siga a FAIR en LinkedIn.

Aprende más

 

Join the Conversation: Find Solve on Twitter and LinkedIn, or follow along via RSS.

Stay on top of what's next in technology

Learn about tech trends, innovations and how technologists are working today.

Subscribe
FAIR

Aproveche su potencial transformador con Foundry for Generative AI de Rackspace (FAIR™).

About the Authors

Nirmal Ranganathan

Chief Architect - Data & AI

Nirmal Ranganathan

Nirmal Ranganathan is the Chief Architect – Data & AI at Rackspace Technology and responsible for technology strategy and roadmap for Rackspace's Public Cloud Data & AI solutions portfolio, working closely with customers, alliances and partners. Nirmal has worked with data over the past 2 decades, solving distributed systems challenges dealing with large volumes of data, being a customer advocate and helping customers solve their data challenges. Nirmal consults with customers around large-scale databases, data processing, data analytics and data warehousing in the cloud, providing solutions for innovative use cases across industries leveraging AI and Machine Learning.

Read more about Nirmal Ranganathan
Joanne Flack

VP, Deputy General Counsel & Chief Privacy Officer

Joanne Flack

Joanne Flack is Vice President, Deputy General Counsel & Chief Privacy Officer at Rackspace Technology. As part of her role, Joanne is responsible for all privacy, cybersecurity, enterprise risk management, intellectual property, product development and technology legal matters at Rackspace Technology. This includes overseeing appropriate corporate governance and compliant strategy for responsible use of AI, both within Rackspace Technology and in Rackspace Technology’s multicloud solution portfolio. Joanne is an award winning legal executive, and has two decades of in-depth experience in the technology sector. She is a US licensed attorney, a solicitor in England & Wales, an experienced privacy and cybersecurity professional (IAPP Fellow of Information Privacy - FIP, CIPP/US, CIPP/E, CIPT, CIPM; (ISC)² CC, & CISSP candidate), and a COSO certified enterprise risk manager. Joanne is an experienced public company executive, holds an MBA from Imperial College London, and is an NACD certified corporate director.

Read more about Joanne Flack