Skip to main content

Este 28 de enero se celebra el Día Europeo de la Protección de Datos, una fecha proclamada por la Unión Europea que tiene como objetivo informar y concienciar sobre los derechos y obligaciones de los usuarios de internet en este sentido.

Entre las nuevas aplicaciones en el uso de datos personales encontramos la irrupción de Inteligencias Artificiales. Herramientas  que debido al acceso a información sensible del que disponen, se han convertido en uno de los principales focos de preocupación por parte de las autoridades a nivel internacional. Especialmente en lugares como la comunidad europea, como veremos en este post.

¿Qué retos presenta la IA en el ámbito de la protección de datos?

La Inteligencia Artificial crece a un ritmo vertiginoso, alentada por las nuevas necesidades del mercado y el interés de la sociedad. Ante este escenario, se presentan múltiples desafíos en materia de protección de datos. Algunos de estos retos se centran en torno a la privacidad y transparencia, el consentimiento, la seguridad, la recopilación excesiva de datos o la colaboración internacional.

Es importante que entendamos la magnitud del mercado de las IA, ya que, según un estudio de la consultora IDC, se espera que el gasto en soluciones de IA supere los 500.000 millones de dólares en 2027. Lo que supone un cambio significativo en las inversiones hacia la implementación de la IA y la adopción de productos con IA.

Una recopilación de datos descontrolada

La sociedad actual hiperconectada se enfrenta a un reto de privacidad. Los sistemas de IA actuales, con un acceso poco regulado e indiscriminado a datos de todo tipo en la web, está facilitando que nuestra información personal esté más expuesta que nunca.

Los sistemas del Internet de las Cosas (IoT) están cada vez más presentes. Desde medios de transporte como el coche autónomo, controles de acceso (con sistemas de reconocimiento facial), nuestros propios dispositivos móviles o incluso equipos sanitarios. Todos recopilan y gestionan inmensas cantidades de datos personales. Un problema en materia de seguridad, ya que sin regulación o control, estos sistemas se pueden convertir en una fuente de datos de valor para delincuentes.

Regulaciones y control

Cabe plantearse por tanto si disponemos de una regulación suficiente, que no solo garantice la protección de nuestros datos, sino que además limite el control que las empresas ejercen sobre nuestra información.

Es por ello que recientemente, y precisamente debido a este auge en el tráfico de datos personales, se ha puesto en marcha la Ley de Inteligencia Artificial de la UE. Una ley que pretende cubrir todas las carencias y vacíos legales que se han ido generando en torno a esta nueva tecnología, debido a su inesperado crecimiento y rápido desarrollo.

Esta nueva ley supone un primer paso en la regulación de las competencias y el alcance de estos sistemas, evitando un abuso de los derechos individuales y una protección de datos tanto para empresas como individuos. Se busca principalmente evitar malas praxis que puedan afectar a la libertad individual, como la vigilancia biométrica o la influencia en el voto, entre otras.

Regulación y datos de calidad, el binomio adecuado

La IA promete un futuro alentador, lleno de avances e innovación. Sin embargo, también queda reflejada la necesidad de someterse a una regulación y control efectivos, que aborden problemas como la gobernanza y localización de los datos que gestiona. También se debe continuar progresando en la aplicación de leyes internacionales que no solo regulen estas herramientas, sino que también faciliten el intercambio de datos transfronterizos, teniendo siempre presente la protección de datos individuales y de las organizaciones. 

Por otro lado, la clave está también en los datos que alimentan esta IA. La confianza en ellos es clave para que las organizaciones adopten esta tecnología sin miedos. El uso inapropiado de deepfakes, el riesgo en la difusión de información y demás retos por delante, evidencian que es necesario generar esta confianza. Una forma de hacerlo es mejorar los datos con los que se “educa” a la IA.

A nivel empresarial, estamos viendo pasos en la dirección correcta. Desde PUE observamos como todo tipo de compañías confían en nosotros para mejorar la gobernanza, el origen y el linaje de los datos. Las empresas tienen que contar con estrategias para comprobar la fiabilidad y autenticidad de sus datos e implantar una gobernanza robusta. Solo de esta forma será posible utilizar la IA con confianza para obtener insights más útiles y valiosos.