Recentemente o Professor Leonardo Parentoni esteve no Uruguai e participou de ciclos de debates sobre a o uso das novas tecnologias. Segue na íntegra entrevista que concedeu ao jornal Búsqueda, falando sobre os trade-offs do uso da Inteligência Artificial e a Proteção de Dados Pessoais:
https://www.freepik.com/free-photo/flag-uruguay_1179693.htm
Escribe María Paz Sartori
La deserción estudiantil, la pobreza y la inequidad se entrelazan. Hay datos sobre esos temas en el Instituto Nacional de Estadística, en la Administración Nacional de Educación Pública (Anep), en el Codicen y en otras instituciones del Estado. ¿Por qué no usar entonces esa información con la que cuenta el Estado para crear una herramienta de inteligencia artificial que permita predecir el riesgo de deserción de los estudiantes? Con ese resultado podrían ir directo al grano y atacar los problemas a tiempo.
Esta fue una de las propuestas que surgieron cuando en 2018 la agencia de gobierno electrónico Agesic organizó el primer evento sobre inteligencia artificial (IA), que llamó IAckatón. La idea fue reunir propuestas en donde el Estado podría aprovechar la IA. Este año redobla la apuesta: el lunes 10 lanzó la segunda edición de la Iackatón, que se hará en agosto, y apunta con más decisión a poder trabajar en pilotos en entornos controlados con algunas propuestas que surjan. El gran tema detrás de todo esto no es el desarrollo del software y la aplicación de las nuevas tecnologías sino la protección de los derechos de las personas. ¿Qué va a hacer el Estado con los datos de la gente? El problema es que ahora puede usarlos de muchísimas formas, las posibilidades son enormes.
“Hoy el Estado tiene un montón de datos que no puede explotar porque fueron recabados para una finalidad” y ahora esos mismos datos tienen el potencial de ser utilizados con otro objetivo, planteó el ingeniero Javier Barreiro, director del área Tecnologías de la Información de Agesic, el martes 4 durante la actividad organizada por la Unidad Reguladora de Control de Datos Personales (URCDP) sobre Inteligencia Artificial y Protección de Datos. “Nos interesa mucho poder usar los datos y hacerlo bien” cumpliendo con la protección, agregó.
La inteligencia artificial es un conjunto de tecnologías que desarrollan sistemas capaces de realizar tareas que normalmente se atribuyen a la inteligencia humana, según define Agesic en el documento de 2019 Estrategia de inteligencia artificial para el gobierno digital. Incluye sistemas de reconocimiento facial, el funcionamiento de vehículos sin conductor, videojuegos en los que se compite con el sistema y no con otras personas, programas que aprenden a asignar las recomendaciones de música, o de compras en tiendas online con base en la información que recogen de la persona, entre otros. Para poder hacer todo esto los sistemas necesitan datos, información.
La ciencia ficción se encargó de producir las primeras ideas de inteligencia artificial muy distante de la vida cotidiana. Sin embargo, hoy ya está integrada en la sociedad aunque no se note. Está en el celular, en la computadora, en sistemas de vigilancia, en todas partes.
Los buenos resultados en el uso de IA se ven en el tratamiento del cáncer en Estados Unidos, en donde un software es capaz de tomar en cuenta información sobre tratamientos anteriores, sus resultados y toda la evidencia científica disponible, para poder recomendar el mejor tratamiento a una persona recién diagnosticada con esta enfermedad. También se usa en cámaras de reconocimiento facial. En Brasil el sistema de inmigración trabajó este tema, ya que algunos hinchas ingleses tenían prohibido el ingreso a estadios. Entonces, pudieron detectar si estas personas ingresaban al país en fechas en que se celebró el Mundial de fútbol.
Pero la IA también tiene riesgos. En finanzas hay especial cuidado en las compras y ventas en las bolsas de valores ya que un software podría comprar y vender 10 veces una acción en un minuto y alterar y manipular el mercado. Además, en el ámbito estatal, hay países que ya están diseñando e implementando políticas públicas con el uso de estas tecnologías.
“Hoy está en el día a día de todos” y usarla en el Estado es una oportunidad y también requiere cuidar los riesgos, comentó Barreiro a Búsqueda. A Uruguay le ha llegado el momento de plantearse el tema.
El precio
Regular en IA, ese es el desafío ahora. Estas tecnologías se nutren de datos para poder funcionar de manera eficiente, pero el acceso a esos datos es la cuestión. “El derecho a regular la protección de datos tiene un precio en la eficiencia de la inteligencia artificial. Como sociedad necesitamos saber a dónde queremos ir”, dijo el abogado Leonardo Parentoni, docente de la Facultad de Derecho de la Universidad Federal de Minas Gerais de Brasil. “Todo tiene un precio”, opinó.
Al regular se debe establecer si es posible tener más control sobre los datos de las personas. En ese caso, “estamos más protegidos, pero la inteligencia artificial no va a funcionar, porque nuestros datos son combustible de ella. Si no permito que nadie haga nada con mis datos, para el plan de salud, el auto autónomo, los créditos, nada va a funcionar”, comentó Parentoni a Búsqueda.
Sin embargo, si la gente “ve cruzar los datos sin muchos requisitos”, los sistemas funcionarán bien pero se pierde “el control” sobre ellos. Hay un “trade off entre privacidad y protección de datos. De un lado está la eficiencia de la inteligencia artificial y, del otro, cuanta más privacidad y protección de datos peor va a funcionar el sistema. Una cosa es brindar 10 variables para estimar un resultado y otra es un millón. No precisa ser todo o nada, pero una es contraria a la otra. Me gustaría tener protección de datos completa y la inteligencia artificial funcionando excelente, pero no funciona así”, argumentó Parentoni.
A medida que una persona usa el asistente automático del celular, este mejora. Por ejemplo, Parentoni tiene una amiga que cada vez que viaja y llega a un lugar le pide al asistente restaurantes de comidas veganas. En su último viaje, al llegar al destino no tuvo que hacerlo. En su celular vio desplegarse las opciones sin que ella consultara. “¿Es una invasión a la privacidad? En realidad, el software funcionó muy bien, se anticipó. Funciona bien si perdemos un poco el control”, planteó el abogado. La cuestión está también en que es difícil prever cómo se va a utilizar la información que genera la persona.
Por la ley de protección de datos personales “tengo derecho a que se me explique las razones por las cuales se están tomando estas decisiones respecto a mí”, pero cuando se usa machine learning e IA “llega un momento en que se hace cada vez más difícil explicar en todas las capas cómo llegás a determinadas decisiones”, planteó Gonzalo Sosa, asesor de la URCDP.
“Los datos son el combustible y tenemos mucha información, pero hay distintos tipos de combustible, no es todo nafta. Tenemos nafta, gasoil, alcohol y una cantidad de cosas, todas mezcladas. El problema es cómo lo usamos y cómo podemos explicarles a las personas y cómo pueden ejercer ese derecho. ¿Es posible dar cumplimiento a ese derecho (con el uso de inteligencia artificial)?”, cuestionó Sosa durante el evento sobre el uso de estas tecnologías en el Estado.
“Quizás no. Tendremos que pensar en caminos alternativos”, respondió Barreiro. “Si se usan modelos bien complejos, quizás no pueda garantizar ese derecho, pero creo que la discusión es: ¿voy a usar esos modelos complejos o no se usan? Punto. Si la administración toma ese lugar, ¿perderá beneficios? Sí, pero preserva derechos”, dijo Barreiro a Búsqueda.
“Tenemos que tener el tiempo y los espacios para discutir dónde queremos estar. ¿Qué estamos dispuestos a sacrificar? ¿En dónde brindar derechos y garantías y en dónde no? En la medida que la administración pública comience a utilizar con más frecuencia algoritmos de inteligencia artificial o machine learning, vamos a tener que estar más finos en esa discusión” porque en definitiva la expansión de la IA lleva de la mano el “perder capacidad de explicar qué sucedió y dónde”, dijo Barrios.
“El software no tiene barreras éticas y morales”, planteó Sosa. Uno de los principios planteados por Agesic en el documento de IA aclara que los dilemas éticos serán “abordados y resueltos” por seres humanos. La intención es “dar tranquilidad” de que no todo va a quedar librado a la tecnología, destacó Barreiro.
La discusión
Las normas europeas se asientan en dos bases. La primera es proteger los derechos del titular. La segunda “casi nunca es mencionada y hoy es tan o más importante que la primera en Europa”, comentó Parentoni. Se trata de darle viabilidad a un mercado de datos. Así como se discuten las normas, también se contempla que las empresas puedan ganar dinero con los datos y esto no se restringe solo a Google, Facebook, Twitter e Instagram. La delicada línea entre proteger al titular y permitir que las empresas crezcan, que haya un intercambio y un mercado de datos, es el camino que actualmente recorre Europa con su legislación de protección de datos.
“¿Nosotros en el Mercosur vamos a dialogar para tener un mercado sudamericano de protección de datos o nos vamos a quedar siempre siguiendo a Europa?”, cuestionó Parentoni.
Los tiempos están cambiando. En Estados Unidos las 20 principales universidades, entre las que están Harvard, Stanford, Yale y Berkley, están planteando cursos obligatorios comunes para profesionales del Derecho y de las ciencias en computación, para que sean conscientes de los riesgos jurídicos de programar, de lo que se debe y no se debe hacer.
A fines de 2018 Uruguay asumió la presidencia del grupo Digital 9, un espacio de trabajo que integran los países con gobiernos más digitalizados del mundo. Fue el primer país latinoamericano en ingresar. A la interna del D9 hay grupos de trabajo sobre identidad digital, inteligencia artificial y derechos digitales. En noviembre acordaron una serie de objetivos generales sobre la aplicación y el uso de la IA y en 2019 comenzó a reunirse un grupo de trabajo. “La discusión se está dando acá y también a nivel internacional. La normativa no está clara”, planteó Barreiro.
Comments