Magazine
February 11, 2020

Algoritmos un poco más humanos

Algo de contexto

Recientes estudios demuestran que la gama de técnicas digitales que una aplicación para móviles puede poner a nuestra disposición, está por encima de la capacidad de nuestros cerebros para controlar dicho entorno.

Asimismo, desde la psicología cognitivo conductual explican que nuestro comportamiento digital, especialmente cuando se trata de redes sociales, sigue el planteo de la teoría de los “sistemas de recompensa variable”.

Simplificando, se trata de que, al chequear las redes y enterarnos de las novedades respecto de la vida de nuestros amigos, familiares, ídolos; o acceder a información sobre actualidad, o publicidades de productos que nos interesan, sentimos placer como recompensa por la acción llevada a cabo.

El detalle es que no siempre que chequeamos nuestro Facebook, o Instagram, o los estados de WhatsApp, hay novedades. Pues bien, la ciencia ha demostrado que la práctica recurrente de intentar conseguir placer experimentando un nivel moderado de incertidumbre, genera dependencia, o adicción. Y eso es, exactamente, lo que las redes ofrecen, porque está íntimamente ligado con su modelo de negocio.

Por otro lado, una mirada más sociológica plantea que las redes como Facebook o YouTube crean burbujas de filtros o cámaras de eco: se trata de dos modos de explicar que, partiendo del principio de que nos resulta placentero confirmar nuestras creencias, y dado que los algoritmos de selección de contenidos sólo cuantifican el tiempo que permanecemos frente a la pantalla, las plataformas y redes sociales nos ofrecen, sistemáticamente, aquello que nos genera mayor tiempo de permanencia, por lo que filtran contenidos que harían que dejemos de mirar.

La burbuja de filtros hace que sólo veamos contenido que nos gusta (o que confirma nuestras creencias) y la cámara de eco hace que leamos y escuchemos una y otra vez a quienes piensan como nosotros. De esos dos procedimientos se deduce una gran cantidad de efectos de enorme impacto social: escasez de diálogo verdadero, falta de consenso, debilitamiento de la libertad de expresión en favor de grupos radicales, incluso aparición de redes de pedofilia.

Una luz al final del túnel

Mientras tanto, en el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho, Universidad de Buenos Aires, Argentina (IALAB), los expertos proponen desarrollar ecosistemas digitales que permitan un tratamiento automatizado compatible con los Derechos Humanos. Se refieren, al mismo tiempo, a las empresas y sus plataformas y aplicaciones, y a todo el tratamiento de los datos que se hace desde el sector público. 

Admitiendo que la innovación es irrefrenable, los miembros del IALAB trabajan diariamente en la elaboración de un diagnóstico exhaustivo respecto del perfilamiento digital de las personas, y analizan cómo legislar al respecto. En este sentido, el paralelo con Le Grand Barouf Numérique (2019) es exacto: en dicho workshop, organizado por Ouishare, se analizó en forma minuciosa cómo y dónde trazar la línea que divide el buen uso de los datos de las personas para ofrecer mejor información, de la intromisión en la privacidad.

Enfocados en el sector público, los expertos argentinos advierten que ningún Estado democrático debe acopiar información que no esté anonimizada, salvo casos de estricta necesidad. Todos los procesos deben ser transparentes y auditables.

La referencia no es caprichosa ni casual: ese mismo laboratorio es el que entrena todos los días a Prometea, el primer software de Inteligencia Artificial aplicado a la Justicia que respeta los Derechos Humanos. Tiene el respaldo de la ONU y la OIT, entre otros organismos internacionales, y hace dos años que se aplica en la Justicia de la Ciudad de Buenos Aires, tanto como en la provincia de Mendoza, y la Corte Constitucional de Colombia. 

Ayudados por Prometea, cuya efectividad es del 96%, los juristas porteños cuyo responsable máximo es Juan G. Corvalán, Fiscal General Adjunto de Buenos Aires, y director del IALAB, han logrado, por ejemplo, resolver 1000 contravenciones por parte de conductores ebrios, en sólo 26 días, a razón de 16 minutos por expediente. En manos humanas, este mismo número de resoluciones llevaba 110 días, es decir, 70 minutos por cada una.

Ahora, investigan cómo moderar los excesos que se cometen en el perfilamiento digital de las personas, al tiempo que entrenan a Prometea para detectar imágenes de pornografía infantil.

Siendo vanguardia desde 2017 en materia de uso de IA en la Justicia pero con la técnica de caja blanca (aprendizaje supervisado por expertos, entrenamiento del algoritmo con capacidad de auditar los procesos para evitar sesgos) abogados del IALAB afirman que el concepto de juez robot que se usa en Estados Unidos, Estonia y China, es peligroso en la medida en desplaza la intervención humana indispensable para juzgar con criterio, responsabilidad e imparcialidad, y respetando los derechos esenciales en democracia.

Y es, justamente, en virtud de ese criterio, que autoridades del Ministerio de Justicia español estuvieron conociendo a Prometea el 30 de octubre pasado. En esa ocasión, Sofía Duarte Domínguez, Directora General de Modernización de la Justicia de España, afirmó que comprenden que la automatización de procesos judiciales es el futuro inmediato en la burocracia judicial, y que la digitalización llevada adelante en la última década permite dar el salto hacia el uso de IA para hacer eficiente a la Justicia española.

Dado el giro copernicano que significa compatibilizar el uso de procesos automáticos y predictivos con los Derechos Humanos universalmente aceptados, el MIT ha elegido a Prometea como caso sobresaliente de innovación disruptiva con respeto por las personas. Por ello, este sistema ha sido presentado en la reciente Cumbre Iberoamericana de Inteligencia Artificial, en Boston, Massachussets.

Algoritmos un poco más humanos

El contexto actual en materia de trabajo, plantea la inteligencia colectiva como uno de los paradigmas dominantes, tal como fuera desarrollado en una de las masterclass de Ouishare, del año pasado, en París: tareas descentralizadas, con protagonismo de la creatividad y lo espontáneo. 

Pero dicho entorno es, asimismo, terreno fértil para que los GAFAM, entre otros, saquen partido del uso de los datos bajo el modelo “all you can eat”, tal y como ocurre con cada nuevo salto tecnológico disruptivo.

Por ello, en un documento próximo a su publicación, llamado Perfiles digitales humanos, desde el IALAB sostienen que los usuarios debemos tener derecho a la autodeterminación informativa algorítmica: el consentimiento que solemos prestar a las plataformas no puede atarnos de pies y manos respecto del uso que se haga de la información, sobre todo cuando, en los términos y condiciones, no se explica claramente qué se hará con los datos.

Por otro lado, y analizando la legislación vigente y los acuerdos internacionales que se han celebrado últimamente en la materia, surgen derechos nuevos, que deben plasmarse en la legislación tanto como guiar las prácticas de organismos regulatorios. Algunos de ellos son: derecho a no ser perfilado; derecho a que no se tomen decisiones basadas únicamente en el perfilamiento digital automático; derecho a que los datos sensibles queden afuera del perfilamiento; derecho a conocer las condiciones y criterios de perfilamiento; derecho a la supresión del perfil; derecho a ser excluido de la publicidad directa no consentida.

Los casos comprobados de excesos en materia de violación del derecho a la intimidad, como el del asistente de voz de Google, tanto como escándalos de las proporciones de Cambridge Analytica, resultan alarma suficiente como para impulsar un acuerdo razonable trabajando en conjunto científicos, juristas, autoridades gubernamentales y empresas.

En definitiva, lo que está en juego es el conjunto de principios, derechos y garantías que sostienen el andamiaje social y político sobre el que se sostienen las democracias occidentales. No parece que este sea buen momento para dar un paso atrás. 


Otras lecturas

Lo digital no es software, es una forma de pensar (1/2)

Lo digital no es software, es una forma de pensar (2/2)

Cinco reflexiones sobre la ola technologica que viene


Algoritmos un poco más humanos

by 
Mauro A. Berchi
Magazine
January 30, 2020
Algoritmos un poco más humanos
Share on

ANÁLYSIS. En la Cuarta Revolución Industrial, la observación de la conducta digital permite que las empresas, usando Inteligencia Artificial (IA), administren, mediante algoritmos, perfiles digitales de los usuarios. Pero el Estado no se queda atrás: en el ámbito de la Justicia se utilizan procesos de aprendizaje de máquina, que pueden ser supervisados por personas o no. Humanizar con la tecnología debe ser el horizonte de este siglo XXI.

Algo de contexto

Recientes estudios demuestran que la gama de técnicas digitales que una aplicación para móviles puede poner a nuestra disposición, está por encima de la capacidad de nuestros cerebros para controlar dicho entorno.

Asimismo, desde la psicología cognitivo conductual explican que nuestro comportamiento digital, especialmente cuando se trata de redes sociales, sigue el planteo de la teoría de los “sistemas de recompensa variable”.

Simplificando, se trata de que, al chequear las redes y enterarnos de las novedades respecto de la vida de nuestros amigos, familiares, ídolos; o acceder a información sobre actualidad, o publicidades de productos que nos interesan, sentimos placer como recompensa por la acción llevada a cabo.

El detalle es que no siempre que chequeamos nuestro Facebook, o Instagram, o los estados de WhatsApp, hay novedades. Pues bien, la ciencia ha demostrado que la práctica recurrente de intentar conseguir placer experimentando un nivel moderado de incertidumbre, genera dependencia, o adicción. Y eso es, exactamente, lo que las redes ofrecen, porque está íntimamente ligado con su modelo de negocio.

Por otro lado, una mirada más sociológica plantea que las redes como Facebook o YouTube crean burbujas de filtros o cámaras de eco: se trata de dos modos de explicar que, partiendo del principio de que nos resulta placentero confirmar nuestras creencias, y dado que los algoritmos de selección de contenidos sólo cuantifican el tiempo que permanecemos frente a la pantalla, las plataformas y redes sociales nos ofrecen, sistemáticamente, aquello que nos genera mayor tiempo de permanencia, por lo que filtran contenidos que harían que dejemos de mirar.

La burbuja de filtros hace que sólo veamos contenido que nos gusta (o que confirma nuestras creencias) y la cámara de eco hace que leamos y escuchemos una y otra vez a quienes piensan como nosotros. De esos dos procedimientos se deduce una gran cantidad de efectos de enorme impacto social: escasez de diálogo verdadero, falta de consenso, debilitamiento de la libertad de expresión en favor de grupos radicales, incluso aparición de redes de pedofilia.

Una luz al final del túnel

Mientras tanto, en el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho, Universidad de Buenos Aires, Argentina (IALAB), los expertos proponen desarrollar ecosistemas digitales que permitan un tratamiento automatizado compatible con los Derechos Humanos. Se refieren, al mismo tiempo, a las empresas y sus plataformas y aplicaciones, y a todo el tratamiento de los datos que se hace desde el sector público. 

Admitiendo que la innovación es irrefrenable, los miembros del IALAB trabajan diariamente en la elaboración de un diagnóstico exhaustivo respecto del perfilamiento digital de las personas, y analizan cómo legislar al respecto. En este sentido, el paralelo con Le Grand Barouf Numérique (2019) es exacto: en dicho workshop, organizado por Ouishare, se analizó en forma minuciosa cómo y dónde trazar la línea que divide el buen uso de los datos de las personas para ofrecer mejor información, de la intromisión en la privacidad.

Enfocados en el sector público, los expertos argentinos advierten que ningún Estado democrático debe acopiar información que no esté anonimizada, salvo casos de estricta necesidad. Todos los procesos deben ser transparentes y auditables.

La referencia no es caprichosa ni casual: ese mismo laboratorio es el que entrena todos los días a Prometea, el primer software de Inteligencia Artificial aplicado a la Justicia que respeta los Derechos Humanos. Tiene el respaldo de la ONU y la OIT, entre otros organismos internacionales, y hace dos años que se aplica en la Justicia de la Ciudad de Buenos Aires, tanto como en la provincia de Mendoza, y la Corte Constitucional de Colombia. 

Ayudados por Prometea, cuya efectividad es del 96%, los juristas porteños cuyo responsable máximo es Juan G. Corvalán, Fiscal General Adjunto de Buenos Aires, y director del IALAB, han logrado, por ejemplo, resolver 1000 contravenciones por parte de conductores ebrios, en sólo 26 días, a razón de 16 minutos por expediente. En manos humanas, este mismo número de resoluciones llevaba 110 días, es decir, 70 minutos por cada una.

Ahora, investigan cómo moderar los excesos que se cometen en el perfilamiento digital de las personas, al tiempo que entrenan a Prometea para detectar imágenes de pornografía infantil.

Siendo vanguardia desde 2017 en materia de uso de IA en la Justicia pero con la técnica de caja blanca (aprendizaje supervisado por expertos, entrenamiento del algoritmo con capacidad de auditar los procesos para evitar sesgos) abogados del IALAB afirman que el concepto de juez robot que se usa en Estados Unidos, Estonia y China, es peligroso en la medida en desplaza la intervención humana indispensable para juzgar con criterio, responsabilidad e imparcialidad, y respetando los derechos esenciales en democracia.

Y es, justamente, en virtud de ese criterio, que autoridades del Ministerio de Justicia español estuvieron conociendo a Prometea el 30 de octubre pasado. En esa ocasión, Sofía Duarte Domínguez, Directora General de Modernización de la Justicia de España, afirmó que comprenden que la automatización de procesos judiciales es el futuro inmediato en la burocracia judicial, y que la digitalización llevada adelante en la última década permite dar el salto hacia el uso de IA para hacer eficiente a la Justicia española.

Dado el giro copernicano que significa compatibilizar el uso de procesos automáticos y predictivos con los Derechos Humanos universalmente aceptados, el MIT ha elegido a Prometea como caso sobresaliente de innovación disruptiva con respeto por las personas. Por ello, este sistema ha sido presentado en la reciente Cumbre Iberoamericana de Inteligencia Artificial, en Boston, Massachussets.

Algoritmos un poco más humanos

El contexto actual en materia de trabajo, plantea la inteligencia colectiva como uno de los paradigmas dominantes, tal como fuera desarrollado en una de las masterclass de Ouishare, del año pasado, en París: tareas descentralizadas, con protagonismo de la creatividad y lo espontáneo. 

Pero dicho entorno es, asimismo, terreno fértil para que los GAFAM, entre otros, saquen partido del uso de los datos bajo el modelo “all you can eat”, tal y como ocurre con cada nuevo salto tecnológico disruptivo.

Por ello, en un documento próximo a su publicación, llamado Perfiles digitales humanos, desde el IALAB sostienen que los usuarios debemos tener derecho a la autodeterminación informativa algorítmica: el consentimiento que solemos prestar a las plataformas no puede atarnos de pies y manos respecto del uso que se haga de la información, sobre todo cuando, en los términos y condiciones, no se explica claramente qué se hará con los datos.

Por otro lado, y analizando la legislación vigente y los acuerdos internacionales que se han celebrado últimamente en la materia, surgen derechos nuevos, que deben plasmarse en la legislación tanto como guiar las prácticas de organismos regulatorios. Algunos de ellos son: derecho a no ser perfilado; derecho a que no se tomen decisiones basadas únicamente en el perfilamiento digital automático; derecho a que los datos sensibles queden afuera del perfilamiento; derecho a conocer las condiciones y criterios de perfilamiento; derecho a la supresión del perfil; derecho a ser excluido de la publicidad directa no consentida.

Los casos comprobados de excesos en materia de violación del derecho a la intimidad, como el del asistente de voz de Google, tanto como escándalos de las proporciones de Cambridge Analytica, resultan alarma suficiente como para impulsar un acuerdo razonable trabajando en conjunto científicos, juristas, autoridades gubernamentales y empresas.

En definitiva, lo que está en juego es el conjunto de principios, derechos y garantías que sostienen el andamiaje social y político sobre el que se sostienen las democracias occidentales. No parece que este sea buen momento para dar un paso atrás. 


Otras lecturas

Lo digital no es software, es una forma de pensar (1/2)

Lo digital no es software, es una forma de pensar (2/2)

Cinco reflexiones sobre la ola technologica que viene


by 
Mauro A. Berchi
Magazine
January 30, 2020

Algoritmos un poco más humanos

by
Mauro A. Berchi
Magazine
Share on

ANÁLYSIS. En la Cuarta Revolución Industrial, la observación de la conducta digital permite que las empresas, usando Inteligencia Artificial (IA), administren, mediante algoritmos, perfiles digitales de los usuarios. Pero el Estado no se queda atrás: en el ámbito de la Justicia se utilizan procesos de aprendizaje de máquina, que pueden ser supervisados por personas o no. Humanizar con la tecnología debe ser el horizonte de este siglo XXI.

Algo de contexto

Recientes estudios demuestran que la gama de técnicas digitales que una aplicación para móviles puede poner a nuestra disposición, está por encima de la capacidad de nuestros cerebros para controlar dicho entorno.

Asimismo, desde la psicología cognitivo conductual explican que nuestro comportamiento digital, especialmente cuando se trata de redes sociales, sigue el planteo de la teoría de los “sistemas de recompensa variable”.

Simplificando, se trata de que, al chequear las redes y enterarnos de las novedades respecto de la vida de nuestros amigos, familiares, ídolos; o acceder a información sobre actualidad, o publicidades de productos que nos interesan, sentimos placer como recompensa por la acción llevada a cabo.

El detalle es que no siempre que chequeamos nuestro Facebook, o Instagram, o los estados de WhatsApp, hay novedades. Pues bien, la ciencia ha demostrado que la práctica recurrente de intentar conseguir placer experimentando un nivel moderado de incertidumbre, genera dependencia, o adicción. Y eso es, exactamente, lo que las redes ofrecen, porque está íntimamente ligado con su modelo de negocio.

Por otro lado, una mirada más sociológica plantea que las redes como Facebook o YouTube crean burbujas de filtros o cámaras de eco: se trata de dos modos de explicar que, partiendo del principio de que nos resulta placentero confirmar nuestras creencias, y dado que los algoritmos de selección de contenidos sólo cuantifican el tiempo que permanecemos frente a la pantalla, las plataformas y redes sociales nos ofrecen, sistemáticamente, aquello que nos genera mayor tiempo de permanencia, por lo que filtran contenidos que harían que dejemos de mirar.

La burbuja de filtros hace que sólo veamos contenido que nos gusta (o que confirma nuestras creencias) y la cámara de eco hace que leamos y escuchemos una y otra vez a quienes piensan como nosotros. De esos dos procedimientos se deduce una gran cantidad de efectos de enorme impacto social: escasez de diálogo verdadero, falta de consenso, debilitamiento de la libertad de expresión en favor de grupos radicales, incluso aparición de redes de pedofilia.

Una luz al final del túnel

Mientras tanto, en el Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho, Universidad de Buenos Aires, Argentina (IALAB), los expertos proponen desarrollar ecosistemas digitales que permitan un tratamiento automatizado compatible con los Derechos Humanos. Se refieren, al mismo tiempo, a las empresas y sus plataformas y aplicaciones, y a todo el tratamiento de los datos que se hace desde el sector público. 

Admitiendo que la innovación es irrefrenable, los miembros del IALAB trabajan diariamente en la elaboración de un diagnóstico exhaustivo respecto del perfilamiento digital de las personas, y analizan cómo legislar al respecto. En este sentido, el paralelo con Le Grand Barouf Numérique (2019) es exacto: en dicho workshop, organizado por Ouishare, se analizó en forma minuciosa cómo y dónde trazar la línea que divide el buen uso de los datos de las personas para ofrecer mejor información, de la intromisión en la privacidad.

Enfocados en el sector público, los expertos argentinos advierten que ningún Estado democrático debe acopiar información que no esté anonimizada, salvo casos de estricta necesidad. Todos los procesos deben ser transparentes y auditables.

La referencia no es caprichosa ni casual: ese mismo laboratorio es el que entrena todos los días a Prometea, el primer software de Inteligencia Artificial aplicado a la Justicia que respeta los Derechos Humanos. Tiene el respaldo de la ONU y la OIT, entre otros organismos internacionales, y hace dos años que se aplica en la Justicia de la Ciudad de Buenos Aires, tanto como en la provincia de Mendoza, y la Corte Constitucional de Colombia. 

Ayudados por Prometea, cuya efectividad es del 96%, los juristas porteños cuyo responsable máximo es Juan G. Corvalán, Fiscal General Adjunto de Buenos Aires, y director del IALAB, han logrado, por ejemplo, resolver 1000 contravenciones por parte de conductores ebrios, en sólo 26 días, a razón de 16 minutos por expediente. En manos humanas, este mismo número de resoluciones llevaba 110 días, es decir, 70 minutos por cada una.

Ahora, investigan cómo moderar los excesos que se cometen en el perfilamiento digital de las personas, al tiempo que entrenan a Prometea para detectar imágenes de pornografía infantil.

Siendo vanguardia desde 2017 en materia de uso de IA en la Justicia pero con la técnica de caja blanca (aprendizaje supervisado por expertos, entrenamiento del algoritmo con capacidad de auditar los procesos para evitar sesgos) abogados del IALAB afirman que el concepto de juez robot que se usa en Estados Unidos, Estonia y China, es peligroso en la medida en desplaza la intervención humana indispensable para juzgar con criterio, responsabilidad e imparcialidad, y respetando los derechos esenciales en democracia.

Y es, justamente, en virtud de ese criterio, que autoridades del Ministerio de Justicia español estuvieron conociendo a Prometea el 30 de octubre pasado. En esa ocasión, Sofía Duarte Domínguez, Directora General de Modernización de la Justicia de España, afirmó que comprenden que la automatización de procesos judiciales es el futuro inmediato en la burocracia judicial, y que la digitalización llevada adelante en la última década permite dar el salto hacia el uso de IA para hacer eficiente a la Justicia española.

Dado el giro copernicano que significa compatibilizar el uso de procesos automáticos y predictivos con los Derechos Humanos universalmente aceptados, el MIT ha elegido a Prometea como caso sobresaliente de innovación disruptiva con respeto por las personas. Por ello, este sistema ha sido presentado en la reciente Cumbre Iberoamericana de Inteligencia Artificial, en Boston, Massachussets.

Algoritmos un poco más humanos

El contexto actual en materia de trabajo, plantea la inteligencia colectiva como uno de los paradigmas dominantes, tal como fuera desarrollado en una de las masterclass de Ouishare, del año pasado, en París: tareas descentralizadas, con protagonismo de la creatividad y lo espontáneo. 

Pero dicho entorno es, asimismo, terreno fértil para que los GAFAM, entre otros, saquen partido del uso de los datos bajo el modelo “all you can eat”, tal y como ocurre con cada nuevo salto tecnológico disruptivo.

Por ello, en un documento próximo a su publicación, llamado Perfiles digitales humanos, desde el IALAB sostienen que los usuarios debemos tener derecho a la autodeterminación informativa algorítmica: el consentimiento que solemos prestar a las plataformas no puede atarnos de pies y manos respecto del uso que se haga de la información, sobre todo cuando, en los términos y condiciones, no se explica claramente qué se hará con los datos.

Por otro lado, y analizando la legislación vigente y los acuerdos internacionales que se han celebrado últimamente en la materia, surgen derechos nuevos, que deben plasmarse en la legislación tanto como guiar las prácticas de organismos regulatorios. Algunos de ellos son: derecho a no ser perfilado; derecho a que no se tomen decisiones basadas únicamente en el perfilamiento digital automático; derecho a que los datos sensibles queden afuera del perfilamiento; derecho a conocer las condiciones y criterios de perfilamiento; derecho a la supresión del perfil; derecho a ser excluido de la publicidad directa no consentida.

Los casos comprobados de excesos en materia de violación del derecho a la intimidad, como el del asistente de voz de Google, tanto como escándalos de las proporciones de Cambridge Analytica, resultan alarma suficiente como para impulsar un acuerdo razonable trabajando en conjunto científicos, juristas, autoridades gubernamentales y empresas.

En definitiva, lo que está en juego es el conjunto de principios, derechos y garantías que sostienen el andamiaje social y político sobre el que se sostienen las democracias occidentales. No parece que este sea buen momento para dar un paso atrás. 


Otras lecturas

Lo digital no es software, es una forma de pensar (1/2)

Lo digital no es software, es una forma de pensar (2/2)

Cinco reflexiones sobre la ola technologica que viene


by 
Mauro A. Berchi
Magazine
Sign up