2019-Octubre-Examen Final - Comprension - de - Textos - Mayores - 25

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

UNIVERSIDAD NACIONAL DEL SUR

Comprensión de textos M25 – Octubre, 2019

LEER ATENTAMENTE ESTA INFORMACIÓN ANTES DE COMENZAR A RESOLVER LAS CONSIGNAS


 Colocá tu nombre, apellido, número de DNI y firma en todas las hojas del examen.
 Escribí todas las respuestas con tinta.
 Las consignas son textos y su comprensión forma parte de las competencias a evaluar, por lo tanto no se realizarán aclaraciones
con relación al contenido de las mismas.
 La deducción del significado de los términos desconocidos a partir del contexto forma parte de las competencias a evaluar, por lo
tanto no se responderán preguntas relacionadas con el vocabulario.
 Tené en cuenta que en el texto los párrafos están numerados al comienzo entre paréntesis.

-PRIMERO, leé el siguiente texto:

VIGILAR Y EQUIVOCARSE
Por Fernando Bercovich
Cenital.com

(1) Semanas atrás, en la estación de Retiro de la ciudad de Buenos Aires la policía detuvo a
Guillermo Ibarrola acusado de haber perpetrado un robo en Bahía Blanca. Seis días
después, a horas de ser trasladado a un penal de máxima seguridad, Ibarrola fue liberado
porque la fiscal se dio cuenta de que no era el hombre que buscaban.

(2) Tanto en este caso como en las protestas en Hong Kong en rechazo a la injerencia china
que se vienen dando en las últimas semanas estuvo implicado un sistema de reconocimiento
facial por medio de cámaras que son capaces de reconocer los principales rasgos de una
cara. Entiende que una ceja es una ceja, que un bigote es un bigote, y así. Tanto la policía
de Hong Kong como la de Buenos Aires -desde abril de este año- aplican herramientas
similares. Veamos qué pasó en cada caso.

(3) Durante las protestas en Hong Kong se habló mucho de este sistema ya que los
manifestantes salieron a las calles armados con láseres para bloquear las cámaras y que no
los pudieran sumar a la base de datos de delincuentes buscados. Hasta detuvieron a un
dirigente estudiantil “por posesión de armas ofensivas”. Tenía en su mochila diez láseres.

(4) El caso local no incluye láseres ni dirigentes estudiantiles. “Fue un error de la


máquina”, declaró Guillermo Ibarrola al relatar cómo la policía de la Ciudad lo había
detenido en la estación de Retiro porque el sistema de reconocimiento facial le dio match a
su cara con la de un ladrón buscado desde 2016. Al final, se trataba de una persona con la
que solamente comparte el apellido. En el interín, Guillermo durmió seis noches en una
comisaría de Bahía Blanca.

(5) Pero no fue un caso aislado. Desde su implementación, la policía de la Ciudad


reconoció a 1.227 personas a través de más de 300 cámaras -de un total de casi 7.000 que
hay en la ciudad de Buenos Aires- que hay repartidas en estaciones de subte y tren. Fueron
14 personas por día en promedio, sin embargo sólo en el 18% de los casos dieron con la
persona buscada. El resto fueron errores en la base de datos de la que se nutre un algoritmo
de reconocimiento facial que indica si esa persona está prófuga o no.

APELLIDO Y NOMBRE
DNI
FIRMA
UNIVERSIDAD NACIONAL DEL SUR
Comprensión de textos M25 – Octubre, 2019

(6) Se trató entonces de falsos positivos. Por el contrario, los falsos negativos se dan
cuando el algoritmo no detecta que la cara de un transeúnte es igual a la de un individuo
que figura en la base de datos del Registro Nacional de Rebeldías y Capturas.

(7) Los algoritmos se equivocan, igual que las personas. Germán Rosati, especialista en
métodos de machine learning aplicados a las ciencias sociales del CONICET, señala que
“la aplicación y el uso de algoritmos y técnicas de análisis lleva a la reproducción de
prejuicios, discriminaciones o situaciones de desigualdad preexistentes: de género, de clase
y otras. Dichos sesgos y desigualdades son parte de las estructuras sociales en las que
vivimos. Es decir, no son generados por la aplicación”.

(8) El traductor de Google es una fiel prueba de estos "sesgos de selección" pero ya no
sobre imágenes sino sobre texto. Hasta hace algún tiempo, cuando uno buscaba traducir un
término que en un idioma era neutro pero que en otro podía ser masculino o femenino, por
defecto algunas traducciones optaban por el femenino y otras por el masculino. Por
ejemplo, al tipear "doctor" la primera traducción que sugería era "médico", mientras que
para "nurse" devolvía "enfermera". Esto en la actualidad ya no sucede, al menos con
palabras sueltas: a Google también le tocó deconstruirse.

(9) Una referencia obligada en temas vinculados a tecnología y derechos civiles es la ONG
Vía Libre, cuya presidenta, Beatriz Busaniche, sostuvo en una entrevista que "estas
tecnologías tienen alto grado de inmadurez y fallan". Busaniche, además, cuenta que
"cuando se implementó en Gales, en un partido de la Champions League, hubo un 90% de
falsos positivos". Menos de 200 de las alrededor de las 2 mil personas demoradas por la
policía de Gales tenían efectivamente algún antecedente de violencia deportiva.

(10) Enrique Chaparro, también de Vía Libre, en un reportaje que concedió a La Nación fue
un poco más allá y no solamente cuestionó el sistema de reconocimiento facial: "No hay
evidencia de que las cámaras en la vía pública eviten delitos". Y agregó: "El gobierno de la
Ciudad puede tener buenas intenciones, pero cuando se implementan medidas como estas,
siempre hay que pensar qué podría hacer el peor de los gobiernos democráticos".

(11) En su libro "Armas de destrucción matemática" (Weapons of Math Destruction),


Cathy O'Neil, una matemática estadounidense de la Universidad de Columbia, dedica un
capítulo entero a cómo los algoritmos modifican -no necesariamente para bien- la conducta
de la policía y de la justicia en general.

(12) En ese capítulo, O'Neil cuenta que la policía de San Diego, en California, utilizó el
reconocimiento facial con 26 mil personas entre 2011 y 2015, y hasta les tomaron muestras
de saliva para extraer su ADN. Ella problematiza ese proceder por razones muy claras: "En
la lógica implícita de la Constitución, dejar en libertad a alguien que pudiera haber
cometido un delito por falta de pruebas es menos peligroso para nuestra sociedad que
encarcelar o ejecutar a una persona inocente. Los algoritmos, por el contrario, tienden a
priorizar la eficiencia. Por su propia naturaleza, se alimentan de datos medibles y
cuantificables. Mientras que la justicia es difícil de medir y cuantificar".

(13) Básicamente, la matemática estadounidense indica que esos "falsos positivos", como
Guillermo Ibarrola, no gozaron de un derecho fundamental: la presunción de inocencia. En
APELLIDO Y NOMBRE
DNI
FIRMA
UNIVERSIDAD NACIONAL DEL SUR
Comprensión de textos M25 – Octubre, 2019

el ejemplo típico de un test de una enfermedad grave es claro que un falso positivo
(diagnosticar a alguien con una enfermedad que no tiene) es más deseable que un falso
negativo (no diagnosticar a alguien que sí la tiene). Pero en el caso de privar a una persona
de su libertad la lógica debería ser la inversa.

(14) Otro de los casos que cuenta O'Neil en su libro tiene que ver con la segregación socio-
territorial. Resulta que la policía de Chicago hizo una lista de 400 personas con mayor
probabilidad de cometer un delito violento y las ordenaron en un ranking. Una de las
personas de la lista, un chico de veintidós años de nombre Robert McDaniel, un día abrió la
puerta de su casa y se encontró frente a un agente de policía. No tenía antecedentes por
tenencia ilícita de armas y nunca había sido acusado de ningún delito violento pero, como
la mayoría de los jóvenes de su barrio, McDaniel conocía a mucha gente que había ido a la
cárcel.

(15) "No cabe duda de que, estadísticamente, es más probable que una persona se comporte
como las personas con las que pasa tiempo (...) Dios los cría y, estadísticamente hablando,
ellos efectivamente se juntan", escribe O'Neil en su libro. Pero lo que dice a continuación
es bien interesante: "[McDaniel] creció en un barrio pobre y peligroso (...) Ha vivido
rodeado de delincuencia, y muchos de sus conocidos están atrapados en ella. Y en gran
medida como consecuencia de estas circunstancias -y no de sus propios actos- se le
considera peligroso".

(16) Lo que describe O'Neil en esas líneas evidencia que un algoritmo usado para prevenir
delitos puede fácilmente profundizar niveles de segregación ya existentes en una ciudad.
Como los sospechosos siempre se van a concentrar en las áreas donde hay más delitos sólo
por vivir en las zonas donde se detectan más crímenes, que la policía vaya con más
frecuencia a visitar esos barrios va a derivar en que se detecten una mayor cantidad de
delitos, lo que a su vez va a alimentar con más casos al algoritmo original, entrando en un
círculo vicioso que los estadísticos denominan bucle de retroalimentación positiva.

(17) Pero las controversias con los sistemas de reconocimiento facial no sólo vienen por el
lado del control estatal. Una investigadora del Media Lab del MIT descubrió en un estudio
denominado "Gender Shades" ("Sombras del género"). que el reconocimiento facial de tres
compañías -entre las cuales estaban nada menos que IBM y Microsoft- era muchísimo más
efectivo con hombres blancos que con mujeres negras o personas trans.

(18) Por su parte, en Nueva York quisieron colocar cámaras de reconocimiento facial en
edificios de vivienda pública o con algún tipo de regulación estatal, como son aquellos de
"alquiler estabilizado". ¿Qué pasó? Tres congresistas mujeres de diferentes Estados se
opusieron y presentaron una ley que se llama No Biometric Barriers to Housing Act (algo
así como 'Ley contra barreras biométricas a la vivienda'). Además, en una carta que
presentaron las legisladoras argumentan que "las tecnologías de vigilancia a menudo se
usan para rastrear y controlar comunidades vulnerables (...) La instalación de tecnologías
biométricas en propiedades de vivienda pública plantea un riesgo grave para quienes ya
están en los márgenes".
---------------------------------------------------------------------Cenital.com: CIUDADES, 13 DE AGOSTO DE 2019

APELLIDO Y NOMBRE
DNI
FIRMA
UNIVERSIDAD NACIONAL DEL SUR
Comprensión de textos M25 – Octubre, 2019

-SEGUNDO, respondé las siguientes consignas:

1. Reconocer los siguientes componentes de la situación comunicativa.

Emisor:______________________________________________________________

Receptor: _____________________________________________________________

Fecha:________________________________________________________________

2. ¿A qué género discursivo pertenece?


_________________________________________

3- Señalar con una cruz el propósito del texto leído:

a- Informar sobre los dramas que produce el uso de la vigilancia urbana.


b- Explicitar y argumentar sobre los riesgos de implementación del sistema de
reconocimiento facial.
c- Comparar la implementación del sistema de reconocimiento facial en países
desarrollados y subdesarrollados.

4- Completar en la columna de la derecha la operación discursiva que predomine en


los fragmentos seleccionados del texto:
DEFINICIÓN | EJEMPLIFICACIÓN | REFORMULACIÓN | DATOS ESTADÍSTICOS | NARRACIÓN |
CITACIÓN | ENUMERACIÓN

A "No cabe duda de que, estadísticamente, es más probable que una


persona se comporte como las personas con las que pasa tiempo (...)
Dios los cría y, estadísticamente hablando, ellos efectivamente se
juntan", escribe O'Neil en su libro (P. 15)

B Desde su implementación, la policía de la Ciudad reconoció a 1.227


personas a través de más de 300 cámaras -de un total de casi 7.000
que hay en la ciudad de Buenos Aires- que hay repartidas en
estaciones de subte y tren. Fueron 14 personas por día en promedio,
pero sólo en el 18% de los casos dieron con la persona buscada (P.
5)

C Como los sospechosos siempre se van a concentrar en las áreas


donde hay más delitos sólo por vivir en las zonas donde se detectan
más crímenes, que la policía vaya con más frecuencia a visitar esos
barrios va a derivar en que se detecten una mayor cantidad de
delitos, lo que a su vez va a alimentar con más casos al algoritmo
original, entrando en un círculo vicioso que los estadísticos
denominan bucle de retroalimentación positiva (P. 16)

APELLIDO Y NOMBRE
DNI
FIRMA
UNIVERSIDAD NACIONAL DEL SUR
Comprensión de textos M25 – Octubre, 2019

D Otro de los casos que cuenta O'Neil en su libro tiene que ver con la
segregación socio-territorial (P. 14)

E “la aplicación y el uso de algoritmos y técnicas de análisis lleva a la


reproducción de prejuicios, discriminaciones o situaciones de
desigualdad preexistentes: de género, de clase y otras (…)” (P. 7)

F Semanas atrás, en la estación de Retiro de la ciudad de Buenos


Aires la policía detuvo a Guillermo Ibarrola acusado de haber
perpetrado un robo en Bahía Blanca. Seis días después, a horas de
ser trasladado a un penal de máxima seguridad, Ibarrola fue liberado
porque la fiscal se dio cuenta de que no era el hombre que buscaban
(P. 1)

G Dichos sesgos y desigualdades son parte de las estructuras sociales


en las que vivimos. Es decir, no son generados por la aplicación (P.
7)

5- Recuperar y transcribir el referente de las siguientes expresiones (resaltadas en


negrita en el texto).

a) este (P. 3) __________________________________________________


b) estos (P. 8) _________________________________________________

c) cuya (P. 9) _____________________________________________

d) Ella (P. 12) _________________________________________________

e) estas (P. 15) ___________________________________________________

6- Subrayar todos los conectores presentes en los siguientes enunciados. Tenés que
encontrar dos en cada uno.

a) Se trató entonces de falsos positivos. Por el contrario, los falsos negativos se dan cuando
el algoritmo no detecta que la cara de un transeúnte es igual a la de un individuo que
figura en la base de datos del Registro Nacional de Rebeldías y Capturas. (P. 6)

b) Pero no fue un caso aislado. Desde su implementación, la policía de la Ciudad reconoció


a 1.227 personas a través de más de 300 cámaras -de un total de casi 7.000 que hay en la
ciudad de Buenos Aires- que hay repartidas en estaciones de subte y tren. Fueron 14
personas por día en promedio, sin embargo sólo en el 18% de los casos dieron con la
persona buscada. El resto fueron errores en la base de datos de la que se nutre un
algoritmo de reconocimiento facial que indica si esa persona está prófuga o no. (P. 5)

APELLIDO Y NOMBRE
DNI
FIRMA
UNIVERSIDAD NACIONAL DEL SUR
Comprensión de textos M25 – Octubre, 2019

c) Por su parte, en Nueva York quisieron colocar cámaras de reconocimiento facial en


edificios de vivienda pública o con algún tipo de regulación estatal, como son aquellos
de "alquiler estabilizado". ¿Qué pasó? Tres congresistas mujeres de diferentes Estados se
opusieron y presentaron una ley que se llama No Biometric Barriers to Housing Act
(algo así como 'Ley contra barreras biométricas a la vivienda'). Además, en una carta
que presentaron las legisladoras argumentan que (…) (P. 18)

7- ¿Por qué se usan las comillas en el párrafo 12?

_________________________________________________________________________

8- En los siguientes párrafos (12 y 13) subrayá las palabras y/o sintagmas que
evidencien una postura del autor frente al tema del artículo.

(13) Básicamente, la matemática estadounidense indica que esos "falsos positivos", como
Guillermo Ibarrola, no gozaron de un derecho fundamental: la presunción de inocencia. En
el ejemplo típico de un test de una enfermedad grave es claro que un falso positivo
(diagnosticar a alguien con una enfermedad que no tiene) es más deseable que un falso
negativo (no diagnosticar a alguien que sí la tiene). Pero en el caso de privar a una persona
de su libertad la lógica debería ser la inversa.

(17) Pero las controversias con los sistemas de reconocimiento facial no sólo vienen por el
lado del control estatal.

9- Establecer si los siguientes enunciados del último párrafo expresan certeza o


incertidumbre.

a)- "No cabe duda de que, estadísticamente, es más probable que una persona se comporte
como las personas con las que pasa tiempo (...) Dios los cría y, estadísticamente hablando,
ellos efectivamente se juntan" (P. 15)

__________________________

b)- Los algoritmos se equivocan, igual que las personas (P. 7)

__________________________

10- Proponer expresiones equivalentes o sinónimos para los siguientes términos.

a) desigualdad (párrafo 7):_______________________________________________________

b) deconstruirse (párrafo 8):________________________________________________________

c) márgenes (párrafo 18):__________________________________________________________

APELLIDO Y NOMBRE
DNI
FIRMA

También podría gustarte