Hipertextos 9 15 Final
Hipertextos 9 15 Final
Hipertextos 9 15 Final
8- Número 14
ISSN 2314-3924
Hipertextos
Capitalismo, Técnica y Sociedad
en debate
Hipertextos es una publicación académica de ciencias sociales semestral con referato externo,
editada en forma conjunta por el colectivo de investigadores y docentes de la Cátedra
de Informática y Relaciones Sociales de la Carrera de Sociología de la Facultad de Ciencias
Sociales de la Universidad de Buenos Aires (UBA), el Equipo e-TCS (Centro CTS, Universidad
Maimónides), la Universidad Nacional de La Plata (UNLP) y la Universidad Nacional de Rafaela
(UNRaf). Su mirada e interés abarca diversos aspectos del capitalismo actual, con un particular
énfasis en el conocimiento y la técnica en general, y la informática y las tecnologías digitales en
particular, interrogando acerca de las diversas consecuencias sociales, culturales, económicas y
políticas de su penetración en la sociedad.
Hipertextos. Capitalismo, Técnica y Sociedad en debate.
Publicación conjunta de equipo e-TCS, centro CTS Universidad Maimónides; Cátedra Informática y
Relaciones Sociales, Facultad de Ciencias Sociales - Universidad de Buenos Aires (UBA); Universidad
Nacional de La Plata (UNLP) y Universidad Nacional de Rafaela (UNRaf).
ISSN 2314-3924
Volumen 9 Número 15
Enero/Junio de 2021
Ciudad de Buenos Aires
Directora
Ana Marotias (UBA-UNRaf)
teletrabajadores, encontrándose opciones de lo más diversas. De algo estamos segures: las horas
de trabajo han aumentado significativamente, especialmente para les trabajadores cognitives. A
esto se suma la convivencia con las tareas domésticas y de cuidado que, en la mayoría de los
casos, recaen sobre las mujeres.
desprotegidos, apoyar y reclamar una política pública que garantice el acceso a la educación
virtual a través de la provisión de computadoras para docentes y estudiantes y de conexión a
Internet, puntos a tener en cuenta, también, fuera de la situación de pandemia. A esto se suma la
necesidad de capacitación de les docentes para utilizar las tecnologías digitales en la educación,
aprovechando sus potencialidades y en pos de mitigar los desequilibrios en su manejo entre
docentes de distintas edades y regiones del país.
Como es habitual, ofrecemos para les lectores hispanohablantes un artículo que fue publicado
originalmente en inglés: “Feminismo de plataformas: protesta y política de la organización
espacial” de Rianka Singh. La traducción estuvo a cargo de Emilio Cafassi, Agostina
Dolcemáscolo, Guillermina Yansen y Carolina Monti, integrantes del Consejo Editorial de la
Revista.
Este artículo se enfoca en la utilidad política de las plataformas digitales como medio para la
resistencia feminista. Analiza el #MeToo y la Marcha de Mujeres en Washington. Sostiene que el
foco en la amplificación facilitado por la lógica de estas plataformas, nubla las necesidades de
quienes resisten desde los márgenes, utilizando estrategias espaciales y negociando el espacio de
manera distinta para desafiar la centralidad de las plataformas como medio estructurante de las
luchas feministas contemporáneas.
Continuando con la temática de la plataformización, el artículo “Tecnologías culturales y
economía de la información. Tres perspectivas críticas sobre el capitalismo digital a la luz del
proyecto filosófico de Gilbert Simondon”, escrito por Héctor Feruglio Ortiz, sostiene que el
capitalismo se encuentra en un momento de transformación gracias a un crecimiento acelerado
de la economía de la información, basado en la capacidad de las plataformas digitales para
modular la organización económica. Ofrece una reflexión crítica sobre el capitalismo digital a
partir de tres perspectivas: la noción de capitalismo de plataformas de Nick Srnicek, la de
capitalismo reticular de Bernard Stiegler y la de capitalismo cibernético del colectivo Tiqqun. Las
articula en el proyecto filosófico de una tecnología cultural propuesto por Gilbert Simondon con
la finalidad de generar condiciones propicias para gestionar vías de acción reparadoras u
organizadoras en los vínculos tecno-sociales, como alternativas a las prácticas alienantes de la
economía de la información del capitalismo digital.
El siguiente artículo, “De embudos, filtros y brújulas: economía, técnica y subjetividad en
Spotify” de Lucas Bazara, hace un análisis de la plataforma de streaming Spotify desde su modelo
de negocios, la configuración de su tipo de oyente ideal y las tecnologías utilizadas.
El escrito de Juan Camilo Gómez Barrera, “¿Cómo estudiar Facebook? El contagio
emocional y las formaciones discursivas”, analiza la red social digital Facebook desde la noción
A partir de este número inauguramos una nueva sección que incluye artículos que abordan las
tecnologías que exceden lo digital, pero que tienen relación con las temáticas de interés de
Hipertextos.
“Políticas y tecnologías de radares: el caso de Argentina en el contexto Latinoamericano” de
Sofía Foladori-Invernizzi, toma el caso de la tecnología de radares en Argentina, haciendo una
historización de su devenir para analizar algunas cuestiones centrales en el área
de la ciencia y la tecnología, tales como la transferencia tecnológica, la dependencia científica y
la tecnología dual, en una industria donde lo geopolítico cumple una función central. En el
contexto latinoamericano Argentina tuvo un rol destacado, pasando de tener una pequeña
proporción del territorio nacional cubierta por radares aéreos, a alcanzar casi su totalidad. Este
cambio ocurrió después del inicio de la fabricación nacional de radares y se potenció a través de
la autonomía tecnológica en Argentina y el papel central jugado por la empresa INVAP. En un
área donde la dinámica de innovación es liderada por los países centrales, la autora sostiene que
es necesario un apoyo continuo y sistemático del Estado para hacer sustentable un proyecto de
autonomía tecnológica como es la producción de radares.
El otro artículo de esta nueva sección es “Política tecnológica en Argentina: los Fondos
Argentinos sectoriales en el caso de la nanotecnología” de Sofya Surtayeva. Se centra en el
análisis del FONARSEC (Fondos Argentinos Sectoriales) en el ámbito de la nanotecnología,
estudiando dos proyectos nanotecnológicos para determinar sus fortalezas y debilidades.
Reseña
La reseña de este número está dedicada al libro Cultural Crowdfunding: Platform Capitalism, Labour
and Globalization, editado por Vincet Rouzé en 2019. Fue escrita por Agostina Dolcemáscolo y
Victoria Rusconi.
El libro aborda un tema novedoso: cómo las plataformas de crowdfunding operan en el
campo cultural y artístico. Para ello Rouzé y otres autorxs proponen un recorrido de las
plataformas que nuclean proyectos culturales y artísticos. La obra parte del desarrollo conceptual
para pasar al análisis del material empírico relevado. Propone un recorrido histórico acerca de las
nociones de crowdfunding y crowdsourcing, para discutir su supuesto carácter innovador.
También explica el funcionamiento, legislación y arquitectura de estas plataformas y abre el
interrogante acerca de si se configuran como una alternativa real a métodos más tradicionales de
financiamiento. Además, profundiza acerca de su estructuración, haciendo foco en la
organización del trabajo realizado por sus diferentes actorxs. Al mismo tiempo, analiza de qué
manera estas plataformas redefinen la noción de trabajo. Por último, aborda la presencia y
desarrollo de plataformas de crowdfunding en África y Latinoamérica y sus características en
relación con lo que sucede principalmente en Europa.
Debate
En esta sección presentamos una reflexión acerca de un tema que nos afecta de manera directa
en relación con nuestra soberanía tecnológica: la nube híbrida estatal.
Partimos de una introducción a la temática escrita por Martín Gendler: “Computación en la
Nube en Argentina: breves líneas para un debate urgente” que nos brinda una definición y
caracterización de la computación en la nube, así como una breve historización de su devenir en
Argentina. Su objetivo es contextualizar las dos propuestas relativas a la nube híbrida estatal en
Argentina que se ofrecen como parte de esta sección.
A continuación se presentan ambas miradas, no necesariamente antagónicas, acerca de la
temática. La primera es “Nube híbrida nacional: soberana, libre, interoperable y con desarrollo
local” a cargo de Leandro Monk, Fernando Schapachnik, Sebastián Uchitel, Pablo Vannini,
Mariano Zukerfeld, Andrea Díaz, Julián Dunayerich, Juan Lagostena y Nicolás Passerini,
integrantes de diversas organizaciones relacionadas con las tecnologías digitales en Argentina y
que participaron de una convocatoria a consulta convocada por la Secretaría de Innovación
Pública para la concreción de una “Nube híbrida de Gobierno”.
Les autores sostienen una serie de principios que consideran fundamentales para el desarrollo
y aseguramiento de la soberanía tecnológica: que la nube híbrida sea desarrollada íntegramente
sobre tecnologías libres e interoperables que aseguren la independencia del Estado frente a
cualquier proveedor de software o infraestructura; que se cumplan los más altos estándares en
cuanto a la seguridad de la información y el resguardo de los datos personales de la ciudadanía;
que las contrataciones se realicen bajo legislación argentina y en moneda nacional; que convivan
múltiples proveedores de manera transparente; que exista una infraestructura propia donde uno
de los proveedores sea Arsat; que se incluyan otros organismos, entidades y empresas,
preferentemente cooperativas, para ofrecer su capacidad de cómputo excedente; que se garantice
la transparencia sobre los niveles de calidad del servicio.
Según estes autores, en un contexto donde la implementación de las políticas públicas
requiere de algún soporte informático, es necesario que el Estado se asegure el control legal,
intelectual y operativo de la tecnología de nube.
El segundo escrito: “Cuando la nube no es simplemente una metáfora” de Susana Morales y
Graciela Natansohn advierte acerca de la composición real de “la nube” y de su estructura de
propiedad, compuesta por millones de computadoras de gran capacidad -servidores- que
almacenan toda la información que circula por Internet. Esos servidores son propiedad de tres
principales proveedores: Microsoft, Amazon y Google. Frente a esta situación, el gobierno
argentino propone la creación de la nube híbrida nacional, para que el almacenamiento de los
datos de les argentines se haga en el país.
El texto analiza esta propuesta del gobierno, que se enmarca en el Plan Conectar 2021-2023 y
que incluye el desarrollo y construcción del satélite ARSAT-SG1, la actualización de la Red
Federal de Fibra Óptica y del equipamiento para la Televisión Digital Abierta, y la ampliación del
centro Nacional de Datos de ARSAT.
Las autoras sostienen que, además de la mirada del Estado, es necesario incorporar la de las
organizaciones sociales y el sector académico en la definición de la nube híbrida de gobierno, si
bien es el Estado quien debe asumir la responsabilidad de proveer reglas antimonopólicas para
evitar la concentración.
También analizan el concepto de nube híbrida en contraposición con nube pública y nube
privada. La nube híbrida permite que las organizaciones conserven en servidores exclusivos la
información más sensible, en combinación una nube pública, por lo tanto, pueden operar en
ambas de acuerdo con sus necesidades.
El escrito relata los debates que se llevaron a cabo en torno de las cuestiones precedentes en
el marco del Ciclo de Conversaciones en Red V, desarrollado en marzo de 2021 por el Grupo de
Investigación Apropiación de Tecnologías Digitales y Comunicación de la Universidad Nacional
de Córdoba - Argentina - y el Grupo Pesquisa de Género, tecnologias digitais e cultura, de la
Universidad Federal de Bahía - Brasil-.
Referencias
Caffentzis, G. (2019). Una Crítica del Capitalismo Cognitivo. Hipertextos, 4(6), 17-55. Recuperado
a partir de https://revistas.unlp.edu.ar/hipertextos/article/view/7655
Isoglio, A. (2021). Conocimientos doblemente libres en la expansión sistémica de la propiedad
intelectual. Hipertextos, 8(14), 137-163. https://doi.org/10.24215/23143924e023
Marotias, A. (2021). La educación remota de emergencia y los peligros de imitar lo presencial.
Hipertextos, 8(14), 173-177. https://doi.org/10.24215/23143924e025
Monti, C., & Unzurrunzaga, C. (2021). Acceso a la literatura científica desde Sci-Hub. Hipertextos,
8(14), 111-136. https://doi.org/10.24215/23143924e022
Ley 27.555/21 “Régimen Legal del Contrato de Teletrabajo”.
Rianka Singh1
}
El presente artículo es una traducción2 de Singh, R. (2018). Platform Feminism: Protest and the Politics
of Spatial Organization. Ada: A Journal of Gender, New Media, and Technology, No. 14.
10.5399/uo/ada.2018.14.6 Disponible en https://adanewmedia.org/2018/11/issue14-singh/
Cómo citar: Singh, R. (2021). Feminismo de plataformas: protesta y política de la organización espacial.
(Traducción de Carolina Monti, Guillermina Yansen, Emilio Cafassi y Agostina Dolcemáscolo). Revista
Hipertextos, 9(15), 15-23. DOI: https://doi.org/10.24215/23143924e026
Resumen. Este artículo pone en cuestión la utilidad política de las plataformas como medio para la
resistencia feminista. A partir de ejemplos como el #MeToo, y la Marcha de Mujeres en Washington,
movimientos que se apoyaron en las plataformas para revitalizar lo que Sarah Banet-Weiser ha
denominado “feminismo popular” (2018), argumento que las plataformas mediáticas tienden a asumir
determinadas ideas de seguridad, privilegio y poder en relación con el espacio social. Destacando cómo
las personas negras, indígenas y de color (BIPOC, en inglés) se organizan en el espacio social, señalo que
el foco en la amplificación y la elevación, facilitado por la lógica de la plataforma, vela las necesidades de
quienes resisten desde los márgenes. Introduzco las estrategias espaciales utilizadas por quienes deben
negociar el espacio de manera distinta para desafiar la centralidad de las plataformas como medio
estructurante de las luchas feministas contemporáneas.
Abstract. This article brings into question the political utility of platforms as media for feminist
resistance. Using examples of #MeToo, and the Women’s March on Washington, movements that have
relied on the platform for reinvigorating what Sarah Banet-Weiser has called “popular feminism” (2018), I
argue that common media platforms tend to infer an underlying assumption of safety, privilege and
power in relation to social space. Through highlighting how BIPOC people organize in social space, I
argue that the focus on amplification and elevation, facilitated by the logics of platform, obscures the
needs of those who resist on the margins. I introduce the spatial strategies employed by those who must
negotiate space differently to challenge the centrality of platforms as media the structure contemporary
feminist protest.
Resumo. Este artigo questiona a utilidade política das plataformas como mídia para a resistência
feminista. Usando exemplos de #MeToo, e da Marcha das Mulheres em Washington, movimentos que
confiaram nas plataformas para revigorar o que Sarah Banet-Weiser chamou de "feminismo popular"
(2018), eu defendo que plataformas comuns de mídia tendem a inferir uma suposição subjacente de
segurança, privilégio e poder em relação ao espaço social. Ao destacar como as pessoas do BIPOC se
organizam no espaço social, defendo que o foco na amplificação e elevação, facilitado pela lógica das
plataformas, obscurece as necessidades daqueles que resistem nas margens. Apresento as estratégias
espaciais empregadas por aqueles que devem negociar o espaço de forma diferente, para desafiar a
centralidade das plataformas como mídia a estrutura do protesto feminista contemporâneo.
El escenario de la Marcha de Mujeres en 2017 en Washington fue amplio y estuvo cubierto por
carteles de vinilo que se podían leer a la distancia. En las grabaciones de las noticias y en las
imágenes que circularon por Internet en los días posteriores a la marcha, vemos una plataforma
negra, y unos pocos cuerpos sobre ella que se elevan en el centro de un espacio repleto de gorros
rosas y carteles de protesta. Las manifestantes se concentran alrededor del escenario. El
escenario actúa como ancla para que los cuerpos individuales, y por extensión la multitud, se
orienten hacia él. El papel del escenario, la plataforma elevada, ocupa un lugar permanente en las
historias y prácticas del activismo feminista. Sin embargo, el discurso contemporáneo en torno a
las plataformas y el feminismo no se centra en los escenarios materiales que se han establecido
como lugares de articulación de políticas feministas, sino más bien en las plataformas digitales
que se han convertido en herramientas importantes para los proyectos feministas. Podríamos
pensar en Twitter, blogs y otras aplicaciones digitales como medios para alzar la voz – una tarima
digital que amplifica la voz individual. En este artículo, reconsidero las plataformas digitales
como lugares para el activismo feminista. Introduzco y cuestiono la plataforma como un medio
significativo que estructura la política feminista hoy en día. ¿Cómo podemos empezar a entender
las diferentes estrategias espaciales y mediatizadas de las activistas cuyas relaciones con el espacio
son más complicadas que la activación de la plataforma y su simbolismo?
Con sus gorros rosas tejidos y su ingeniosa señalización, la Marcha de Mujeres en Washington
surgió el año pasado como una gran contra-narrativa simbólica a la administración de Trump.
Junto a la Marcha, los hashtags #MeToo y #Timesup son otras expresiones de lo que Sarah
Banet Weiser (2018) llama feminismo popular que han dominado el discurso popular en
Norteamérica y en otros lugares en los últimos meses. Todos estos recientes eventos de alto
perfil han sido objeto de respuestas misóginas. La legitimidad de las denuncias públicas de
agresión y acoso sexual ha sido motivo de debate y las protestas han sido ridiculizadas. El
periodista Andrew Sullivan incluso llamó a resistir "los excesos del #Metoo" (2018), tildando al
movimiento de mero "pánico sexual". Sin embargo, estos movimientos también han sido
denunciados por académicas feministas por reforzar las propias percepciones universalizadoras y
esencialistas de las "mujeres" que históricamente han excluido a la mayoría de las mujeres que no
son blancas y/o de clase media, trans y queer (Moss y Maddrell, 2017; Willoughby, 2017). Las
protestas han sido acusadas de corporativas y neoliberales porque desarticulan la violencia
sistemática y parecen ciegas a otras formas de opresión al margen de la experiencia de las mujeres
blancas de clase media en el espacio público (Rottenberg, 2017).
Es significativo que cada una de estas recientes movilizaciones feministas se apoye en
plataformas de medios digitales como Twitter y Facebook. Estas plataformas de redes sociales
contribuyen a que el feminismo sea visible y accesible. La plataforma se ha convertido en
sinónimo de redes sociales y aplicaciones móviles en el contexto de la cultura digital (Gillespie,
2010; Hands, 2013; Langlois y Elmer, 2013; Taylor, 2014; Srnicek, 2017) y es esta iteración de la
palabra la que se asocia más comúnmente con los movimientos feministas contemporáneos
mediatizados. Pero, a veces, estos movimientos también emplean plataformas físicas. Por
ejemplo, los escenarios de la Marcha de Mujeres proporcionaron una plataforma a la política
feminista a través de celebridades y otras feministas populares. El papel del escenario, la
plataforma elevada, ocupa un lugar perdurable dentro de las historias y prácticas del activismo
feminista. Los escenarios, los podios, las tarimas y las plataformas digitales son todos medios que
amplifican, elevan y hacen visibles los cuerpos. Pero todas estas plataformas mediáticas bastante
comunes tienden a asumir determinadas ideas de seguridad, privilegio y poder en relación con el
espacio social. El enfoque en las plataformas tiende a a opacar las necesidades de quienes no se
adaptan tan fácilmente a ellas. Dado que las plataformas elevan sólo algunas voces y regulan la
acción, también reproducen necesariamente un determinado tipo de feminismo. Algunas formas
de resistencia se consideran aceptables, mientras que otras no. Por ejemplo, las personas más
expuestas a los abusos misóginos, racistas y homofóbicos buscan resistir de forma diferente o no
son amplificadas por las plataformas. Esto va en contra de la lógica del feminismo interseccional,
ya que las formas simultáneas de opresión no tienen la misma importancia en la plataforma. Esto
no quiere decir que las herramientas en línea no puedan o no deban utilizarse para proyectos
políticos feministas, sino que las plataformas pueden limitar las posibilidades de la política
feminista. Al establecer conexiones entre el escenario material de la Marcha de Mujeres en
Washington y las plataformas digitales de otras expresiones del feminismo popular
contemporáneo, planteo que para que el activismo político feminista sea generativo, es necesario
dejar de lado la plataforma.
Abordo la plataforma como un medio significativo para alterar las relaciones políticas y
sociales. No me interesa tanto el contenido que se comparte sino la posibilidad de las
plataformas como medios que estructuran lo político y que tienen sus propias lógicas. Esta línea
de pensamiento se inspira en la obra de McLuhan "El medio es el mensaje" (1964) y, más
recientemente, en el trabajo de los teóricos de los medios de comunicación que destacan las
formas en que los medios estructuran lo social y lo político y, al hacerlo, amplían lo que
podríamos entender como medios de comunicación en primer lugar (Sharma, 2008; Brock, 2012;
Packer y Wiley, 2012; McPherson, 2014; Feigenbaum, 2014). Anna Feigenbaum (2014), por
ejemplo, sugiere en su artículo sobre los medios de comunicación de Occupy que "cuando los
objetos y las arquitecturas se encuentran repetidamente en los lugares de lucha, se vuelven más y
más pegajosos, cargados de significado y potentes en sentimientos" (p. 17). La plataforma como
medio que aparece una y otra vez en los lugares de lucha feminista es un objeto cargado de
valores potentes y su relación con el feminismo requiere una exploración con múltiples matices.
Para quienes experimentan la vida desde lainterseccionalidad, muchas de las cuales son
mujeres y negras, marrones, queer, trans y discapacitadas, el espacio debe negociarse de manera
diferente. Las estrategias espaciales de los cuerpos marginados incluyen métodos cotidianos de
negociación del espacio y movimiento por el mundo. Esto podría incluir cosas como viajar en
grupos, elegir caminar por las calles solo en momentos específicos del día, organizar protestas en
lugares próximos a ubicaciones particulares, como estaciones de policía u hospitales, o practicar
el cuidado personal. Otro ejemplo puede encontrarse en The Winter We Danced (2014), donde
el Colectivo Kino-nda-niimi reúne escritos del movimiento Idle No More que se centra en la
práctica indígena de invadir los centros comerciales norteamericanos para realizar bailes en ronda
como un acto de resistencia. La práctica de la danza circular como resistencia también puede
leerse como una estrategia espacial diferencial. Estas estrategias se desarrollan tanto como forma
de lidiar con las reglas institucionales de espacios particulares, como forma de supervivencia.
Para algunos, las estrategias espaciales diferenciales que surgen se centran en factores como la
seguridad, la evasión, el encubrimiento y el cuidado por sobre el factor de amplificación y
popularización de los movimientos de resistencia. Pero este enfoque en las estrategias y la
supervivencia no es antitético a la organización de protestas o la toma culminante del Estado. La
necesidad de reconfigurar constantemente las formas de convocatoria debe interpretarse como
prácticas significativas de resistencia política.
En 2016, por ejemplo, miembros del movimiento Black Lives Matter acamparon fuera de la
sede de la policía de Toronto durante dos semanas en protesta por los disparos de la policía a
Andrew Loku. Para aquellos que acamparon, el espacio se convirtió en uno de “sanación y
construcción de comunidades”, según la cofundadora de BLMTO3, Alexandria Williams. A
diferencia del enfoque en la visibilidad, o lo que Sarah Banet-Weiser (2018) ha llamado
“feminismo afirmativo” que se ha vuelto característico de movimientos populares como la
Marcha de Mujeres o el #Metoo, todo ello posibilitado por diversas plataformas, estas otras
consideraciones espaciales dan cuenta de las preocupaciones críticas de las mujeres de color,
queer, trans y / o discapacitadas. La plataforma es una forma de medio culturalmente dominante
que es limitada en su capacidad para registrar y dar cuenta de las formas feministas
interseccionales de resistencia y rechazo. En otras palabras, la plataforma material de protestas y
marchas es con bastante frecuencia un medio que se rechaza. Lo que podríamos considerar
descubrir y ampliar, en cambio, son las estrategias espaciales diferenciales que emplean las
activistas feministas marginadas.
Figura nº 1: Manifestantes bailando en las carpas de Back Lives Matter, cuartel de policía de
Toronto
Una estrategia espacial similar al activismo fuera de línea y sitios de protesta se reproduce en
el activismo feminista en línea. Las plataformas digitales son aplicaciones en línea, definidas por
Nick Srnicek como “negocios que proporcionan las bases de hardware y software para que otros
operen” (2017, p.6). Las plataformas de redes sociales como Facebook y Twitter han sido
incorporadas al activismo digital a través de importantes movimientos internacionales como la
Primavera Árabe y Occupy Wall Street, donde los sitios en línea se utilizaron para organizar y
construir nuevas formas de colectividad (Gerbaudo, 2012; Bennett y Segerberg, 2013; Milán,
2013; Pappacharisi, 2014). La relación del feminismo con la plataforma es evidente a través de las
formas en que los sitios de redes sociales, como Twitter, o actividades como los blogs, son a
menudo consideradas -especialmente en el discurso popular-, como revitalizantes e impulsoras
del feminismo contemporáneo. A pesar de la preocupación del discurso popular por el
3 [Notas de les traductores] La autora se refiere aquí al movimiento “Black Lives Matter- Toronto”.
feminismo habilitado por plataformas, que lo hace parecer particularmente actual, la plataforma
ha sido una herramienta feminista en varias formas desde al menos principios de 1900. Las
plataformas en línea son herramientas y sitios importantes para la protesta feminista porque dan
voz a aquellos que históricamente han sido excluidos o borrados del discurso público y también
porque pueden utilizarse como herramientas de organización (Baer, 2016; Keller, 2012;
Rentschler, 2015). Sin embargo, los académicos que se dedican al trabajo sobre el feminismo
interseccional problematizan la promesa democrática de las plataformas digitales al argumentar
que las plataformas defienden y recrean las estructuras existentes de misoginia, racismo y
capacitismo en el siglo XXI (Noble y Tynes, 2016). Al igual que el escenario material que
reproduce un tipo particular de feminismo, amplificando solo algunas voces, así también lo
hacen las plataformas digitales. Jessie Daniels’ (2016), en su destacado artículo “El problema con
el feminismo blanco: blancura, feminismo digital e Internet interseccional”, plantea el argumento
de que, en los estudios sobre el feminismo digital, está subteorizado el “dominio de las mujeres
blancas como arquitectas y defensoras de un marco particular del feminismo en la era digital” (p.
42). Daniels postula que las formas en que el feminismo en línea se articula a menudo en la
cultura popular es a través de una lente feminista blanca y nos pide que analicemos cómo “el
feminismo blanco se ha beneficiado de este desarrollo tecnológico” (p. 56). Daniels sugiere que
debido a que las mujeres blancas son las arquitectas del feminismo digital, el privilegio blanco
está embebido en estos sistemas, lo que limita su accesibilidad y utilidad para las personas de
color y otras poblaciones minorizadas.
Vale la pena situar este argumento sobre las plataformas dentro de los estudios
contemporáneos sobre los medios de comunicación y, en particular, en el campo de estudio
emergente relacionado con las plataformas digitales y su política. En los últimos años, los
estudiosos de los medios de comunicación han centrado su atención en las plataformas. MIT
Press tiene una serie completa sobre estudios de plataformas y en 2013 la revista Culture
Machine publicó un número sobre “políticas de plataformas”. Incluir la palabra "plataforma" en
la convocatoria de una conferencia seguramente dará lugar a un buen número de candidatos
interesantes. Todo esto para decir que el auge de la plataforma como objeto de estudio ha sido
rápido, y, como resultado, la plataforma como sitio de estudio ha pasado desapercibida de
manera particular. Específicamente, aún no se ha desarrollado una lectura materialista de las
plataformas desde una perspectiva feminista. Los enfoques predominantes se pueden clasificar
en trabajos que encajan perfectamente en lo que se ha dado en llamar “estudios sobre
plataformas”, estudios sobre activismo digital y enfoques feministas de las plataformas. En estos
enfoques, se plantean pocas preguntas sobre si la plataforma está haciendo realmente un trabajo
productivo para el feminismo; en su lugar, se asume su utilidad o necesidad política. Cuestionar
la plataforma y su papel en la resistencia feminista es también desestabilizar una comprensión de
la resistencia digital feminista que no funciona como debería para las feministas en los márgenes.
El discurso contemporáneo predominante sobre "las plataformas" en los estudios de plataformas
no se centra en las etapas materiales y otras superficies elevadas en el espacio físico, sino más
bien en las plataformas digitales. Las plataformas se han convertido en sinónimo de redes
sociales y aplicaciones móviles en el contexto de la cultura digital (Gillespie, 2010; Hands, 2013;
Langlois y Elmer, 2013; Taylor, 2014; Srnicek, 2017). Aquellos que abordan el trabajo de
plataforma (Graham, 2017), el capitalismo de plataformas (Srnicek, 2017) y la política de
plataformas (Hands, 2013) argumentarán que las plataformas informáticas dan forma, restringen,
apoyan o niegan interacciones sociales y políticas importantes a través de estudios de la llamada
'gig economy'4.Existe un importante cuerpo académico que ha establecido que las plataformas
digitales no son medios neutrales. En cambio, se entiende que las plataformas están imbuidas de
jerarquías de poder en las que la información se distribuye de manera desigual con efectos
diferenciales (Gillespie, 2010). En algunos casos, las "plataformas" se posicionan y discuten
como infraestructuras digitales que unen a grupos de personas y permiten transacciones
financieras (Hands, 2013; Srnicek, 2017). Se han establecido algunas conexiones entre
plataformas de materiales como superficies elevadas y lugares físicos situados, y plataformas
digitales en los campos de estudios de software y estudios de medios y comunicación (Bratton,
2016, Gillespie, 2010). En “The Stack: On Software and Sovereignty”, Benjamin H. Bratton
ofrece la etimología de la palabra plataforma, proporcionando tres connotaciones: “plataforma
como plan de acción, como escenario para un plan y como propuesta de reglas de gobierno”
(2016, p. 43). Los estudios de plataformas como un nuevo campo han sido importantes tanto
para nombrar como para establecer los nuevos conjuntos de relaciones que permiten las
infraestructuras informáticas y diversas aplicaciones móviles. Esta área de estudio emergente
también ha abordado la resistencia llevada a cabo -en y a través- de las plataformas digitales al
enfocarse específicamente en el trabajo y la gig economy. Pero hay mucho trabajo por hacer en el
campo de los estudios de plataformas, especialmente porque faltan en gran medida las
perspectivas feministas, queer y de personas de color. Los estudios exhaustivos de la plataforma
deben cuestionar la suposición de que solo se puede teorizar la resistencia cuando éstas se
abordan como espacios de determinados tipos de trabajo. Además, es importante centrar
nuestras preguntas menos en las posibilidades tecnológicas de las plataformas y más en las
personas que las utilizan. Aquí es importante el trabajo de los teóricos de los medios
interseccionales y materialistas que buscan visibilizar cuerpos y voces diferenciadas que operan
en plataformas digitales (Hedge, 2011; Gajalla, 2012; McPherson, 2014). André Brock (2012) por
ejemplo, en su trabajo en Black Twitter problematiza “la investigación de las ciencias sociales y la
comunicación que intenta preservar una perspectiva daltónica de los esfuerzos en línea al
normalizar la blancura y la diferencia de todos los demás” (p. 546). Este cambio de pensamiento
podría ayudar a desarrollar un modelo de la diferencia, en lugar de cosificar las estructuras de
poder existentes.
Cuando las plataformas en línea aparecen en la investigación feminista en los estudios sobre
medios y comunicación, es a través de los debates sobre las posibilidades políticas que permiten
los medios digitales (Keller, 2012; Rentschler, 2015; Baer, 2016). En su artículo “Redoing
Feminism: Digital Activism, Body Politics and Neoliberalism” Hester Baer (2016), comentando
el feminismo de los hashtags, postula que “Al proporcionar una plataforma crítica para tales
discusiones, las campañas feministas de Twitter literalmente 'rehacen el feminismo'” (p. 29). Este
trabajo, aunque es importante para resaltar cómo algunas activistas feministas han utilizado las
plataformas digitales para la resistencia, parece asumir una vinculación particular con las
plataformas. Si no se piensa en la plataforma desde una perspectiva materialista, cosa que no
hace la literatura existente, es difícil pensar en los feminismos digitales más allá de las lógicas de
las plataformas.
Al intervenir en estos campos, al plantear preguntas sobre la plataforma y su papel en la
estructuración de la lucha feminista interseccional, podría ser posible descubrir, o al menos
4 [Nota de les traductores] Este este término podría ser traducido como “economía informal”, aunque una
definición más acertada sería “economía de trabajos temporarios o precarios”.
resaltar, las formas importantes en que las mujeres que también son personas de color, queer,
trans y/o discapacitadas, se desarrollan. Estrategias espaciales diferenciales en momentos de
resistencia. Necesitamos comenzar a pensar en cómo la lucha feminista ha estado ligada a varias
iteraciones de la plataforma y, por extensión, a las organizaciones espaciales normativas y cómo
estos arreglos se renegocian constantemente.
Referencias
Baer, H. (2010). Redoing Feminism: Digital Activism, Body Politics, and Neoliberalism. Feminist
Media Studies 16.1, p.17-34.
Banet-Weiser, S. (2018). Popular Feminism: #metoo. LA Book of Reviews.
Battersby, S. J. (2016, 2 de abril). Inside Toronto’s Black Lives Matter Camp.
The Toronto Star, https://www.thestar.com/news/gta/2016/04/03/inside-torontos-black-
lives-mattercamp.Html
Bratton, B. H. (2015). The Stack: on Software and Sovereignty. MIT Press.
Brock, A. (2012). From the Blackhand Side: Twitter as a Cultural Conversation. Journal of
Broadcasting and Electronic Media, 56:4, p.529-549.
Daniels, J. (2015). The Trouble with White Feminism: Whiteness, Digital Feminism and the
Intersectional Internet, En Noble, S.U. and Tynes, B.M (eds), The Intersectional Internet: Race,
Sex, Class and Culture Online. New York: Peter Lang Publishing.
Feigennbaum, A. (2014). Resistance Matters: Tents, Tear Gas and the ‘Other Media’ of
Occupy. Communication and Critical/ Cultural Studies. 11-1, p.15-24.
Gajalla, R. (2012). Cyberculture and the Subaltern: Weavings of the Virtual and Real. Lexington Press.
Hands, J. (2013). Platform Communism. Culture Machine, 14, p. 1-24.
Hedge, R. S. (2011). Circuits of Visibility: Gender and Transnational Media Cultures. NYU Press.
Keller, J. (2012). Virtual Feminisms. Information, Communication & Society 15.3, p.429-47.
Kino-nda-niimi Collective (2104). The Winter We Danced: Voices from the Past, the Future, and the Idle
No More Movement. Manitoba: ARP Books.
Langois, G. y Elmer, G. (2013). The Research Politics of Social Media Platforms. Culture Machine.
Vol.14, p.1-17.
McLuhan, M. (1964). Understanding media. London: Sphere Books.
McPherson, T. (2014). Designing for Difference. Differences: A Journal of Feminist Cultural Studies,
25:1, p. 177-188.
Moss, P. y Maddrell, A. (2017). Emergent and divergent spaces in the Women’s March: the
challenges of intersectionality and inclusion. Gender, Place & Culture, 24:5.
Noble, S. U. y Tynes, B. M. (2015). The Intersectional Internet: Race, Sex, Class and Culture Online.
New York: Peter Lang Publishing.
Packer, J. y Crofts Wiley, S. B. (2012). Communiction Matters: Materialist Approaches to Media, Mobility
and Networks. Routledge.
Puar, J. (2015). Queer Times, Queer Assemblages. Social Text, 23, p.121–139.
Puar, J. (2011). ‘I would rather be a cyborg than a goddess’ Intersectionality, Assemblage, and
Affective Politics. European Institute for Progressive Cultural Policies (Transversal: inventions).
Rentschler, C. (2015). #Safetytipsforladies: Feminist Twitter Takedowns of Victim
Blaming. Feminist Media Studies 15.2, pp. 353-356.
Cómo citar: Feruglio Ortiz, H. A. (2021). Tecnologías culturales y economía de la información. Tres
perspectivas críticas sobre el capitalismo digital a la luz del proyecto filosófico de Gilbert Simondon.
Revista Hipertextos, 9(15), 25-45. DOI: https://doi.org/10.24215/23143924e027
1 Este trabajo pertence al desarrollo del Proyecto I+D “Medios, Comunicación y Sensibilidad. Problemas
ontológicos, políticos y estéticos en el entramado tecno-cultural contemporáneo”, financiado por la Secretaría de
Investigación y de Posgrado de la Universidad Nacional de Catamarca (2019-2021).
2 Doctor en Ciencias Humanas (Mención en Estudios Sociales y Culturales) por la Universidad Nacional de
Cultural technologies and the information economy. Three critical perspectives on digital
capitalism in light of Gilbert Simondon's philosophical project
Abstract. Today capitalism is in a moment of transformation rather than a period of crisis due to
accelerated growth of the information economy. A transformation built on the capacity that digital
platforms have to modulate the powers of economic organization. This robotic administration of
informational commerce has monopoly effects that proletarianize life, erode knowledge and control
commercial flows. The objective of this work is to make some conceptual contributions for a critical
reflection on digital capitalism. We propose three perspectives to organize the development of the
problem: a) Nick Srnicek's notion of platform capitalism, b) Bernard Stiegler's notion of network
capitalism, and c) the Tiqqun collective's notion of cyber capitalism. Finally, we will try to show the need
to articulate these perspectives in the philosophical project of a cultural technology proposed by Gilbert
Simondon. This will allow us to develop certain conditions conducive to managing remedial or organizing
courses of action in our techno-social ties as alternatives to the alienating practices of the information
economy of digital capitalism.
1. Introducción
En la sociedad contemporánea la economía de la información caracteriza al capitalismo. Una
afirmación que se fundamenta en la importancia que se le otorga a la información como factor
de producción y al crecimiento acelerado del sector especializado que la produce. “La
información se ha transformado en la riqueza a extraer y acumular, convirtiendo al capitalismo
en un auxiliar de la Cibernética” (Tiqqun, 2013, p.48). Esta lógica mercantil-cibernética que se
extiende a toda actividad, aún la no mercantil, está basada en el valor que pueda ser extraído
como información sobre la información. Desde la perspectiva de Pablo Rodríguez (2019) la
cibernética en la actualidad no es simplemente un aspecto de nuestra vida, sino el verdadero
meollo de los modos de saber y las relaciones de poder en la sociedad contemporánea (p.16). En
un contexto donde se multiplican los dispositivos técnicos de vigilancia de los individuos, se
construyen patrones automatizados de conducta de los usuarios que influyen en sus decisiones y
se integra la vida afectiva de las personas en las redes sociales, las plataformas digitales se
convierten en un nuevo medio para la reactivación del capitalismo.
Esta reactivación se basa en una economía digital que sienta sus bases en las tecnologías de la
información y las redes de comunicación brindadas por Internet. Un modo de organización
tecno-social donde podemos encontrar las nuevas formas de explotación del capitalismo digital,
pero también las potencias de invención y organización necesarias para desarrollar alternativas a
las estructuras funcionales del mercado. Nuestro trabajo se orienta a realizar algunos aportes
conceptuales que nos permitan elaborar una reflexión crítica capaz de desbordar ciertos
reduccionismos económicos, técnicos y políticos. Para alcanzar éste propósito, primero
abordaremos la noción de capitalismo de plataformas de Nick Srnicek, con el fin de analizar el
lugar de la economía digital de plataformas en nuestras vidas. Segundo, presentaremos la
categoría de capitalismo reticular de Bernard Stiegler, para describir la función de la economía
retencional en los procesos de gramatización. Tercero, desarrollaremos la categoría de
capitalismo cibernético del colectivo Tiqqun, para caracterizar las nuevas formas de explotación
basada en dispositivos técnicos de control. Finamente, propondremos articular estas tres
perspectivas desde la filosofía de Gilbert Simondon, con el objetivo de desbordar los
reduccionismos que impiden la emergencia de tecnologías culturales que promuevan vías de
acción alternativas a la administración robotizada de la economía de la información.
2. Capitalismo de plataformas
El desarrollo de las tecnologías digitales ha sufrido en las últimas décadas un proceso de
aceleración significativa que afectó diversos sectores de producción. Una aceleración que
condujo a una reevaluación permanente del potencial de la economía de la información dentro
de las industrias. Según el académico Nick Srnicek (2018) la economía digital toma las
tecnologías de la información, los datos y las redes para sus modelos de negocios. Los avances
tecnológicos, los automatismos y la información compartida nos sitúan en aquello que se ha
dado en llamar Internet de las cosas, un fenómeno que ha trasformado la relación entre las
personas y los objetos a través de procesos interconexión digital. Desde esta perspectiva, en los
últimos años han proliferado conceptos como economía de trabajo temporal, economía
compartida, la economía de la vigilancia, economía app, economía de la atención. Estos
conceptos pretenden explicar las nuevas dinámicas el capitalismo avanzado, basado en la
extracción y el uso particular de un nuevo tipo de materia prima: los datos. Para Srnicek (2018),
es preciso hacer una distinción entre los datos -información de que algo que sucedió- y el
conocimiento -información del por qué algo sucedió- (p.41). También es importante señalar la
inscripción material de los datos (no son inmateriales), las complicaciones para su recopilación y
análisis, y el valor de la infraestructura para detectarlos, grabarlos y analizarlos. “Dicho de manera
simple, deberíamos considerar que los datos son la materia prima que debe ser extraída, y la
actividad de los usuarios, la fuente natural de esta materia prima” (Srnicek, 2018, p.41). Esta
perspectiva económica, basada en los datos como materia prima y en la actividad de los usuarios
como su fuente, permite la emergencia un modelo de negocios que toma la plataforma como el
modo más eficiente para recopilar, analizar y usar cantidades importantes de información.
Este nuevo modelo de negocios, que toma los datos como un recurso potencial para
optimizar su producción, organizar las preferencias de los usuarios, controlar a los trabajadores o
para publicitar sus productos, emerge con un nuevo tipo de compañías denominadas
plataformas. Las plataformas podrían definirse como infraestructuras digitales capaces de
conectar dos o más grupos e intermediar entre los distintos usuarios. El efecto de red capaz de
producir este tipo de infraestructuras es una característica fundamental de las plataformas
digitales, que hace que su valor aumente con el incremento de la participación de usuarios. En las
plataformas digitales, la información y la comunicación se encontrarán en continuo movimiento
a través de redes, configurando recorridos reticulares que permitirán la emergencia de nuevos
sentidos y de nuevos mapas partir del uso. Esto explica por qué las empresas siempre están
preocupadas por captar usuarios mediante tácticas que muchas veces se orientan a brindar
servicios buscando un equilibrio rentable entre lo gratuito y lo pago. Desde esta perspectiva, las
plataformas son un nuevo tipo de empresa que aporta la infraestructura para intermediar grupos
de usuarios, expandir tendencias monopólicas, captar usuarios mediante un efecto red, y
controlar la interacción mediante una arquitectura centralizada.
hegemónicos de un modelo de negocios que toma como base la nueva infraestructura digital.
Frente a estos efectos hegemónicos se ofrece como alternativa la propuesta aceleracionista de
liberar las fuerzas productivas de la tecnología. Este proceso debe realizarse sin destruir la base
material neoliberalismo sino redirigiéndolas hacia objetivos comunes. Desde nuestra perspectiva,
consideramos que esta vía de acción nos podría conducir a un cierto reduccionismo económico
como forma de reorganización tecnológica social. Liberar las fuerzas productivas de la
tecnologías, para modularlas desde prácticas alternativas a las lógicas del capitalismo, demanda
una mirada más integral de los aspectos que componen las redes socio-técnicas y culturales que
sostienen las prácticas económicas.
Para el filósofo francés Bernard Stiegler (2016), las transformaciones del capitalismo vienen
de la mano de una serie de desórdenes tecnológicos que implican procesos de hiperconectividad
generalizada, nuevas formas de vigilancia y control de los individuos, y delegación de las
decisiones a sistemas automáticos. Según Stiegler (2010) la sociedad humana siempre se ha
apoyado en una serie de técnicas en las que delega funciones psíquicas para transformarlas en
aparatos sociales. Se sostienen en los organa que Platón llamaba phármaka, y que él definió, de
entrada como teletecnologías y, por ello como venenos (p.273). Sin embargo, estos phármaka son
tanto remedios como venenos. Para que los remedios no funcionen como venenos, es preciso un
sistema de cuidados, que supone una medicina y una farmacopea. Lo que esta psicoterapia cuida es
el télos de lo lejano que se convierte en horizonte de un fin, al que Platón llamará idea, que
también es origen, y Husserl denominará eîdos, en tanto núcleo intencional de todo fenómeno.
Desde la perspectiva de Stiegler, el eîdos no se encuentra separado y aunque esté lejano o
inaccesible, no hace referencia a otro mundo. “Se trata de lo que llamo plano de consistencia,
que se encuentra en un plano distinto al de la existencia, y que eleva a esta última por encima de
la subsistencia” (Stiegler, 2010, p.274). Un plano de consistencia, no trascendente ni
trascendental, sino inmanente a la existencia, el plano donde se constituye el objeto de deseo.
Una teleología de toda causalidad que cuida su porvenir lleva consigo la cuestión del deseo, ser a
la distancia que da lugar a la emoción, al movimiento y a la acción. Deseo de ese objeto lejano
por naturaleza y siempre por venir que se encuentra inscripto en una teleología sin la cual no
sería posible ningún cuidado. “Dentro del Internet de las cosas necesitamos identificar las
teleologías que son posibles y necesarias gracias a la tecnología, en la medida que van a vincular
todos los objetos, con ellos todos los cuerpos, y a través de ellos todas las almas” (Stiegler, 2010,
p.276). Por lo tanto, si queremos liberar las fuerzas productivas, se hace necesario repensar en la
actualidad el problema de las nuevas formas de teleología emergentes con las tecnologías digitales
y de telecomunicación.
3. Capitalismo reticular
Para Stiegler (2016), una nueva crítica a la economía política debe pasar por un análisis de la
retención terciaria, por la cuestión mnemotécnica, o particularmente técnica, como
materialización de la experiencia. Esta materialización constituye una espacialización del tiempo
de la conciencia más allá de la conciencia, conformando una inconsciencia, o más
específicamente un inconsciente. Proponer el problema de la retención terciaria como punto de
paso obligado para una crítica a la economía política, coloca la propuesta de Stiegler sobre los
rastros de la fenomenología de Husserl. Esta huella le permite a afirmar que el tiempo de la
conciencia esta urdido por eso que Husserl conceptualizó como retenciones y propensiones
(p.17). Aquello que se forma en el pasaje mismo del tiempo, en la medida que es presente, pasa a
componer la retención primaria, formada por la contención de su propio pasaje. Las retenciones
secundarias son el pasaje del presente al pasado, una conversión que trama los recuerdos de la
memoria. Por último, la exteriorización mnemotécnica de las retenciones secundarias, resultantes
de la conversión del presente en pasado de las retenciones primarias, configuran la retención
terciaria. Desde que llegamos al mundo nos preceden y esperan las retenciones terciarias que
constituyen ese mundo como mundo. “Y como la espacialización del tiempo individual, que se
convierte en tiempo colectivo, la retención terciaria es una exteriorización original del espíritu”
(Stiegler, 2016, p.18). La capa retencional mnemotécnica se transforma a lo largo de la historia
haciéndose más densa y compleja, generando registros cada vez más analíticos de los flujos de las
retenciones primarias y secundarias como los sistemas de escritura y numeración. Estos registros
constituyeron el logos que dio lugar a la lógica, como discretización del flujo continuo del
lenguaje espacializado, pero también afectaron a los gestos. El gesto, al igual que la palabra, en
tanto flujo retencional, debe ser considerado como un encadenamiento. “La proletarización de
los gestos del trabajo como obra [ouvrage] es la proletarización de las condiciones de
subsistencia del trabajador. La proletarización de las sensibilidades y de la relación social –que es
reemplazada por el condicionamiento- es la proletarización de las condiciones de existencia del
ciudadano” (Stiegler, 2014, p.149). Desde esta perspectiva, aprender un oficio implica producir
retenciones secundarias gestuales hasta que se discretizan y espacializan el tiempo de los gestos
para constituir el automatismo técnico.
Mediante el automatismo técnico, no será solo el alma del logos la que podrá ser
analíticamente reproducible como retención terciaria, sino el gesto del cuerpo. “Esta
reproducibilidad es lo que produce granos retencionales que podemos denominar gramas. Y la
razón por la cual hay que plantear que la evolución de las retenciones terciarias, del neolítico
hasta nuestros días constituye un proceso de gramatización” (Stiegler, 2016, p.20). Según Stiegler
(2016) durante el siglo XIX, el surgimiento de tecnologías de gramatización audiovisual permitió
discretizar el flujo de los órganos sensoriales que transformaron las funciones noéticas,
psicomotrices y estéticas, un fenómeno que adquiere relevancia desde el punto de vista de la
economía política debido a las funciones de concepción, producción y consumo que son
gramatizadas, integradas a un aparato de producción de retenciones terciarias controladas por
dispositivos retencionales (p.20). Estas gramatizaciones se ven efectuadas en el desplazamiento
del comercio al mercado y sus variaciones en el tipo de intercambio. Para Stiegler, el comercio
involucra el intercambio de un saber-hacer y de un saber-vivir, mientras que el mercado
consumista supone una destrucción del saber-hacer y del saber-vivir. Este desplazamiento
implica una mutación del trabajo, de los procesos de producción y de consumo, y una
funcionalización de las relaciones sociales donde la tecnología maquínica ejerce su dominancia.
La explotación y funcionalización de una nueva energía, que no es la energía del productor
proletarizado, ni tampoco la energía motora del nuevo sistema industrial, sino la energía del
consumidor proletarizado: su energía libidinal. La explotación de esta energía ha modificado la
economía libidinal con un impacto decisivo en la economía general en un proceso de erosión
recíproca. Esta proletarización del consumo es el resultado de un desplazamiento de nuestras
memorias a las máquinas, a partir de la generalización de los hipomnésicos industriales que ha
generado la perdida de saberes. “Esto constituye un hecho habitual y sensible de lo que quiero
presentar aquí como un vasto proceso de proletarización cognitiva y afectiva -y de perdida de
saberes: saber-hacer, saber-vivir, saber-teorizar, sin los cuales ningún saber será ya sabido”
(Stiegler, 2016, p.43). Cuando la exteriorización de la memoria y de los saberes alcanza límites
impensados se extiende el poder de los hipomnésicos y con ellos su capacidad de control. “Se
instala una economía industrial biopolítica, psicopolítica, tecnopolítica, una economía industrial
noopolítica de la memoria. La noopolítica forma parte de las tecnologías humanas de gobierno
de los demás” (Lazzarato, 2006, p.229). La gramatización bajo sus diversas formas: memoria
nerviosa y cerebral, memoria corporal y muscular o memoria biogenética, exteriorizadas
tecnológicamente, ha sido históricamente objeto de controles sociopolíticos y biopolíticos que
actualmente se han potenciado con el fenómeno de conectividad.
Estos procesos de reflexión sobre la memoria ponen en escena la cuestión de hipoamnamesis,
no solo como cuestión vinculada al proletariado, sino a los consumidores, que han visto
lesionadas sus memorias y saberes por parte de la industria de servicios. Una cuestión que no
solo genera nuevas formas de explotación capitalistas, sino que provoca un cortocircuito en los
procesos de transindividuación. Este concepto de transindividuación tematizado por Stiegler
puede rastrearse en el pensamiento de Gilbert Simondon. Para Simondon (2009), el ser sujeto es
un sistema coherente de las tres fases del ser: preindividual, individuada y transindividual, que
podrían corresponder (no de manera completa) con las nociones de naturaleza, individuo y
espiritual. Su originalidad radica en pensar al sujeto no como una fase opuesta al objeto, sino
como una unidad condensada y sistematizada de las tres fases (p. 463). Stiegler retomará esta
conceptualización simondoniana de lo transindividual para caracterizar y situar el proceso de
transindividuación desde las nociones de retención y propensión.
que implica la realización de un servicio, pero como contrapartida es privado de decidir sobre su
vida.
Siguiendo esta línea argumental, si la proletarización implica una pérdida de saber que deriva
en aquello que Simondon) caracterizó como un trabajador desindividuado (Stiegler, 2016, p.50),
en tanto que su saber ha pasado a las máquinas y ya no es él quien se individúa cuando lleva y usa
las herramientas, el trabajador proletario queda excluido del proceso de individuación. Al quedar
disociado (no asociado) no se co-individúa generando una ruptura en el entramado
transindividual que configura el medio del trabajo como medio simbólico. Este proceso de
proletarización no se reduce a la clase obrera, el proceso de gramatización también ha permitido,
mediante la captación de la atención de los consumidores, y a través de ella, de su energía
libidinal, una proletarización que ha devastado no solo su saber hacer, sino su saber vivir. Desde
la mirada de Stiegler (2016), el punto crucial radica en que la gramatización puede producir
circuitos largos de individuación que acumulan energía libidinal (objetos infinitos e
inconmensurables) o cortocircuitos desindividuantes que la destruyen la libidinal (objetos finitos
y conmensurables). La gramatización es farmacológica y el hipomnématon3 puede proletarizar la
psiqué que él afecta o individuar esa psique para inscribirla dentro de una nuevo circuito de
transindividuación que él trama (p. 57). Una economía de los phármaka constituye una terapéutica
en tanto economía del pharmakon como composición tendencias y no una lucha dialéctica entre
veneno y remedio. Esta composición se concretiza en agenciamientos entre los tres niveles de la
organología general4 para conformar un sistema de cuidados. Por el contrario, una deseconomía
de los phármaka implica la aparición de un nuevo phármakon (individuación técnica) que genera un
cortocircuito en los otros niveles (individuación psíquica e individuación colectiva). En la
actualidad los procesos de proletarización del sistema nervioso provoca la intervención, cada vez
mayor, de los hipomnémata que generan cortocircuitos en los individuos a todo nivel (p.58).
Mediante esta operación los proletarios del sistema nervioso son privados del saber teórico
(noético en acto) tanto como los proletarios del sistema muscular son privados del saber hacer.
Una dinámica que permite el desarrollo de un psicopoder donde lo cognitivo se ve proletarizado
a partir del control, no solo a los consumidores sino también de los productores y diseñadores.
Stiegler (2016) denominará capitalismo reticular a estas dinámicas capaces de ofrecer tanto los
medios para la proletarización de la vida como los medios para crear alternativas a estas formas
de proletarización. “…la reticulación digital, a través de la cual las actividades cognitivas mísmas
son proletarizadas, constituye un punto de ruptura en el que se forman medios asociados, es
decir, medios de individuación que van contra los procesos de disociación y desindividuación en
la que consiste la proletarización” (p. 62). Imaginar una perspectiva económico-política inédita a
partir de un nuevo proceso de transindividuación radica en la posibilidad de una economía de la
contribución. Esta propuesta económica pretende confrontar con ese giro maquínico de la
sensibilidad, donde el phármakon como psicotecnología del psicopoder permitió que el consumo
transforme todo en necesidad, liquidando el deseo, los objetos del otium. Desde la perspectiva
stiegleriana, el otium es descripto como el tiempo de la intermitencia noética, como la posibilidad
del nec-otium, tiempo de empleo. Esto se debe a que el alma no es noética en acto sino por
intermitencias, el tiempo de pasaje al acto noético es el del otium, que es el tiempo libre, no el de
3 Stiegler (2016) caracteriza los hipomnémata como mnemotécnicas -pharmaka hipomnésicos- (p. 90).
4 Stiegler (2016) señala que la individuación del nivel farmacológico que corresponde a la individuación técnica
intensifica transductivamente la individuación de los niveles de individuación psíquica e individuación colectiva
(p.58).
A modo de balance de esta segunda sección, podríamos afirmar que la noción de capitalismo
reticular nos orienta a reflexionar sobre la economía política a partir del lugar preponderante que
ocupa la retención terciaria en los procesos de gramatización contemporáneos. Estos procesos
conllevan cuestiones de farmacología para las cuales una economía de la contribución sería su
socioterapia (sistema de cuidados). Sin embargo, aunque lo transindividual es un concepto clave
para pensar el componente político en la economía, debemos evitar el riesgo de otorgar a la
técnica esa función normativa preponderante presente en la perspectiva stiegleriana. Muriel
Combes (2017) sostiene que, si bien Simondon concibe la idea de una normatividad técnica,
distingue entre normatividad contenida en los objetos técnicos (independiente de la
normatividad social) y normatividad de la organización reticular del mundo técnico
(condicionando el obrar humano). La crítica de Combes a Stiegler va dirigida a la idea postular
una normatividad unívoca de la técnica que denomina sociogénesis. Esta hipótesis de una
normatividad única implicaría reconocer que la técnica es invención y la invención novedad, y
que el problema económico, por ejemplo, sería solo una cuestión de ajuste entre evolución
técnica y tradición social. Así, la hipótesis de un avance de la tecno-génesis que subordina la
individuación psíquica y colectiva a la evolución técnica, reserva la producción de la novedad
solo a la producción técnica. Una producción propiamente social parece impensable en el marco
de esta hipótesis (pp. 113-114). Desde la perspectiva de Combes, para Simondon la razón de las
transformaciones sociales se vincula a la existencia de partes de naturaleza preindividual
asociadas a los individuos, que puestas en común dan nacimiento a lo transindividual, y no a un
avance estructural de la técnica. No reducir la crítica económica al problema invención técnica
como base de transformación social nos permitirá avanzar en una mirada que contenga una
reflexión sobre la constitución de lo colectivo a nivel molecular (infra-individual e infra-social).
4. Capitalismo cibernético
Para el colectivo Tiqqun (2013), las técnicas de intermediación mercantil y financiera que
provenían de las décadas del 1930-1970 han sido automatizadas bajo la influencia de la
informatización. Internet se convirtió en una base de datos edificada a partir de los datos
provenientes del consumo de los usuarios que permite conocer las preferencias del consumidor y
condicionarlas con la publicidad. Este proceso implica que el acto mismo de consumo se vuelve
el soporte de bucles de retroacción cuasi-permanentes, en tiempo real.
hacer fracasar este proceso implicará generar un cortocircuito que logre anular el feedback que
retroalimenta los dispositivos de control. Un procedimiento que nos podría conducir a un cierto
reduccionismo político, como vía alternativa a las prácticas políticas del capitalismo, al pensar el
sabotaje como única acción posible para desactivar los dispositivos tecnológicos de explotación
del imperio.
Hilando fino en el pensamiento de Simondon, podríamos considerar que la cibernética no es
solo una lógica de funcionamiento y una infraestructura técnica a la que podemos sabotear. “Si
bien es cierto que las máquinas se están volviendo organísmicas, en ese permanente proceso de
devenir, como observó Simondon, el objeto técnico -no importa cuán concretos sea- conserva
aún reminiscencias de sistemas más abstractos; en cambio el ser viviente es siempre ya
completamente concreto” (Yuk Hui, 2020, p. 124). Para Hui, dentro de ese dominio del ser que
no se concretiza completamente y en el proyecto ilusorio de sustituir la naturaleza por la
tecnología informática digital, se encontraría la tensión política entre la crítica humanista y la
perspectiva transhumanista. Por ello, para una comprensión profunda de las transformaciones
producidas por los automatismos técnicos, no bastara con definir el sentido de la teoría
cibernética, se necesitaba mostrar las modificaciones preliminares en la reflexión filosófica que
exigía su comprensión. La cibernética provocará una serie de desplazamientos del centro de
gravedad ontológica que obligarán a la filosofía a modificar nociones como las de causalidad y de
individuo. Simondon ve con cierto optimismo la posibilidad de un nuevo enciclopedismo que
tome como fuente la cibernética para fusionar la teoría científica de la información y la técnica
del automatismo a partir de una revisión profunda. Este proyecto implicará el desarrollo de una
disciplina reflexiva que el filósofo francés denominara allagmática, que comprende una teoría de
las conversiones de causalidad directa en causalidad recurrente y viceversa. Su rol será lograr la
unidad entre el automatismo y la teoría de la información, lo que permitirá pasar a la fase
normativa luego de unificar el campo de reflexión.
Desde esta perspectiva, la noción de información simondoniana provocara no solo una
revisión nocional de la ontología, sino también algunas implicaciones metapolíticas. “El
maquinismo ha afectado las sociedades humanas sin modificar su normatividad, se ha mantenido
exterior al pensamiento, ya que no pudo crearse ningún lazo entre la máquina y el hombre, más
allá de un vínculo de utilización, que no implica la creación de una verdadera comunicación, ni
una repercusión sobre ética” (Simondon, 2018, p. 403). La disciplina cibernética impulso nuevos
esquemas de relación entre los hombres y las máquinas, provocando modificaciones en el
pensamiento, pero será la allagmática aquella capaz de generar una trasformación de manera
profunda. Dichas transformaciones en los vínculos entre la realidad humana y la realidad de las
máquinas resultan importantes a la hora de pensar las vías de acción alternativas frente a las
nuevas formas de explotación tecno-social del capitalismo digital. Esa capacidad para modular las
potencias de organización económica bajo la lógica cibernética no podrá ser transformada solo
mediante la interrupción de las redes de comunicación del imperio como estrategia. Lo que se
precisa es un gesto reparador u organizador capaz de reconstituir los circuitos de
transindividuación erosionados por el mercado para organizar esas potencias.
5. Tecnologías culturales
Para Simondon (2015), el valor representa el símbolo de integración por excelencia, la
complementariedad ilimitada entre el ser individual y los seres individuales. La
complementariedad se produce gracias a la acción del valor. A partir de este principio es posible
identificar tres tipos de valor. El valor absoluto, el valor relativo y el valor que permite la
relación: Los valores relativos son aquellos que expresan una condición complementaria que se
encuentra ligado a esa cosa pero sin serle inherente, como el valor del remedio que cura, o el
alimento nos hace subsistir. “El tercer tipo de valor es el que permite la relación: comienzo o
inicio de la relación que permite esta actividad, y que se mantiene por sí misma una vez que ha
comenzado” (Simondon, 2015, p. 436). Entre esos valores se puede poner la cultura con su
capacidad de manipular símbolos capaces de representar un gesto técnico o una pulsión orgánica.
Ésta opera como un conjunto de comienzos de acción ricos en esquematización. Sus valores, que
esperan ser actualizados en la acción, permiten resolver algunas dimensiones problemáticas del
ser, pero no constituir vida orgánica o vida técnica. Desde esta perspectiva, la resolución de
problemas implica la puesta en relación de las condiciones orgánicas y las condiciones técnicas.
Simondon (2015) afirma que no se debería reducir la cultura al rol de medio de expresión, como
el freudismo y el marxismo, sino otorgarle un papel reflexivo sensible al aspecto problemático de
la existencia. Esta problemática existencial sucede cuando la vida orgánica y la vida técnica deben
ser compatibilizadas de manera simultánea, algo que no ocurre en condiciones simples de
existencia.
Sin pensamiento reflexivo, nos encontramos con un proceso de degradación de la cultura en
incompatibilidades que derivan en acciones no constructivas. Ningún camino puro del intelecto
(esquema intelectual) y ninguna actitud vital (postura vital) pueden resolver el problema de la
incompatibilidad, y en ese sentimiento, que impide buscar una solución ya dada en el mundo o
en el yo, reside el sentido del valor. La perspectiva simondoniana nos muestra que el valor es el
sentido de lo optativo, y por lo tanto, sería un error reducir la acción a la elección, porque una
elección es un recurso a esquemas de acción preformadas. Nos encontramos con la problemática
de la elección cuando lo único que queda es la forma vacía de la acción, que descualifica en
nosotros las fuerzas técnicas y las fuerzas orgánicas que nos aparecerán indiferentes. El sentido
del valor es la autoconstrucción del sujeto por su propia acción, no hay elección trascendente, ni
elección inmanente. Por ello, el problema moral que el sujeto puede plantearse esta en el nivel de
la mediación constructora, en progresiva toma de conciencia de la resolución de un problema en
la acción. “La conciencia valorizadora define por tanto un nivel de actividad teleológico que no
puede ser reducido a ningún automatismo. La Solución al problema moral no puede ser buscada
por un ordenador” (Simondon, 2015, p. 442).
El programa filosófico de Simondon (2018) propone una apertura del sistema reflexivo, cuya
función es acoger, actualizar y experimentar reflexivamente aquellos dominios que la existencia
humana descubre como afectado por un carácter problemático (p.38). Será el azar quien presida
el encuentro primero entre una problemática novedosa y la conciencia reflexiva, ya que el pasaje
a la reflexividad no puede hacerse en un dominio cerrado de la espontaneidad que contenga solo
datos, fuerzas y estructuras de una situación. Por ello, el pensamiento filosófico adquiere sentido
en la medida que aporta el recuerdo de experimentaciones que pudo llevar a su fin, aporta
esquemas, conceptos y gestos filosóficos con una carga relativamente universal. La relación del
hombre con el automatismo técnico generó un conjunto de fenómenos que obligaron a la
filosofía a reflexionar sobre una serie de problemáticas que no siempre fueron abordadas de
manera adecuada. Debido a esto, su tarea implicará un movimiento donde la filosofía misma se
verá obligada a reorganizarse en el proceso mismo de experimentación, debido a que la técnica
contiene tanto elementos de una situación humana, como las relaciones del hombre con el
mundo (p. 39).
Uno de los problemas que la filosofía tuvo que confrontar fue que la técnica, por su
naturaleza mixta, fue reducida a la servidumbre, privada de interioridad y de autonomía, ya que
nos abocamos a utilizarla, no a pensarla. Para Simondon (2015) la relación del hombre con el
mundo puede efectuarse por el trabajo a través de la comunidad, o desde el individuo hacia el
objeto técnico. A diferencia del trabajo que se agota en su realización mediante una operación
donde el ser del trabajo se aliena, el esfuerzo técnico cristaliza el gesto humano creador en el
objeto técnico, para perpetuarlo en el ser.
La apertura del campo reflexivo será impulsada por la cibernética, cuyo proyecto se remonta a
Norbert Wiener, y a su voluntad de explorar los espacios en blanco del mapa de ciencia. Debido
a que estos espacios en blanco no estaban en el mismo nivel de los dominios teorizados, se hizo
posible un desplazamiento de nivel que nos proporcionó acceso al dominio reflexivo. “Hay un
gesto filosófico en esta metábasis, no horizontal sino vertical. La cibernética es la toma de
conciencia filosófica de una problemática espontanea cuyo terreno es una tecnología universal”
(Simondon, 2018, p.42). Si tomamos de la cibernética la expresión de relevo continuo, podríamos
definir un sistema en el cual una energía de alimentación (energía potencial) se actualiza más o
menos en un efector, tomando en cuenta que el pasaje de la energía potencial al efector está
condicionado por una resistencia variable que es el modulador 5. Dicha resistencia esta
comandada por el grado de magnitud y no por la cantidad de energía aportada por el modulador.
“Un modulador es un sistema que hace la síntesis entre una forma y una fuerza, gracias a una
resistencia variable insertada entre la fuente de energía y el efector, cuya variación está gobernada
por una forma señal” (Simondon, 2018, p.50). Estas líneas de trabajo desarrollados por la
cibernética llevaron a la necesidad de redefinir la noción de información a partir de considerar
que el principio de causalidad no es univoco6.
Estas transformaciones nocionales impulsadas por la cibernética generaron la necesidad de
repensar el esquema reflexivo de la filosofía. La información dejará de ser pensada como una
5 Podemos definir esta magnitud como forma del comando (señal), una forma sin fuerza, en tanto que la energía
potencial de la alimentación constituiría una fuerza sin forma. De este modo, el efector recibe la síntesis de la señal y
la energía potencial (forma informada), lo que configura la energía modulada por una señal.
6 Por ejemplo, si tomamos un modulador, podríamos identificar que la energía de alimentación es causa, en relación
a los fenómenos cuyo asiento es el efector, pero la forma señal también es causa. Otro aspecto relevante, es que la
estructura del modulador en tanto causa de ciertas características que aparecen en el efector, no se pueden explicar
ni por la energía de alimentación ni por la forma señal. A partir de este análisis, Simondon (2018) distingue tres tipos
de causas, causa formal (forma-señal) causa energética o causa eficaz (energía de alimentación) y causa estructural o
condicional (estructura interna del modulador). Desde esta óptica, el modulador cumple el rol de comparador de
formas, la amplitud temporal de una forma es su poder de gobernar, su poder modulador (p.53).
cosa, para ser comprendida como la operación de una cosa que llega a un sistema con el
potencial de producir allí una transformación. La información ya no podrá definirse más allá de
éste acto de incidencia transformadora y de la operación de recepción. Esto permitirá romper
con la idea preponderante dentro de los esquemas de comunicación que colocaba al emisor
como aquello que hacía que una estructura sea información. A partir de estas consideraciones es
posible inferir que una estructura puede operar como información por relación a un receptor, sin
haber sido compuesto por un emisor individualizado y organizado. Del mismo modo, se podrá
explicar con cierto grado de precisión porqué algunos fenómenos provenientes del azar pueden
activar un receptor como si se tratara de un emisor manifiesto. Sin embargo, para Simondon
(2015) la teoría de la información necesitaba algunas modificaciones, que le permitieran superar
las limitaciones del esquema neguentrópico de la investigación probabilística, para ser aceptada
en el dominio psicosocial (p.498). Se volverá imprescindible aportar un concepto no
probabilístico de la información que aborde aspectos tales como como la cualidad o la tensión de
información, que no se reduzca a abordar solo los aspectos cuantitativos. Una teoría de la
tensión de información que suponga la apertura a receptores posibles a partir de la capacidad que
tiene un esquema para ser recibido como información por receptores no prederminados. “La
tensión de información sería la capacidad que posee un esquema para estructurar un dominio, de
propagarse a través de él, de ordenarlo” (Simondon, 2015, p. 500).
Sin embargo, aunque la tensión de información aporta una disposición capaz de modular
energías de gran magnitud (germen estructural), se precisa una energía contenida en el medio
(estado metaestable tenso). Desde la perspectiva simondoniana, el receptor de la información es
una realidad que tiene una zona mixta donde interactúa la estructura (energías locales) y los
aportes de la energía incidente. Cuando esta zona entra en relación con los estados metaestables,
le confiere a la información incidente su eficacia, iniciando transformaciones en el receptor que
no se habían producido en forma espontánea por la acción de factores locales.
Para Simondon, el ser técnico solo puede definirse en términos de información y de los
diferentes tipos de energía, como vehículo de una acción que va del hombre al universo y una
información que va del universo al hombre. Instituir esta comunicación en términos de
información y no según su utilización práctica sería la verdadera esencia de la máquina. “La
tecnología cultural deviene un mixto de energética y de teoría de la información” (Simondon,
2015, p. 463). Desde esta perspectiva el ser técnico no tiene verdad, su realidad no solo es
funcional, se define a partir de la información que lo constituye, en el nudo entre su materialidad
(ligado a las leyes de la naturaleza) y su destino (ligado al mundo ético). Aquí radica la riqueza del
técnico difícilmente se pasa por alto. Solamente cuando el objeto técnico se emancipe de su
reducción servil a simple instrumento en manos del hombre, la dominación de aquellos que
controlan la tecnología sobre aquellos que se limitan a tolerarla también llegará a su fin”
(Esposito, 2016, p. 129). Simondon esboza una energética social desplegada en un campo de
tensión donde el azar puede producir un germen estructural capaz de iniciar una transformación
del campo social. “Dicha energética humana se interesa por los potenciales cuya desviación lanza
a la sociedad en un estado metaestable, es según Simondon indispensable para completar el
punto de vista de una morfología social que se interese en las estructuras estables de los grupos
sociales” (Combes, 2017, p.93). Muriel Combes (2017) nos muestra que para Simondon, cuando
hay invención, es una modalidad de la transindividualidad la que se constituye mediante la
realidad preindividual depositada en el objeto técnico inventado. El objeto técnico devendrá
portador de información para otros sujetos, que agenciarán por intermedio del objeto sus
capacidades inventivas y organizadoras con las del inventor (pp. 125-126). La invención de
nuevas modalidades transindividuales de amplificación del obrar es una operación necesaria para
establecer una relación desalienada con los objetos técnicos. Promover tecnologías culturales,
edificadas desde la tecnodiversidad, nos permitirá generar vías de acción alternativas para
contrarrestar los efectos monopólicos del capitalismo digital que proletarizan la vida, erosionan
los saberes y controlan los flujos mercantiles.
6. Conclusiones
En la actualidad las plataformas digitales se han convertido en la infraestructura tecno-social que
el capitalismo utiliza para modular las potencias de organización económica. Dichos modos de
organización capitalista tiene efectos monopólicos que proletarizan la vida, erosionan los saberes
y controlan los flujos mercantiles. Por ello, se hace necesario construir un nuevo andamiaje
conceptual que nos permita desbordar los reduccionismos económicos, técnicos y políticos para
explorar vías acción alternativas a éste modelo de producción. Se presentaron tres versiones del
capitalismo con el fin de aportar algunas reflexiones:
c) En tercer lugar, noción de capitalismo cibernético propuesta por el colectivo Tiqqun, nos
permitió identificar cómo la cibernética le otorgo al capitalismo una nueva infraestructura
de máquinas y una tecnología intelectual que le permitirá regular los flujos de la sociedad
hasta hacerlos mercantiles. Desde la perspectiva de Tiqqun, hacer fracasar este proceso
implicaría generar un cortocircuito para anular el feedback que permite operar los
dispositivos de control. Una cuestión que nos podría conducir a un cierto reduccionismo
político al pensar el sabotaje como única acción posible para desactivar los dispositivos
tecnológicos de explotación del imperio.
Por último, intentamos articular estas tres perspectivas críticas sobre el capitalismo digital en
el proyecto filosófico de una tecnología cultural propuesto por Simondon, con la posibilidad de
ser ampliado al proyecto de Yuk Hui en una cosmotécnica que contemple la tecnodiversidad. A
partir de lo expuesto podemos derivar algunas conclusiones vinculadas a la necesidad de explorar
tecnologías culturales de la información que promuevan vías de acción alternativas a la
administración robotizada de la economía de la información. Estas vías de acción se efectuarán si
asumimos el carácter optativo (técnico o moral) que nos ofrece la epistemología recursiva. Un
vínculo relacional que implica la presencia de un gesto reparador u organizador capaz de
reconstituir los circuitos de transindividuacion erosionados por la industria de servicios.
Orientarse hacia este proyecto nos permitirá explorar vías de acción que conlleven nuevas
modalidades transindividuales capaces de organizar, a través de relaciones no alienantes con las
máquinas, nuevos vínculos entre la técnica, el deseo y los modos de vida. En el proyecto
filosófico de Simondon encontramos un germen estructural, con implicaciones metapolíticas
interesantes, para empezar a pensar esas tecnologías culturales o cosmotécnicas que nos permitan
crear alternativas a las prácticas alienantes de la economía de la información del capitalismo
digital.
Referencias
Bardin, A. (2010) Epistemologia e política in Gilbert Simondon. Individuazione, tecnica e sistemi sociali.
Vicenza: Edizioni Fuoriregistro
Blanco, J. y Berti, A. (2016) No hay hardware sin software: Crítica del dualismo digital. Quadranti.
Rivista internazionale di filosofia contemporanea. 4(1-2), 197-214.
Blanco, J. y Rodríguez, P. (2015). Sobre la fuerza y actualidad de la teoría simondoniana de la
información. En Blanco J., Parente D., Rodríguez P., y Vaccari A. (coords.), Amar a las
máquinas. Cultura y técnica en Gilbert Simondon, (pp.95-120). Buenos Aires: Prometeo.
Blanco, J. (2014) Pensar y Calcular. Nombres. Revista de filosofía. Dossier Técnica, Núm. 28, 1-15
Combes, M. (2017). Simondon. Una filosofía de lo transindividual. Buenos Aires: Cactus.
Esposito, R. (2016) Las personas y las cosas. Buenos Aires: Eudeba y Katz Ediciones
Fumagalli, A., Lucarelli, S., Musolino, E., y Rocchi, G. (2018). El trabajo (labour) digital en la
economía de plataforma: el caso de Facebook. Revista Hipertextos, 6 (9), 12-41.
https://revistas.unlp.edu.ar/hipertextos/article/view/7644
Heredia, J. (2016) La invención de la individuación a la luz de una problemática histórico-
epistemológica. Páginas de Filosofía, Año XVII (20), 59-82.
http://revele.uncoma.edu.ar/htdoc/revele/index.php/filosofia/index
Cómo citar: Bazzara, L. (2021) De embudos, filtros y brújulas: economía, técnica y subjetividad en
Spotify. Revista Hipertextos, 9 (15), 47-82. DOI: https://doi.org/10.24215/23143924e028
Resumen. En el presente trabajo se optará por hacer un análisis en profundidad de Spotify, por tratarse
de la máxima referencia entre las plataformas de streaming musical, hecho que se constata en su masividad
de uso y posición de mercado. Esto no impedirá dar una definición lo suficientemente abarcativa que
remita a las plataformas de streaming musical en general, pero tal definición funcionará como punto de
partida desde el cual se examinará en detalle su caso económica y culturalmente más emblemático. De
esta suerte, y sobre la base de la articulación que opera en Spotify entre economía, técnica y subjetividad,
las preguntas que guiarán el desarrollo del trabajo serán: ¿Cuál es su modelo de negocios, o qué lógica de
mercado pone en juego? ¿Cuál es su modelo subjetivo, o qué tipo de usuario u oyente ideal configura? Y
¿De qué tecnologías computacionales se vale para unir los intereses de las industrias y los usuarios? Como
se verá, términos como freemium, machine learning, sistema de recomendación, perfil y personalización
resultarán claves para desentrañar esta lógica de plataforma.
Abstract. In this paper we will do an in-depth analysis of Spotify, as it is the maximum reference among
music streaming platforms, a fact that can be seen in its massive use and market position. This will not
preclude giving a sufficiently comprehensive definition that refers to music streaming platforms in
general, but such a definition will function as a starting point from which the most emblematic economic
and cultural case will be examined in detail. In this way, and based on the articulation that operates in
Spotify between economics, technique and subjectivity, the questions that will guide the development of
the work will be: What is its business model, or what market logic does it put into play? What is its
subjective model, or what type of ideal user or listener does it configure? And what computing
technologies does it use to "unite the interests of industries and users"? As you will see, terms such as
freemium, machine learning, recommendation system, profile and personalization will be key to
unraveling this platform logic.
Resumo. Neste trabalho opta-se por fazer uma análise aprofundada do Spotify, pois é a referência
máxima entre as plataformas de streaming de música, facto que pode ser visto em seu uso massivo e
posição de mercado. Isso não impede que seja dada uma definição suficientemente abrangente que se
refere às plataformas de streaming de música em geral, mas tal definição funcionará como um ponto de
partida a partir do qual seu caso econômico e cultural mais emblemático será examinado em detalhes.
Dessa forma, e a partir da articulação que opera no Spotify entre economia, técnica e subjetividade, as
questões que nortearão o desenvolvimento do trabalho serão: Qual é o seu modelo de negócio, ou qual
lógica de mercado ele põe em jogo? Qual é o seu modelo subjetivo ou que tipo de usuário ou ouvinte
ideal você configura? E quais tecnologias computacionais ele usa para "unir os interesses de indústrias e
usuários"? Como você verá, termos como freemium, aprendizado de máquina, sistema de recomendação,
perfil e personalização serão fundamentais para desvendar essa lógica de plataforma.
Nuestra escala nos proporciona datos únicos que permiten una experiencia diferenciada y
personalizada. Muchos servicios de música en streaming tienen grandes catálogos, pero creemos que Spotify
se diferencia del resto porque proporcionamos a los usuarios una experiencia más personalizada, impulsada
por potentes motores de búsqueda y descubrimiento de música. Tenemos una amplia y creciente base de
usuarios que están muy comprometidos con Spotify, lo que nos permite aprender continuamente sobre sus
comportamientos auditivos a lo largo del día. Utilizamos esta información para crear una experiencia más
personalizada y atractiva para cada nueva visita a nuestra plataforma. Creemos que esta experiencia
personalizada es una ventaja competitiva clave, ya que los usuarios son más propensos a interactuar con
una plataforma que refleja su estado de ánimo y actividades en tiempo real y captura una comprensión
única de los momentos de su vida. Este profundo conocimiento de nuestros usuarios también nos ayuda a
adaptar el contenido, la publicidad, el marketing y la agrupación de productos de manera efectiva. Nuestro
objetivo es seguir utilizando los datos y nuestros algoritmos patentados para mejorar la experiencia
auditiva, al tiempo que impulsamos el descubrimiento de contenido artístico en nuestra plataforma.
Spotify, por caso, resume años de búsquedas analógicas de música en una base de datos inmensa que
“individualiza” a su consumidor, tanto como ese consumidor se deja “individualizar” por Spotify. Las
comillas tienen su sentido: no se trata de la identificación de un individuo, único e irrepetible, sede de una
singularidad, sino del hecho de que eso que se individualiza es el resultado de las búsquedas estadísticas de
millones de “personas” que permiten saber qué desea “esa” persona porque ese deseo emana de una función
estadística que, cuantos más datos generales tiene, mejor puede identificar sus targets. El hecho fundamental
en todo este proceso es que lo dividual como modo de subjetivación “activo” se realiza en una compleja
interactividad con máquinas que aprenden, modifican su comportamiento y comunican con una precisión
encomiable: máquinas casi humanas. Máquina, epistémicamente hablando.
1. Introducción
En la Declaración de Registro presentada ante la Comisión de Bolsa y Valores de Estados
Unidos, documento público requerido a toda empresa que pretenda comenzar a cotizar en la
Bolsa de Valores de Nueva York, Spotify Technology S.A. (2018) dice especializarse en la
construcción de “un mercado de música de dos lados”: “para usuarios y artistas” (p. 98) 2. De
esos dos lados, en función del propósito del presente trabajo, nos limitaremos y dedicaremos al
análisis del primero: el mercado de música para usuarios. De lo que se trata es de echar luz sobre
las dos puntas del mentado sintagma: el mercado del streaming musical y sus usuarios. Si bien
partiremos de una definición general de las plataformas de streaming musical apuntalada en los
aportes de Eriksson et al. (2019) y Srnicek (2018), ello nos servirá de puntapié para desarrollar un
análisis de Spotify en particular, por tratarse del caso más emblemático desde el punto de vista de
la adopción social y la posición de mercado. De acuerdo con el investigador sueco Patrick
Vonderau (2017), Spotify “se ha convertido en un modelo para otros servicios que utilizan
tecnología digital para transformar la distribución de bienes culturales” (p. 2), pudiéndose
2 Siempre que en la bibliografía se indique una referencia en inglés, querrá decir que el texto citado cuenta con una
traducción propia.
mencionar, por ejemplo, que “entre 2007 y 2013, más de 180 compañías agregaron el sufijo ify a
su marca” (p. 2), siendo de entre ellas quizás Cabify, el servicio de plataforma para el transporte
de personas, el nombre más conocido para nosotros. En este sentido creemos, con Eriksson
(2018), que Spotify “administra” en la actualidad las prácticas de escucha de centenas de millones
de personas –comparativamente más que cualquier otra plataforma– y, al mismo tiempo, que
ejemplifica cómo la tecnología de streaming está altamente capitalizada y opera a escalas masivas
bajo las condiciones contemporáneas de una economía globalizada.
Si bien con esta decisión se opta por resignar el estudio de las especificidades propias de cada
plataforma con sus consiguientes puestas en contacto y contraste, se gana no obstante en el
conocimiento en profundidad y detalle de una evolución en el tiempo, una lógica de
funcionamiento y una dinámica de las relaciones entre subjetividad, técnica y economía que un
análisis comparativo no podría sino marginar. Haremos el recorrido en dos grandes apartados,
atendiendo en el primero de ellos a la conformación del modelo económico, comúnmente
denominado freemium, y que como se verá hace las veces de embudo entre las cuentas gratuitas y
las pagas. En el segundo apartado se atenderá a la configuración del modelo subjetivo, para cuya
comprensión resultará esencial dar cuenta del sistema de recomendación de la plataforma y de
los filtros algorítmicos que utiliza, así como de las asistencias personalizadas que como brújulas
orientativas emanan del sistema de recomendación. Ello nos permitirá desmontar lo que
denominaremos el constructo tecno-económico mediado por las actividades de los sujetos o,
dicho con otras palabras, la triangulación de plataforma entre usuarios, tecnologías
computacionales y mercado.
En Capitalismo de plataformas Nick Srnicek (2018) sostiene que “podemos aprender mucho acerca
de las empresas de tecnología más importantes tomándolas como actores económicos dentro de
un modo capitalista de producción” (p. 10). Ese será el foco del análisis en este apartado. Pero
antes de adentrarnos en ello resultará oportuno precisar una definición de la noción de
plataforma. Si tomamos la definición que ofrece Srnicek, se puede definir a las plataformas de la
siguiente manera:
En el nivel más general, las plataformas son infraestructuras digitales que permiten que dos
o más grupos interactúen. De esta manera, se posicionan como intermediarias que reúnen a
diferentes usuarios: clientes, anunciantes, proveedores de servicios, productores,
distribuidores e incluso objetos físicos. Casi siempre, estas plataformas también vienen con
una serie de herramientas que permiten a los usuarios construir sus propios productos,
servicios y espacios de transacciones (…). Las plataformas, en resumidas cuentas, son un
nuevo tipo de empresa… mucho más que empresas de Internet o empresas de tecnología,
dado que pueden operar en cualquier parte, donde sea que tenga lugar la interacción digital.
(Srnicek, 2018, p. 45, 47)
3 Volveremos sobre el papel de los algoritmos, con profundidad y detalle, en el segundo apartado del presente
artículo. Para lo que aquí interesa nos remitimos a la relación que establece Tiziana Terranova (2017) entre
algoritmos y capital, según la cual aquellos serían, desde la perspectiva de empresa de las plataformas, simplemente
capital fijo, medios de producción optimizados para la obtención de rendimiento económico: “Desde el punto de
vista del capitalismo, los algoritmos son principalmente una forma de ‘capital fijo’, es decir, son simplemente medios
de producción. Codifican una cierta cantidad de saber social (extraída de lo que elaboran matemáticos,
programadores, y también las actividades de los usuarios), pero no son valiosos por sí mismos. En la economía
contemporánea, son valiosos sólo en la medida en que permiten la conversión de tal saber en valor de cambio
(monetización) y su (exponencialmente creciente) acumulación (los titánicos cuasimonopolios de la Internet social)”
(p. 96).
y transforman bienes en servicios”); las plataformas austeras (como Uber o Airbnb, “que intentan
reducir a un mínimo los activos de los que son propietarias y obtener ganancias mediante la
mayor reducción de costos posible”); y están finalmente las plataformas de productos, que
transforman un bien tradicional en un servicio y cobran por ello “un alquiler o una tasa de
suscripción” (p. 50). Vale decir que, más allá de la clasificación analítica, algunos tipos de
plataforma comportan igualmente rasgos característicos de algunas de las otras; así por ejemplo,
Google sería una plataforma publicitaria que obtiene también ingresos posicionándose como
plataforma de la nube (a través de Google Cloud Platform), y que se ha interesado asimismo por
el mercado de las plataformas de productos (al lanzar Google Play Music); o bien las del tipo
streaming musical, caracterizadas como plataformas de productos on-demand que transforman
bienes tradicionales en servicios a cambio de una suscripción, no por ello dejan de extraer
información de los usuarios llevando a cabo un trabajo de análisis para hacer redituables los
productos de ese proceso, y si bien la venta de espacio publicitario no es allí central, juega de
todos modos su papel, como se verá.
De acuerdo con Srnicek (2018), las plataformas de productos son aquellas que, en el universo
cada vez más amplio de la economía digital, están en las mejores condiciones de lograr una
tendencia a cero del costo marginal (entendido como el costo de producir una unidad más de
determinado producto), dado que, al transformar bienes tradicionales en servicios, la distribución
del producto digital por canales virtuales, por caso, tiene un costo igual a cero. Según las palabras
del autor:
Las plataformas de productos son quizás uno de los medios más importantes a través de los
cuales las empresas intentan recuperar la tendencia a cero costos marginales en algunos
bienes. La música es el mejor ejemplo, desde que a fines de los años noventa descargar
música gratis se volvió tan simple como instalar un programa sencillo. Los ingresos de los
sellos discográficos sufrieron una importante caída, dado que los consumidores dejaron de
comprar CDS y otras copias físicas de música. Pero, a pesar de sus muchos obituarios, la
industria de la música revivió en años recientes gracias a plataformas (Spotify, Pandora) que
perciben pagos tanto de quienes escuchan música como de los sellos discográficos y los
anunciantes. Entre 2010 y 2014 los servicios de suscripción vieron aumentar la cantidad de
usuarios de 8 millones a 41 millones, y los ingresos por suscripción ya están preparados para
superar a los ingresos por descargas como la fuente más importante de la música digital.
Luego de caer durante años, la industria de la música se preparó para ver crecer nuevamente
sus ingresos en 2016. (Srnicek, 2018, p. 68-69)
Estas palabras, publicadas originalmente en 2016, fueron corroboradas poco tiempo después,
pues según las cifras que anualmente publica la Federación Internacional de la Industria
Fonográfica (IFPI, según sus siglas en inglés), 2017 fue el año en que por primera vez los
ingresos generados por servicios de streaming musical superaron a los ingresos generados por
ventas físicas y descargas (ver Gráfico N°1).
Estos números, a su vez, se vieron consolidados en los años siguientes, con una ratificación
de ambas tendencias, esto es, alza para aquéllos (servicios de streaming) y baja para éstos (ventas
físicas y descargas), según se observa en el último informe anual elaborado por la IFPI que
incluye las cifras correspondientes a 2020 (ver Gráfico N°2).
Las “cifras del mercado discográfico mundial de 2020”, publicadas en el “Informe Mundial
de la Música 2021 de la IFPI” bajo el título “El estado de la industria”, marcan un crecimiento
del mercado de la música grabada del 7,4% a nivel mundial con relación al año anterior, lo que
sumado a los cinco informes anuales previos redundan en un crecimiento por sexto año
consecutivo. Si se discrimina este número total, la primera gran segmentación la encontramos
entre la comercialización por “venta física” y por “música digital”, representando aquélla el
19,5% de los ingresos globales contra el 67,9% de esta última. La caída de los ingresos por ventas
físicas fue de un 4,7%, a pesar de la suba de un 23,5% en la venta de vinilos, ratificándose la
tendencia alcista de este formato por décimo quinto año consecutivo. Al interior del segmento
“música digital”, los servicios de streaming crecieron un 19,9%, y representan, del total de los
ingresos en la actualidad, un 46% para el caso de las suscripciones pagas y un 16,2% para el caso
de las cuentas con publicidad, lo que significa que del total de la recaudación del mercado de
música grabada más de la mitad (el 62,1%) se obtiene del streaming de audio. En lo que hace a la
otra parte de lo que la IFPI denomina “música digital”, las descargas retrocedieron un 15,7%
respecto del año anterior y pasaron a conformar el 5,8% del total del mercado4. Finalmente, en
cuanto a la segmentación por región, el documento informa que América Latina registró por
4 Vale recordar, por último, los segmentos restantes que hacen al total de los ingresos, que corresponden a lo que se
denomina “derechos de comunicación al público” (es decir “pagos que se recaudan por la utilización de música
grabada en los medios de comunicación y los establecimientos abiertos al público”) y “contratos de sincronización”
(es decir “ingresos generados por la utilización de música en anuncios publicitarios, películas, videojuegos y
televisión”). Estos dos segmentos del mercado tuvieron el primero una caída anual del 10,1%, y el segundo, que
venía de crecer el año anterior, una caída del 9,4% debido a los retrasos en la producción como consecuencia de la
pandemia. Entre ambos representan en la actualidad, respectivamente, el 10,6% y el 2,0% de los ingresos totales.
sexto año consecutivo la tasa de crecimiento más alta a nivel mundial, aumentando en un 15,9%
–algo menos que el 18,9% de crecimiento del año anterior– que se explica fundamentalmente
por fuertes ingresos por streaming que, según se destaca, crecieron un 30,2% en 2020 y llegan a
representar prácticamente tres cuartos del mercado, alcanzando una participación del 84,1%
(IFPI, 2021, pp. 6-7-8).
Las diferencias fundamentales como productos entre un diario gratuito y una película, o
entre una obra musical y un programa televisivo, son tan grandes, que cualquier intento de
considerarlos unitariamente corre el riesgo de errar. La variada naturaleza de los distintos
contenidos de los medios aconseja, por tanto, ser muy cautos a la hora de exponer ideas,
teorías o principios de carácter universal. (p. 01)
Esta cautela, creemos, es igualmente aplicable a las plataformas de streaming musical en tanto
distribuidoras de contenidos, cuyas diferencias no se encontrarían centralmente en sus
respectivos catálogos5, sino más bien en las especificidades relativas al modelo de negocios que
implementan, así como en el tratamiento de los datos que almacenan y en el diseño de sus
interfaces (lo que incluye un modo particular de interpelación y de construcción de un “oyente
ideal”). Por ello, más allá de la definición general que con Srnicek (2018) y Eriksson et al. (2019)
hemos ofrecido, y por más que por momentos se insista en alguna caracterización de corte más
general, haremos foco en Spotify, por tratarse –tanto a nivel local como internacional y a lo largo
de la última década– de la máxima referencia en el sector, hecho que se constata a la vez en la
masividad de uso y en su posición de mercado (ver Gráfico N°3), y que lleva a la empresa a
autodefinirse como “el mayor servicio de suscripción de transmisión [streaming] de música a nivel
5 Con algunas diferencias (entre las que cabe destacar la música de miles de artistas independientes de distintas partes
del mundo que deciden subir sus materiales a uno u otro servicio), las plataformas de streaming ofrecen sin embargo
un catálogo musical similar. Eriksson et al. (2019) sostienen que la razón detrás de este hecho es simple: todas ellas
dependen de un mismo “producto”, es decir, una licencia de distribución por la música ofrecida, y ese producto
puede ser comprado de una única fuente, que no es otra que las grandes compañías discográficas, globales y
cartelizadas: las llamadas Big Three (Universal Music Group, Warner Music Group y Sony Music), dueñas de cerca
del 70% de los ingresos generados por consumo de música grabada. Cabe precisar, por otra parte, que los acuerdos
comerciales de las plataformas con las Majors discográficas, así como con el grupo Merlin (asociación de sellos
discográficos independientes creada para la gestión de sus derechos en medios digitales), responden a una alianza
estratégica pues, de un lado, las plataformas necesitan el catálogo musical de las fonográficas, y del otro, las
fonográficas necesitan espacios de distribución digital para aquellas obras de las que son propietarias y/o de las que
adquieren un porcentaje (de acuerdo al tipo de contrato establecido con cada artista) por las ganancias derivadas de
las reproducciones de escucha y derechos intelectuales. Por último, y en lo que respecta específicamente al caso que
nos ocupa, resulta oportuno mencionar que tanto las Big Three como el grupo Merlin son o han sido propietarias
parciales de Spotify, ya que como parte de los acuerdos comerciales se han hecho de un porcentaje de las acciones
de la empresa a cambio de las licencias de distribución. Así por ejemplo, Universal Music Group tiene actualmente
una participación accionaria aproximada del 3,5% de la compañía con sede en Suecia, mientras Sony Music es
propietaria de cerca del 2,5%; Warner Music Group, por su parte, supo ser propietaria del 1,9%, pero vendió su
participación luego de que Spotify comenzara a cotizar en bolsa en 2018; y lo propio ocurrió con el grupo Merlin,
que en el mismo año y por la misma razón se deshizo de su paquete accionario del 0,5%. Para más información
sobre este último punto se puede consultar el siguiente enlace: https://industriamusical.es/universal-no-esta-
interesada-en-vender-sus-acciones-en-spotify/
global (…), que creemos es casi el doble de la escala de nuestro competidor más cercano, Apple
Music” (Spotify Technology S.A., 2018, p. 97).
Durante el primer trimestre de 2019 Spotify reportó 4 millones de nuevos clientes, lo que le
permitió llegar a 100 millones de suscriptores pagos, poco menos que el 50% de la totalidad de
suscripciones que en ese momento ascendía a unos 217 millones de usuarios activos. Dos años
después, de acuerdo con el informe “Spotify Tecnología S.A. anuncia los Resultados Financieros
Correspondientes al Primer Trimestre de 2021”, las suscripciones siguieron en alza: 158 millones
de usuarios que pagan por el servicio (lo que representa una suba anual del 21%) y 208 millones
de usuarios gratuitos (que en relación con los 163 millones del año anterior representa un
aumento del 27%), que hacen a un total actual de unos 356 millones de usuarios activos 6
(registrando un incremento anual del 24%). Por último, el informe muestra que no sólo el
número de usuarios aumenta, también lo hacen los ingresos: en este caso la suba anual fue de
16%, subiendo de €1.848 a €2.147 millones (discriminado por tipos de cuenta queda claro cómo
los mayores ingresos provienen de las cuentas pagas frente a las gratuitas con publicidad, con
números que ascienden a €1.931 millones para las primeras –lo que representa un 90% de los
ingresos– y a €216 millones para las segundas –que representan un 10% de los ingresos) (Spotify
Investors, 2021).
Estos datos nos hablan de dos temas centrales: por un lado del crecimiento de Spotify (en
número de usuarios y en ingresos) y por otro de su modelo de negocios, conocido como freemium
6 Spotify no publica datos a nivel país, por lo que no nos es posible saber qué porcentaje del total de usuarios
corresponde a suscripciones en Argentina. Sin embargo, sí lo hace a nivel regional, y los datos en este sentido
arrojan que América Latina comprende el 22% del total de los usuarios activos a nivel mundial y el 20% del total de
suscriptores Premium a nivel mundial, según informa la Agencia de Comunicación de la empresa para la región
Cono Sur.
(neologismo que resulta de la combinación de las palabras inglesas “free” y “premium”), es decir,
la oferta simultánea de un servicio básico gratuito y un servicio pago más amplio o avanzado. Si
las plataformas digitales, como adelantábamos más arriba con Srnicek (2018), suponían ya de
manera general la emergencia de un nuevo modelo de negocios frente al estancamiento de la
productividad basada en el intercambio de bienes, entonces aquí la lógica económica de Spotify
se presenta como un rasgo específico al interior de ese modelo, una veta particular, entre otras
posibles en el universo de plataformas, en la búsqueda de crecimiento y rentabilidad. El modelo
freemium, que obtiene sus ingresos a través de la publicidad para los usuarios que no pagan por el
servicio y a través del pago de suscripción para quienes tienen una cuenta con abono, apuesta por
un ingreso masivo de usuarios “free” que una vez en la plataforma puedan ser seducidos a
convertirse en usuarios “premium”. Así lo sintetiza Patrik Wikström (2014) en un estudio sobre
“la industria musical en una era de distribución digital”:
La lógica del modelo de servicio freemium es que los usuarios se sentirán atraídos por el
servicio gratuito, pero que con el uso continuado irán desarrollando cambios de hábitos y un
apego emocional que les harán mucho más fácil plantearse cambiar de servicio. El objetivo
es conseguir que muchos de los usuarios del servicio gratuito acaben suscribiéndose a la
versión avanzada. Para lograr ese objetivo, la versión gratuita debe incluir un montón de
elementos molestos (como, por ejemplo, anuncios) o carecer de algunas funciones clave
(como la posibilidad de usar el servicio en determinados aparatos), que se eliminan o añaden
según los casos en las versiones premium del servicio. El reto para Spotify y otros
servicios freemium es conseguir equilibrar las diferentes versiones de modo que estimulen la
conducta correcta en el consumidor y lo animen a convertirse en suscriptor de pago. Hasta la
fecha, pocos servicios musicales han conseguido semejante proeza. O bien la versión
gratuita era tan buena que no motivaba a los clientes a pasarse a un servicio de mayor
calidad, o bien era tan deficiente que no atraía a nadie. (p. 435)
Para el caso de Spotify este modelo ha supuesto un crecimiento tanto en cantidad de usuarios
totales como en usuarios que han pasado de tener una cuenta gratuita a una paga: mientras hace
seis años sólo uno de cada cuatro era Premium, hoy la proporción ha crecido hasta casi uno de
cada dos. En este sentido, según se puede leer en el Prospectus (el Registro de Declaración de
2018, presentado por la empresa ante la Comisión de Bolsa y Valores de Estados Unidos):
“Nuestro Servicio con Publicidad sirve como un embudo, que genera más del 60% de nuestros
Suscriptores Premium agregados brutos totales desde que comenzamos a rastrear estos datos en
febrero de 2014” (Spotify Technology S.A., 2018, p. 117). Por otra parte: “Nuestro Servicio
Premium brinda a los Suscriptores Premium acceso ilimitado en línea y fuera de línea [online and
offline] de alta calidad a nuestro catálogo” (p. 101). Y luego se agrega: “Además de acceder a
nuestro catálogo en computadoras, tabletas y dispositivos móviles, los usuarios pueden
conectarse a través de altavoces, receptores, televisores, automóviles, consolas de juegos y relojes
inteligentes. El Servicio Premium ofrece una experiencia musical libre de publicidad” (p. 101).
El servicio alternativo sería, en relación con éste, más limitado: acceso sólo en línea a un
catálogo disponible en menor calidad de audio, restringido al uso en un único dispositivo y con
interrupciones publicitarias –las cuales, la mayoría de las veces, publicitan los beneficios que
ofrece el servicio Premium–. Esto se debe –explica Vonderau (2017) – a que la propia Spotify ha
señalado que “los anuncios tienen un doble propósito, generar un flujo de ingresos para la
compañía, pero también incitar a los usuarios con aversión a la publicidad a pagar por Spotify
Premium” (p. 9). Es parte de la lógica estratégica de embudo en un servicio freemium. A modo de
ejemplo, tal como se puede escuchar cada seis o siete canciones en cualquier cuenta gratuita:
“Consigue 30 días de Premium gratis. La música no para. Lo que paran son las publicidades.
Prueba Premium. 30 días gratis”; o bien: “¿Qué es mejor que algo asombroso? Muchas cosas
asombrosas en un solo paquete. Con Spotify Premium obtenés un montón de funciones
increíbles: saltos ilimitados, modo offline, calidad de audio excepcional, conexión con casi
cualquier dispositivo y canciones sin interrupciones. Presioná el banner para obtener más
información”. Asimismo, las publicidades y las ofertas también llegan por la vía del correo
electrónico a quienes tengan una cuenta gratuita: “Es molesto cuando estás concentrado
trabajando o estudiando y un ruido de la cocina te interrumpe, ¿no? Suscribiéndote a Spotify
Premium los anuncios no interrumpen tu música ¡Probalo! Los primeros 3 meses son gratis.
Escuchá lo que importa. Spotify Premium. Música sin anuncios y mucho más”. Una lógica
curiosamente semejante a la que nos enseña Hollywood sobre el proceder de las mafias:
protegerte de ellos mismos.
Por otra parte, Arrese (2004) destaca la importancia de “la gestión de precios” de los
productos culturales mediáticos, cuya finalidad sería la de “cubrir de forma rentable el coste del
producto y ajustarse a las expectativas de valor de los clientes” (p. 12). Existen –sostiene–
“diferentes modalidades de fijación de precios de los medios, y por tanto de generación de
ingresos”, que “se concretan en distintos esquemas que compatibilizan gratuidad y pago –desde
el punto de vista de los consumidores de contenidos–, condicionados por la financiación
proveniente de terceros –fundamentalmente anunciantes y organismos públicos–” (p. 12). El
hecho de que Spotify Argentina haya decidido, en 2018, mantener estable el precio de su servicio
Premium durante los meses de corrida cambiaria y devaluación, disminuyendo así su recaudación
en dólares, es un claro ejemplo de aquello que Arrese sintetiza como una extraordinaria
flexibilidad en la política de precios de los productos culturales mediáticos, dado que sus
características económicas (especialmente su estructura de costos y su intangibilidad), “unidas al
hecho de que todos ellos compiten en una economía de la atención, plantean especiales retos a la
fijación de precios” (2004, p. 12). El precio en este sector es, por tanto, “un elemento de gestión
tremendamente dinámico, volátil, sujeto a infinidad de circunstancias de mercado, y de otro tipo,
independientes del coste del producto” (Arrese, 2004, p. 12). En este sentido, el modelo de
negocios freemium de Spotify podría ver mermar significativamente sus suscripciones de pago
hacia suscripciones gratuitas en una coyuntura de contracción económica, en caso de no
adaptarse oportunamente flexibilizando su precio. Asimismo, también se aplica una lógica de
flexibilidad de precios en su “variedad de planes”, tal como se puede leer en el Prospectus de 2018:
Ofrecemos una variedad de planes de precios de suscripción para nuestro Servicio Premium,
incluido nuestro plan estándar, el Plan familiar y el Plan de estudiantes, para atraer a los
usuarios con diferentes estilos de vida y en diversos grupos demográficos y de edades.
Nuestros precios varían según el plan y se adaptan a cada mercado local para alinearse con el
poder adquisitivo del consumidor, los niveles de costos generales y la disposición a pagar
por un servicio de música. (Spotify Technology S.A., 2018, p. 101)
Tanto la posibilidad de contar con suscripciones gratuitas (usuarios a los que se procurará
seducir vía publicidad interna para pasarse al servicio pago) como el hecho de fijar precios
flexibles (adaptables según demografía, edad o “estilos de vida”) y relativamente bajos, supone
aquella búsqueda empresaria que según Srnicek (2018) se resume en la fórmula “crecimiento
primero, ganancias después” (p. 25). Esa búsqueda primera o primordial de crecimiento en
volumen de usuarios es lo que, se supone, podrá posicionar a la empresa como una marca. Una
vez más es Arrese (2004) quien nos dice que, en mercados “con demandas muy volátiles, cada
vez tiene mayor importancia la creación de marcas fuertes (…), con una identidad consistente”
(p. 15). Una vez consolidada, la empresa devenida marca podría redundar en una tendencia hacia
la monopolización de la oferta. Y en efecto, si bien existen otras empresas-marca que ofrecen un
servicio de streaming musical similar, Spotify se constituye en un mercado oligopólico con poca
competencia y en el que parecería ser el mismo crecimiento de volumen de usuarios el que llama
a más usuarios que redundan en mayor crecimiento. Esto es lo que Srnicek (2018) llama, como
hecho característico de las plataformas digitales, el efecto de red: “mientras más numerosos sean los
usuarios que hacen uso de una plataforma, más valiosa se vuelve esa plataforma para los demás
(…). Más usuarios generan más usuarios, lo que lleva a que las plataformas tengan una tendencia
natural a la monopolización” (p. 46-47). No es de extrañar, de esta suerte, que la marca destaque
como elemento central entre sus “estrategias de crecimiento” el hecho de “mejorar
continuamente nuestra plataforma para retener y hacer crecer nuestra base de usuarios” (Spotify
Technology S.A., 2018, p. 104), puesto que, según afirman: “Nuestro negocio depende de una
marca sólida, y cualquier falla en el mantenimiento, protección y mejora de nuestra marca
afectaría nuestra capacidad de retener o expandir nuestra base de usuarios en el servicio con
publicidad, suscriptores premium y anunciantes” (2018, p. 118).
A comienzos de la segunda década del nuevo siglo José María Álvarez Monzoncillo afirmaba
que:
Las empresas digitales que aparecieron con Internet a mediados de los años noventa no
encuentran modelos de negocio exitosos. Se pueden contar con los dedos de una mano a
nivel internacional. Tienen facturaciones insignificantes en el conjunto del sector. No existe
ningún new media importante en Internet (televisión, periódico, radio) que tenga un modelo
de negocio rentable y asentado. Puede haber alguna fórmula que funcione, pero suele derivar
del negocio tradicional. (Monzoncillo, 2011, p. 153)
Una década después de la publicación de estas líneas, la economía digital continúa ampliando
sus fronteras, al punto de ser cada vez más los sectores que procuran acercarse y adaptarse a la
dinámica de las plataformas. Sin embargo, Spotify se ajusta parcialmente a la definición de
Monzoncillo: si bien no se trata de una empresa digital nacida a mediados de los años noventa
sino surgida una larga década después (creada en 2006 se lanza al mercado en 2008 7), el éxito de
su modelo de negocios aún está por verse, pues, jugando con las palabras de Monzoncillo, se
diría que está asentado pero sin ser rentable. La apuesta por el modelo freemium se deja pensar por
7 Eriksson et al. (2019) explican ese lapso que va de la creación de 2006 a la comercialización desde 2008 como el
período de pasaje desde la ilegalidad a la legalización. En efecto, los autores buscan poner en entredicho el mito de
origen de la plataforma, según el cual la empresa habría nacido con el objetivo de devolver a la industria de la música
al sendero de la legalidad subsanando las prácticas de piratería que la jaqueaban. Contrariamente al discurso del
origen, una y otra vez repetido por las coberturas mediáticas y alimentado por la propia empresa, los autores
muestran que durante aquellos largos y “oscuros” primeros meses Spotify funcionó como un servicio pirata que
distribuía música sin licencia alguna, utilizando para ello The Pirate Bay y otras redes P2P. El lanzamiento de
Spotify, concluyen los autores, “fue no el lanzamiento de un nuevo servicio sino el lanzamiento de un nuevo
esfuerzo por monetizar un servicio ya existente” (p. 65).
aquella otra frase de Monzoncillo (2011), según la cual –decía el autor en 2011– “al día de hoy, la
red y la gratuidad es un tándem imposible de separar” (p. 153). A diez años de su publicación, la
frase de Monzoncillo sigue siendo actual en la medida en que empresas digitales como Spotify se
sostienen en el tiempo y crecen, pero siguen estando lejos de poder asegurar dividendos que la
consoliden a largo plazo. “El gran reto –dice Monzoncillo– es buscar la monetización de los
contenidos en Internet en un entorno que presiona hacia la gratuidad” (p. 155). Y prosigue: “Si
[las empresas] no consiguen modelos mixtos de pago y gratuidad es muy difícil definir nuevos
modelos de negocio en la red” (p. 159). Incluso, como hemos visto, con el modelo mixto
establecido y en crecimiento en términos de posicionamiento de marca y cantidad de usuarios,
los resultados económicos parecen estar lejos de cumplir las expectativas, puesto que, en más de
una década desde que surgió comercialmente en 2008, fue el último trimestre de 2018 el que, por
primera vez en su historia, arrojó un balance de números positivos para la compañía. Y hablamos
de números trimestrales puesto que, tomado en su totalidad, 2018 dio pérdidas netas por €43
millones, 2019 llevó esas pérdidas a €186 millones, y 2020, de acuerdo con los balances
financieros que –desde que comenzó a cotizar en bolsa en 2018– Spotify presenta anualmente en
la Comisión de Bolsa y Valores de Estados Unidos, triplicó los números negativos a €581
millones. Quedará por demostrar si los beneficios netos se repetirán hacia adelante.
Por el momento la estrategia diseñada para tal fin incluye –además de la diversidad de planes
de suscripción y los estímulos a las cuentas gratuitas para atraer nuevos usuarios de pago– reducir
gastos (tarea difícil dado que los gastos fijos tienden a ser altos y el pago ineludible de regalías
por derechos de autor representa el mayor egreso para la compañía); procurar “entrar en nuevas
geografías” desembarcando y operando en nuevos países para escalar en usuarios activos
(actualmente, según se especifica en el sitio web oficial, se encuentra disponible en 177 países
distribuidos por los cinco continentes y se trata de un número que crece año a año); y por último
pero no menos importante, ampliar el mercado de la oferta sonora hacia los podcasts, esto es,
archivos digitales por lo general de audio que se asemejan parcialmente a un programa de radio,
con uno o más locutores que suelen tratar alguna temática en particular, y con una publicación
periódica de los contenidos que pueden ser escuchados –en diferido– en línea o bien
descargados. En efecto, el nombre completo de Spotify en la App Store ahora contiene la
palabra “podcasts” (“Spotify: música y podcasts”) y el buscador de la aplicación invita a
explorarlos, diversificando la oferta de contenidos que ya no será sólo musical:
Nuestra plataforma permite la diseminación de podcasts que cubren una amplia gama de
géneros y temas, incluidos contenido musical, deportes, negocios y finanzas, viajes y cocina,
entre muchos otros. Hubo un total de 348 millones de oyentes de podcasts en todas las
plataformas en todo el mundo a fines de 2016 y el número de oyentes de podcast aumentó a
un estimado de 484 millones en 2017 según Ovum, lo que representa un crecimiento del
39% de un año al otro. Este compromiso presenta una oportunidad significativa para
Spotify, ya que creemos tenemos la capacidad de mejorar la experiencia del usuario del
podcast con un mejor producto centrado en el descubrimiento. (Spotify Technology, 2018,
p. 109)
Esta apuesta explica la compra reciente de dos compañías de plataforma especializadas una en
la producción de podcasts y la otra en la facilitación de herramientas al gran público para su
creación, distribución y publicación: Gimlet Media y Anchor, adquiridas por Spotify en 2019 –
piénsese que, desde el punto de vista económico, si los usuarios utilizan la plataforma ya no sólo
para escuchar música, sino podcasts, los ingresos de la empresa serán los mismos, pero el pago
de regalías por derechos de autor será menor– (Rus, 2020). En el mismo sentido puede
interpretarse la presentación –también en 2019 (y por el momento sólo)– para Estados Unidos,
Australia y Suecia, de una nueva lista de reproducción, “Your Daily Drive” (Tu Viaje Diario):
destinada a la escucha en automóvil y transporte público –aunque no exclusivamente–, se trata
de una combinación de música y podcasts de noticias personalizados que se renuevan más de
una vez por día, y cuya finalidad es ofrecer una alternativa a las estaciones de radio tradicionales
(“con una oferta más robusta, más capacidades a pedido [on-demand] y acceso a listas de
reproducción personalizadas, creemos que Spotify ofrece a los usuarios una alternativa
significativamente mejor a la transmisión [broadcasting] lineal”, se lee en el Prospectus),
posicionándose de esta manera como una plataforma sonora todoterreno. De aquí que, en
adelante, más preciso sería hablar de plataforma de streaming de audio, antes que (sólo) musical.
Esta expansión podría hacer incluso, en el mediano plazo, que la referencia a la plataforma como
“de audio” resulte asimismo insuficiente, como la propia empresa tecnológica se encarga de
explicitar:
La música fue sólo el comienzo (…). Somos una plataforma de audio y hemos comenzado a
expandirnos hacia contenido no-musical como podcasts. Esperamos expandir esta oferta
con el tiempo para incluir otros contenidos que no sean de música, como palabras habladas
y videos intersticiales cortos, [lo que ayudaría a proveer] una capa visual a nuestras ofertas de
contenido [y a] convertir a nuestros oyentes en espectadores de contenido. (Spotify
Technology S.A., 2018, p. 105 y 110)
Esta cita pone de manifiesto, por un lado, que hay razones para pensar que Spotify no sería
exactamente una empresa musical, sino que, más precisamente, y como sostienen Eriksson et al.
(2019), existiría en la intersección de industrias, como la de la música, la publicidad, la tecnología
y las finanzas. Por el otro, hace resonar una vez más la síntesis de la lógica de las plataformas
digitales expresada por Srnicek: “crecimiento primero, ganancias después”. Crecer y diversificarse
para asentarse y posicionarse, en la búsqueda de generar las condiciones para una mayor
concentración del mercado que redunde finalmente en el crecimiento que verdaderamente
importa, el de la tasa de ganancia. Martín Becerra et al. (2013), en un trabajo sobre la
concentración económica de los medios de comunicación, sostienen:
Los medios son instituciones complejas (…). A partir del tipo de mercancía con la que
trabajan –que tiene doble valor, material y simbólico–, componen un actor particular y con
consecuencias especiales a partir de sus acciones (…). Son un sector económico en el que la
oferta define a la demanda y tienen altos costos fijos y bajos costos variables, es decir, que
no hay incremento de los gastos cuando se logra crecimiento de las tasas de ganancia. Por
todo esto, tienden a la concentración, organizan sus actividades con este formato, y van
hacia la concentración en una deriva que puede generar barreras de ingreso a otros actores
en el mercado. (Becerra et al., 2013, p. 107)
Si bien es cierto que los medios a los que se refieren aquí los autores son principalmente la
prensa, la radio y la televisión, y aun cuando sería cuestionable o al menos problemático definir a
las plataformas de streaming musical como medios de comunicación en el sentido que se les ha
dado a estos medios a lo largo del siglo XX, no por ello deja de corroborarse, en el caso de
Spotify, que efectivamente se tiende a una concentración que dificulta el ingreso de otros actores
en el mercado, en la medida en que el robustecimiento de la oferta canaliza la demanda, lo que a
su vez supone un aliciente para ampliar aún más la demanda (como vimos anteriormente, el efecto
de red tiene una tendencia natural a la concentración y a la monopolización). Ahora bien, esta
tendencia a la concentración del mercado de la escucha musical digital no ha producido hasta
aquí una tendencia concomitante en el crecimiento sostenido de las tasas de ganancia. Por el
contrario, la novedad mencionada relativa al saldo positivo en el último trimestre de 2018
demuestra la dificultad de hacer rentable un modelo de negocios que en el ámbito de los bienes
(y servicios) simbólicos se presenta tan consolidado en el presente inmediato como incierto en el
largo plazo. Y aunque Spotify se haya establecido como referencia insigne en el mundo de las
plataformas de streaming musical, una marca fuerte con identidad consistente, por sí misma, no
parece resultar suficiente.
Podría ser, como sugiere Srnicek (2018), que el modelo de “crecimiento primero, ganancias
después” prescribe que tener pérdidas significativas es sólo parte de la estrategia. En tal caso
quedará por demostrar, para la empresa, si será o no económicamente sostenible en el futuro.
Srnicek plantea, para aquellas plataformas que se enfrentan a esta incertidumbre, dos opciones:
“o bien cerrar el negocio o recortar los costos y subir los precios” (p. 110). Resulta difícil pensar,
para casos como el de Spotify que se caracteriza por tener costos fijos altos, que pudiera hacer
recortes significativos; de esta manera, si los balances por venir no consolidaran una continuidad
de la rentabilidad en el tiempo, si la diversificación resultara insuficiente, y si no se decantara por
la vía del cierre del negocio, quedaría esperar entonces una suba de precios en las suscripciones,
algo que, por un lado, llevaría a reforzar las desigualdades en el acceso, y por otro, atentaría
contra aquella flexibilidad en la política de precios de la que hablaba Arrese. En cualquier caso,
quizás haríamos bien en recordar las palabras del músico Thom Yorke, quien dijo en una
oportunidad: “Spotify es la última y desesperada flatulencia de un cadáver” (Ortelli, 2016).
Como sea, todo sucede como si, por encima de la base económica que no estaría aun en
condiciones de sedimentar, la música de plataformas se asentara técnica y socioculturalmente. Es
por ello que ahora, una vez analizada su lógica y dinámica económica, quedaría pendiente la
pregunta por el modelo complementario, ya no el económico, sino el subjetivo: ¿Qué sujeto para
qué escucha? Si las plataformas, como afirma Srnicek (2018), “tienen una arquitectura central
establecida que controla las posibilidades de interacción” (p. 49), y si en su posición de
intermediarias “ganan no sólo acceso a más datos, sino además control y gobierno sobre las
reglas del juego” (p. 48), entonces ¿de qué tipo de control se trata y qué posibilidades de
interacción se habilitan? ¿De qué manera se relaciona esto con los datos que se registran y qué
tratamiento se hace de ellos y para qué? ¿Cuáles serían, finalmente, estas “reglas del juego”, y
cómo se configura qué subjetividad en ellas? Abordaremos estas preguntas en el siguiente
apartado.
de acción de éste están en función de los parámetros que establece aquélla? Si bien todas las
plataformas de streaming musical ofrecen actualmente un contexto de acceso a sus contenidos,
por lo que sería posible, en este sentido, detectar algunos rasgos comunes entre ellas, se trata sin
embargo de una pregunta que cada plataforma responderá individual y distintamente, pues el plus
diferencial de cada una, aquello que se presenta y se promociona como la razón de su singularidad
–y aquello que, presumiblemente, redundará en un mayor atractivo para un mayor crecimiento
para una eventual rentabilidad–, es, precisamente, la particularidad de acuerdo con la cual se
establece una propuesta de navegación y un “hacer cosas con la música” únicos. Por ello,
siguiendo lo dispuesto en el apartado anterior, y por las mismas razones allí esgrimidas,
circunscribiremos el análisis de las características de la plataforma, su tratamiento de los datos y
el “sujeto modelo” que de ello se desprende a Spotify.
Pero más allá de las campañas de promoción, de las declaraciones y declamaciones, ¿en qué
consiste esta política del descubrimiento? (o habría que decir este “negocio” del descubrimiento,
según los términos de la propia empresa: “Spotify es más que un servicio de streaming de música.
Estamos en el negocio del descubrimiento”). ¿Qué es y cómo se vuelve más refinada esta
personalización que reivindican? ¿Qué tipo de tratamiento de los datos se lleva a cabo para dar
con ese plus diferencial que se persigue? Para responder estas preguntas será conveniente analizar el
diseño de su sistema de recomendación, pues en él se condensa en buena medida la
organización, clasificación, selección y jerarquización de aquello que se nos presenta en pantalla.
Para ello, la siguiente cita funciona como un buen punto de partida, pues si bien se muestra
imprecisa en cuanto a los números que revela (se trata de un texto de 2018), la encontramos no
obstante exacta y actualizada en relación a la lógica de funcionamiento que trasunta, sintetizando
de manera perfecta lo que caerá bajo el análisis del presente apartado:
8 Spotify cuenta en la actualidad con más de 2,5 millones de títulos de podcasts. Si bien se encuentra desde fines de
2019 experimentando con un sistema de recomendación algorítmico similar al que implementa para recomendar
canciones –llamado Your Daily Podcasts–, pero adaptando las instrucciones a un tipo de audio diferente, no lo
tomaremos como parte del análisis, por tratarse de una creación reciente limitada a unos pocos países (por el
momento Estados Unidos, Canadá, México, Brasil, Reino Unido, Alemania, Suecia, Australia y Nueva Zelanda) y en
proceso de desarrollo. Para más información sobre el tema se puede visitar el sitio web oficial (donde se explicita,
por ejemplo, cómo funciona el algoritmo de recomendación de podcasts): https://newsroom.spotify.com/2019-11-
19/your-daily-podcasts-playlist-makes-finding-your-next-favorite-show-easier-than-ever/
9 La investigadora noruega Anja Nylund Hagen (2015) sugiere que la sobreabundancia de oferta podría llevar a una
“paradoja de elección”, esto es, que la decisión sobre qué escuchar podría verse afectada por un catálogo percibido
como inabarcable y resultar en una experiencia poco satisfactoria; pero –precisa la autora– no se trata realmente de
un rechazo al fenómeno de la abundancia: cuando la paradoja de elección ocurre, el problema reside en la escasez de
ayuda al momento de tomar la decisión.
10 Así expresa la compañía, en sus propios términos, su interés por la curaduría musical: “antes del lanzamiento en
un nuevo mercado, generalmente optimizamos la experiencia local de Spotify para las preferencias musicales locales.
Un usuario en los Estados Unidos generalmente tiene preferencias muy diferentes que un usuario en México, Japón
o Suecia. Buscamos obtener los derechos sobre el contenido popular local y tener curadores locales donde tenga
sentido (…). Nuestro equipo editorial selecciona cuidadosamente las listas de reproducción que permiten a los
usuarios escuchar música en géneros específicos o que coincidan con sus estados de ánimo” (Spotify Technology,
2018, p. 105).
En 2015, Daniel Ek, CEO y rostro visible de la empresa, había dicho que “la música se está
alejando de los géneros” (Eriksson et al., 2019). ¿Y hacia dónde se dirigía? En Spotify, hacia la
personalización: del momento, adaptando la escucha al contexto y orientándola cual brújula
anímico-afectiva. Un ejemplo de ello fue la presentación de Spotify Running, una función que
utilizaba los sensores del smartphone para detectar el ritmo del corredor y reproducir música a la
misma velocidad. Un año antes, en 2014, Spotify compraba The Echo Nest y volvía a dar un giro
a su sistema de recomendación, inaugurando una nueva zona de exploración y descubrimiento,
con una nueva lista de reproducción como nuevo estandarte: Discover Weekly (“Tu
descubrimiento semanal”), ya no de base social, tampoco curatorial humana, sino algorítmica.
Este nuevo enfoque, que desde entonces se convirtió en un éxito entre los usuarios y en una
característica distintiva de la “experiencia de escucha” ofrecida, habilita y promueve una mayor
comunicación humano-máquina, en el sentido cibernético del término, como se verá a
continuación.
et al., 2019, p. 649). Si la recomendación de una canción, por caso, es escuchada y marcada como
favorita, la máquina algorítmica de la plataforma “interpretará” como un acierto la
recomendación, sirviendo este hecho (o “evento”) como nuevo dato de entrada que servirá de
reforzamiento para orientar la recomendación siguiente; si la canción recomendada, por el
contrario, es escuchada unos pocos segundos y salteada, esto también configurará un nuevo dato
de entrada, que será “evaluado” por el sistema de recomendación para reorientar la
recomendación siguiente, a la manera en que el GPS “recalcula” un nuevo recorrido cuando se
hace caso omiso de sus indicaciones. La posibilidad predictiva del algoritmo, de esta suerte,
estaría en función de los niveles de precisión alcanzados por el sistema de recomendación, lo que
a su vez estaría en función de la cantidad de datos de los que se disponga para su análisis: a
mayor masa de datos producida por la interacción del usuario con la plataforma, mayores las
posibilidades de calibrar las recomendaciones –por efecto de retroalimentación–, lo que a su vez
redunda en una mayor probabilidad de anticipar algorítmicamente sus gustos o preferencias,
cuyo resultado sería la progresiva optimización de la personalización (de la recomendación).
Concretamente, el Machine Learning que habita en el “corazón” de Spotify –según la expresión
utilizada por los propios ingenieros informáticos de la plataforma– se sirve de tres modelos
algorítmicos para la puesta en marcha de su sistema de recomendación: el “modelo basado en
contenido”, el “modelo de filtrado colaborativo” y el “modelo de procesamiento del lenguaje
natural”. De manera general, un modelo basado en contenidos genera recomendaciones
basándose en dos fuentes de información: “las características asociadas a los ítems [canciones,
películas, electrodomésticos, etc.] y los ratings [valoraciones] que los usuarios han dado a dichos
ítems. Recomiendan ítems cuyas características son similares a las de otros ítems que han sido
valorados positivamente en el pasado” (Yepes Vélez et al., 2019, p. 41). Un modelo de filtrado
colaborativo genera recomendaciones usando sólo la información existente de los perfiles de los
diferentes usuarios: “En su forma más simple, recomiendan al usuario activo los ítems que otros
usuarios con gustos similares han valorado de forma positiva en el pasado. La similitud de unos
usuarios con otros es calculada en base a la similitud de los ratings dados por ambos usuarios a
los mismos ítems en el pasado” (Yepes Vélez et al., 2019, p. 41). Dicho con otras palabras, este
modelo algorítmico parte de una premisa simple, según la cual los usuarios que comparten
algunas preferencias también compartirán otras (Lury y Day, 2019). Se llama Procesamiento del
Lenguaje Natural, por último, a la recuperación, procesamiento y análisis computacional que se
hace de la expresión lingüística humana (sea ésta escrita u oral). Suele ser utilizado para rastrear
en la Web la valoración dispersa en forma de opiniones que se tiene de un tema en particular y,
como sugiere Sanjinés Flores (2019), es ampliamente implementado en lo que se denomina
“minería de opiniones” (que es un subproducto de la minería de datos):
foros, etc.) que valoran positivamente esos ítems y otros similares, los cuales serán
“interpretados” como de valor para el usuario y por lo tanto recomendados. Veamos cómo
funcionan estos modelos en la plataforma.
Discover Weekly es hoy la propuesta más desarrollada por Spotify para la personalización
musical. Se trata de una playlist de 30 canciones actualizadas una vez por semana y hecha a medida
para cada usuario de acuerdo a sus gustos plasmados en sus escuchas anteriores. No por
casualidad, decíamos más arriba, la incorporación de esta propuesta se remonta a 2015, año
posterior a la compra de The Echo Nest, una start-up dedicada al almacenamiento y tratamiento
de todo tipo de datos musicales que potenció las capacidades analíticas de la base de datos de la
compañía de origen sueco. En un estudio comparativo sobre el funcionamiento algorítmico en
las plataformas de streaming musical, Robert Prey (2018) destaca la singularidad de The Echo Nest
en el tratamiento de los datos; allí se puede leer, en palabras del cofundador de la empresa, cómo
el programa utilizado para el análisis musical algorítmico funcionaría de la siguiente manera: “El
sistema ingiere y analiza el MP3, tratando de comprender cada pequeño evento de la canción,
como una nota en un solo de guitarra o la manera en que dos notas están conectadas. Una
canción promedio tiene unos dos mil de estos ‘eventos’ para que el sistema analice. Luego hace
conexiones entre esa canción y otra canción con progresiones o estructuras similares” (citado en
Prey, 2018, p. 1090). El programa lleva a cabo clasificaciones y asociaciones basadas en múltiples
factores sonoros tales como la frecuencia, el tempo, la métrica, la tonalidad, el timbre de la voz,
el volumen, el nivel de distorsión, etc.; de aquí que la sugerencia de escucha se establezca a partir
de la detección automática de afinidades entre algunos de estos “eventos” diseminados por el
catálogo de la plataforma y aquellos otros que forman parte de las canciones del gusto del
usuario. Se le llama “modelo basado en contenido” porque clasifica y establece relaciones a partir
del análisis de las propiedades acústicas intrínsecas de cada pista de audio.
Pero hay, para Prey, una segunda característica central en la analítica musical algorítmica de
The Echo Nest: no sólo cuantifica sonidos, también recoge y analiza textos y conversaciones
online sobre música que tienen lugar en blogs, sitios de crítica musical y redes sociales, de todo el
mundo y en cualquier momento. En esta oportunidad se pasa el tamiz por las descripciones y
reseñas online de las canciones y artistas escuchados y se compilan frases y palabras clave que
luego son relacionadas con frases y palabras claves similares de otras canciones y artistas; su
finalidad es, por un lado, la de relacionar una canción a una serie de significados sociales
dispersos por la Web relativos a esa canción, y al mismo tiempo, asociar esa significación a otras
canciones identificadas como similares. Este proceso supone la utilización de lo que, como
adelantamos más arriba, se conoce como Procesamiento del Lenguaje Natural, modelo
algorítmico que facilita el tratamiento automático de la documentación textual destinado al
análisis de la información semántica producida por seres humanos de forma escrita (como en el
caso de The Echo Nest) u oral. De esta manera, si a un usuario le gusta la banda X, y esa banda
es descrita en distintas publicaciones digitales con la adjetivación Y, entonces se le podrán
recomendar canciones de bandas de las que se sepa (es decir, de aquellas cuyos datos semánticos
hayan sido almacenados y analizados) que hayan sido adjetivadas de igual o similar modo en
otras publicaciones digitales; o bien se le podrán recomendar canciones de la banda Z por haber
sido asociada a X en alguna otra publicación.
Debido a la diversidad de procedimientos algorítmicos utilizados para efectuar las sugerencias
se puede decir que el de Spotify es un sistema de recomendación híbrido (Portugal et al., 2018, p.
3; Yepes Vélez et al., 2019, p. 41). Los dos mecanismos de recomendación personalizada
mencionados en el párrafo anterior, utilizados desde la adquisición de The Echo Nest y llamados
respectivamente “modelo basado en contenido” y “modelo de procesamiento del lenguaje
natural”, se complementan con un tercero: el “modelo de filtrado colaborativo” 11. Por distintas
razones tanto el modelo basado en contenido como el de filtrado colaborativo podrían
sintetizarse en la fórmula Si te gustó X también te gustará Y. En el primer caso, como vimos, la Y se
convierte en objeto de recomendación al detectarse similitudes sonoras con la X que fue de mi
escucha y gusto previos. En el caso del modelo de filtrado colaborativo, la X representaría una
canción indicada como favorita, o guardada como parte de la confección de una lista de
reproducción, o escuchada muchas veces, mientras Y sería la recomendación basada en otros
usuarios a los que habiéndoles gustado X también les gustó Y. Dicho con otras palabras: si mis
preferencias musicales se asemejan a las preferencias musicales de otros usuarios, si se supone
que me gusta la canción A, B y C, y a otro usuario le gustan A, B y D, entonces a mí se me
recomendará D, y al otro, C. Una fórmula alternativa que también resumiría este procedimiento
sería: A usuarios como vos les gustaron cosas como éstas. Y en efecto, la plataforma incluye una opción
exploratoria llamada Fans Also Like (“A los admiradores también les gusta”), cuyo procedimiento
algorítmico trabaja tanto con el modelo de filtrado colaborativo como con el modelo de
procesamiento del lenguaje natural, pues de acuerdo con las palabras de Glenn McDonald, el –
así presentado por el sitio Web– “alquimista de datos de Spotify”, se basa principalmente en dos
factores:
El primero es admiradores [fans] compartidos, particularmente entre los artistas que podrían
existir en los márgenes. Cuantos más admiradores tengan en común dos artistas, y cuanto
mayor sea la proporción del total de admiradores de cada artista que representan los
admiradores compartidos, más similares los consideramos. Si una banda aspirante tiene
10,000 admiradores, y 6,000 de ellos también son admiradores de otra banda que también
tiene 10,000 admiradores, es una buena señal de que las dos bandas son probablemente
similares (…). El segundo [factor] involucra descripciones compartidas, usando no solo el
contenido en Spotify sino también en blogs, revistas y en otros lugares donde se discute de
música. Analizamos páginas web sobre música todos los días y combinamos esa información
con varias otras fuentes de descripciones de artistas, y luego buscamos patrones en el
vocabulario descriptivo compartido. Cuanto más específico sea un descriptor, mayor será la
probabilidad de que se produzca una coincidencia entre los artistas que lo comparten. Si dos
artistas se describen con frecuencia como 'pop', eso no es tan interesante, porque muchos
artistas se describen como 'pop'. Si dos artistas son frecuentemente descritos como 'polka
metal', eso es mucho más inusual y, por lo tanto, una señal mucho mejor de que las dos
bandas podrían ser similares. (Spotify for Artists, 2019)
11Lo que no se sabe, más allá de la identificación y descripción del funcionamiento de los tres modelos algorítmicos
de los que se sirve el machine learning de Spotify, es cómo una lista de reproducción es concretamente curada: en qué
proporciones y de acuerdo a qué criterios se recurre a cada uno de los modelos en cada recomendación. Eso es, para
Spotify, un secreto comercial cuidadosamente guardado.
hemos escuchado, y finalmente filtrar aquellas que el algoritmo reconoce como compatibles con
el perfil musical que construye del usuario. El resultado es el descubrimiento semanal de
canciones que no conocemos (al menos, que nunca hemos escuchado en Spotify) y que son para
nosotros (al menos, que se ajustan al perfil musical que nuestros datos interactivos y retroactivos
alimentan). Cabe destacar que para fortalecer las recomendaciones basadas en las escuchas de
otros usuarios Spotify compra, en 2016, Soundwave, una aplicación que funcionaba como red
social con la que ya existía previamente un acuerdo, pues en ella se podía seguir y ser seguido por
otras personas, de las que era posible conocer su historial de canciones escuchadas en Spotify,
indicar en cada caso si gustaban o disgustaban, marcarlas como favoritas y compartirlas con los
propios seguidores de la app o bien a través de Facebook, todo lo cual operaba como datos
algorítmicamente procesados que servían para obtener recomendaciones procedentes de los
cruces de las escuchas propias con las que gustaran de las listas de los usuarios seguidos.
Con posterioridad a la posibilidad del descubrimiento semanal, Spotify incorporó el
“descubrimiento diario” a las listas Made For You (“Especialmente para tí”), cuatro playlists
potencialmente interminables en tanto se van agregando canciones a medida que se continúa
escuchando, una selección automática basada en las últimas escuchas y en el perfil de gusto del
usuario. Your Daily Mix, tal el nombre en inglés de estas listas de reproducción, propone
“escuchar la música que amás sin esfuerzo”, porque si todo descubrimiento consume tiempo y
dedicación, Spotify ofrece eliminar el proceso para dar directamente con el resultado, un
descubrimiento automático que vendría a filtrar, en nuestro beneficio, la trabajosa búsqueda de
todo acontecimiento musical. La misma tesitura discursiva se observa en Releases Radar (“Tu
radar de novedades”), otra oferta de playlist personalizada, esta vez destinada a los nuevos
lanzamientos semanales que se ajustarían a cada perfil musical. Por otra parte, también la función
de radio se personaliza, en la oferta disponible –para cada elección de escucha– de “Ir a radio de
la canción” o “Ir a radio del artista”: “además de nuestras miles de listas de reproducción,
ofrecemos un servicio de transmisión de radio inteligente y sensible, que crece y evoluciona junto
con el gusto y las elecciones de los usuarios” (Spotify Technology, 2018, p. 108), se lee en el
Prospectus. Y concluye: “Nuestra función de radio utiliza algoritmos que toman la canción o el
artista elegido por el usuario para crear una estación de radio en línea” (p. 108). Políticas
algorítmicas de asistencias y delegaciones, exclusivamente para mí.
Pero como buen hijo de su tiempo, Spotify también sabe que las heterogeneidades identitarias
y las exploraciones culturales son parte necesaria de un perfil subjetivo que se precie, por lo que
no conforme con las recomendaciones personalizadas algorítmicamente inferidas como
apropiadas y justas para mi gusto, la plataforma presenta una suerte de lado B, o más
precisamente, “Tu Cara B”, una lista de reproducción para “ampliar tus horizontes musicales”:
Tastebreakers (según su nombre en inglés), una playlist “rompe-gustos” con canciones de géneros y
artistas “que no sueles escuchar y que seguro que te encantan”. Canciones que probablemente
me gusten pero o bien todavía no lo sé o bien lo he olvidado. Y si se trata de contrarrestar el
olvido, Forgotify12 es una aplicación y sitio web desarrollados para seleccionar al azar entre aquellas
millones de canciones que nunca han sido escuchadas en la plataforma, a la vez que una apuesta
exploratoria alternativa13.
12Neologismo formado por la combinación de las palabras forgotten –“olvidado” en inglés– y Spotify.
13“Millones de canciones en Spotify han sido olvidadas. Vamos a darles una nueva vida en nuevos oídos: los tuyos”,
se lee en el sitio web. “Amamos la música. Por eso nos sorprendió tanto saber que millones de canciones de Spotify
se habían reproducido sólo parcialmente o nunca. Una parodia musical, realmente. Así que nos propusimos dar a
Combinamos una interfaz de usuario elegante y sin problemas con nuestras capacidades de
inteligencia artificial y aprendizaje automático para crear una plataforma sofisticada pero fácil
de usar [user-friendly]. Desde el momento en que los usuarios abren la aplicación Spotify, les
servimos una página de inicio personalizada con contenido que refleja nuestra comprensión
de sus gustos musicales, hábitos de escucha pasados, estados de ánimo musicales y
actividades diarias (…). Nuestra capacidad de aprovechar nuestros datos nos permite
conocer a nuestros usuarios. Creemos que entendemos a las personas a través de la música,
su estado de ánimo, mentalidad, actividades y gustos”. (Spotify Technology S.A., 2018, p.
105 y 113)
Así pues, de un lado, se puede percibir aquello que Eriksson et al. (2019) definen como el
deseo aparente de Spotify de automatizar y dejar que las máquinas algorítmicas se hagan cargo
del manejo de la plataforma, hecho apreciable en declaraciones como la precedente, pero
también en la fórmula que se promueve desde el departamento de Machine Learning de la
empresa: “music + math = epic” (música + matemática = épica) (Eriksson et al., 2019), y por
supuesto, en adquisiciones de start-ups dedicadas a la curación algorítmica de contenidos
musicales, como la estadounidense The Echo Nest y la irlandesa Soundwave, a las que se pueden
sumar la inglesa Sonalytic en 2017 (empresa digital dedicada a la detección automática de
características de audio, cuya compra apunta a la profundización del análisis algorítmico de los
“pequeños eventos musicales” detallados más arriba) y la francesa Niland, adquirida también en
2017 (empresa que aplica la inteligencia artificial para una recomendación personalizada basada
en el análisis de canciones cuyas similitudes son clasificadas y segmentadas en géneros). Del otro
lado, en relación a la capacidad de aprovechar los datos para conocer y entender a las personas,
se deja ver cómo la aplicación de la plataforma –es decir su uso mediante dispositivo móvil–
permite el ingreso, almacenamiento y análisis de otra serie de datos complementarios cuya
función es la de contextualizar el comportamiento musical del usuario, de manera que al carácter
híbrido del sistema de recomendación se le suma un filtro más. “Un contexto –dicen Portugal et
al. – es un conjunto de información sobre el estado actual del usuario, como la hora en la
ubicación del usuario (mañana, tarde, noche) o su actividad (inactivo, corriendo, durmiendo)”
(2018, p. 3). La app en el teléfono celular recoge datos de localización geográfica, movimiento y
actividad, momento del día en que se escucha música, señales espacio-temporales que son
procesadas por aquello que desde el campo de los algorithmic studies se ha dado en llamar los
“algoritmos sensibles al contexto” (Pichl, Zangerle y Specht, 2015) y cuya finalidad es la de situar
los comportamientos musicales para dar con una recomendación ajustada al aquí y ahora del
usuario.
estas canciones olvidadas otra forma de llegar a tus orificios auditivos”. Para más información ver:
https://forgotify.com/
sugerencia –es lo que hemos visto a propósito de la hibridez de los procedimientos algorítmicos
en el sistema de recomendación de Spotify–. Este hecho lleva a la investigadora brasileña
Fernanda Bruno a plantear que el perfil “es un conjunto de trazos que no concierne a un
individuo específico, sino que expresa las relaciones entre individuos, siendo más interpersonal
que intrapersonal” (citado en Rodríguez, 2018, p. 20). Su principal objetivo –agrega– “no es
producir un saber sobre un individuo identificable, sino usar un conjunto de informaciones
personales para actuar sobre similares”, en la búsqueda de “la probabilidad de manifestación de
un factor (comportamiento, interés, trazo psicológico) en un cuadro de variables” (2018, p. 20).
Se trata de un enfoque afín al que plantea Rodríguez en la cita que encabeza el presente artículo,
al decir que:
En este sentido se puede entender, por caso, la campaña publicitaria “happy targeting”,
lanzada por Spotify en España en 2019 luego de un acuerdo con Renault, consistente en enviar
un anuncio de promoción de la marca de la empresa de autos sólo en el momento en que la
plataforma capta un estado de ánimo en el usuario que identifica como alegre (por ejemplo si se
encuentra escuchando listas de reproducción como “Hits alegres”, “Canta en la ducha” o
“Despierta y sonríe”). La personalización del anuncio, así entendido, no quiere decir que me será
destinado sólo a mí, sino a usuarios como yo (en este caso, usuarios emocional y contextualmente
contentos, inferidos como tales). Por ello, sintetiza Patrick Vonderau (2017) en la misma línea de
razonamiento que Bruno y Rodríguez, aunque la perfilización algorítmica ciertamente indica “un
cambio de grandes agregados estadísticos hacia objetivos individuales particulares, ese ‘objetivo’
no debe ser equiparado con un ser humano individualizado sino con uno inferido. En lugar de
ser usted, los objetivos son como usted” (p. 10).
Por último, resta por decir que lo dividual es para Deleuze el efecto, en el plano de la
subjetividad, de los cruces emergentes entre las nuevas formas de saber-poder –formas
reticulares y nómades, de un lado, en tanto se materializan en máquinas informáticas y digitales
que se articulan en términos de redificación social y movilidad conectiva; formas lábiles, del otro,
en cuanto tienden a invisibilizarse en flujos de información e instrucciones matemáticas–.
Inspirado en la teoría de la individuación de Gilbert Simondon, pero atendiendo a las
transformaciones socio-tecnológicas de finales del siglo XX, Deleuze (1999) sostiene que no se
trata de concebir a los individuos como sujetos únicos, indivisos y estables en el tiempo, sino que
habrá que pensarlos como subjetividades divisibles14 y reductibles a representaciones de datos en
un proceso continuo de individuación, a las que por lo tanto no se trataría de moldear sino de
modular. Ahora bien, las características y el sentido de esta modulación relativa a los in-dividuos
14 Esta idea de una subjetividad divisible (dividual) guarda su afinidad con la noción de subjetividad distribuida
propuesta por Anahid Kassabian (2013), definida como “una subjetividad no individual, un campo, pero un campo
en el cual el poder se distribuye de manera desigual e impredecible, sobre el cual las diferencias no sólo son posibles
sino requeridas, y a través del cual la información fluye, conduciendo a respuestas afectivas” (p. 25).
perfilizados y las relaciones de poder en las que se inscriben, quedarán en todo caso pendientes de
ser calibradas en un eventual próximo artículo.
Si hemos centrado este trabajo en el análisis de una de las plataformas de streaming musical ello
se debe, como se anunció más arriba, no a la inexistencia de rasgos comunes entre algunas de
ellas –en efecto, podría pensarse en Deezer como una compañía que construye su modelo
económico en base a una estrategia freemium; o en Apple Music, como empresa que, compitiendo
por una cuota de mercado global que le acerque a los ingresos por suscripción de Spotify, ha
desarrollado en el último tiempo una estrategia de recomendación algorítmica que comprende,
entre otras características, una lista de reproducción basada en el propio historial de escucha,
actualizada semanalmente, llamada My New Music Mix y disponible en la sección For You, todo lo
cual permitiría establecer puntos de contacto, así como de contraste, entre sus respectivos
modelos subjetivos–. Pero más allá de la validez de un análisis comparado, que otros han
realizado y habrán de realizar, aquella cautela aconsejada por Arrese (2004) a la hora de
“universalizar” ideas, teorías o principios sobre contenidos mediáticos cuya variada naturaleza los
ponía en riesgo de errar, y que nosotros hicimos extensiva a las plataformas de streaming musical
haciendo foco en Spotify especialmente en cuanto a su forma (de generar ingresos, de captar y
retener suscriptores, de tratar los datos, de construir un sujeto ideal), nos permitió observar en
profundidad y detalle sus estrategias de –según las hemos denominado– embudo, filtro y brújula,
es decir, las propiedades económicas, técnicas y subjetivas (o bien las relaciones entre mercado,
tecnologías computacionales y usuarios, para decirlo con la definición de plataformas digitales de
Eriksson et al.) cuya trama, además de servir de modelo a otras plataformas, constituye una
fisonomía que no es sino uno de los perfiles de nuestro presente.
4. Conclusiones
Más allá del listado que se pueda hacer de las plataformas de streaming musical actualmente
existentes, hay algunos servicios que prevalecen y se terminan imponiendo sobre otros, y no sólo
desde el punto de vista económico, sino también –y quizás fundamentalmente– a nivel
simbólico. Esto es lo que ha sucedido con Spotify, que se ha establecido como plataforma de
streaming musical de referencia a escala global, siendo tanto en la actualidad como a lo largo de la
última década la que más ingresos genera y mejor posición de mercado detenta, la que más
usuarios activos tiene y mayor circulación social ostenta, hechos cuya importancia no reside
únicamente en la ventaja comparativa respecto de las demás plataformas, sino en la posibilidad
de reproducción y perpetuación en el tiempo que esta circunstancia habilita, pues como se ha
detallado a propósito de la noción de “efecto de red”, el crecimiento en volumen de usuarios
puede redundar en mayores ingresos y en un mejor posicionamiento y mayor reconocimiento de
la empresa-marca, lo que a su vez atraería nuevos usuarios, y mientras más numerosos sean los
usuarios de una plataforma, más valiosa se vuelve esa plataformas para los demás (porque más
usuarios generan más usuarios), lo que lleva a reforzar la posición dominante en una espiral con
–según Srnicek– “tendencia natural a la monopolización”. Es por ello que, tomando estos
indicadores como punto de partida, hemos optado por un análisis en profundidad de Spotify, en
lugar de hacer un estudio comparativo entre plataformas. Esto no nos impidió dar una definición
abarcativa que remita a las plataformas de streaming musical en general. Pero la caracterización
general de las plataformas de streaming musical fue el punto de partida sobre cuya base se procuró
examinar en detalle el caso Spotify, a la luz de su mentada singularidad a escala global respecto de
su adopción social y posición dominante de mercado.
Hemos recurrido a Eriksson et al. (2019) y a Srnicek (2018) para construir una definición
general de las plataformas digitales y, a partir de allí, de las plataformas de streaming musical. Si en
primer término aquellos nos decían que las plataformas digitales son “el eslabón perdido entre la
computación y los negocios, un mercado en línea que une los intereses de las industrias y los
usuarios” (p. 12), en segundo lugar Srnicek podía agregar que se trata de un nuevo tipo de
empresa, “mucho más que empresas de Internet o empresas de tecnología, dado que pueden
operar en cualquier parte, donde sea que tenga lugar la interacción digital” (p. 47). Y precisaba, al
interior de esta caracterización, que las plataformas de streaming musical son plataformas de
productos on-demand que transforman bienes tradicionales en servicios a cambio de una
suscripción. Así entendidas, las plataformas de streaming musical serían constructos tecno-
económicos mediados por las actividades de los usuarios, quienes accederían al servicio de
contenidos a pedido por la vía de una suscripción. Funcionarían, asimismo, como el “terreno”
sobre el que tienen lugar esas actividades, convirtiéndose así en el espacio digital privilegiado para
el registro de la totalidad de los datos que emanan de ellas, pues como se dijo, las plataformas
traducen la música y las inter-actividades en datos. Y dada la proliferación en la producción y
circulación de esos datos, tanto en su tratamiento como en la búsqueda de ganancias los
algoritmos desempeñan un papel central. Si bien los distintos tipos de plataformas desarrollan
diferentes modos de tratamiento de esos datos –diferentes modos de extraerlos, analizarlos,
utilizarlos y/o venderlos– y diferentes modos de organizar y perfilar su economía, con la
finalidad de aumentar sus ingresos y obtener una rentabilidad.
Es así que, sobre esta base, el análisis de Spotify consistió en establecer y precisar las
relaciones existentes entre economía, técnica y subjetividad, de cuyos cruces emergerían, según la
caracterización de Eriksson et al., las especificidades de nuestro “eslabón perdido”. Según hemos
podido analizar, cabría sintetizar estas relaciones en lo que hemos denominado la modalidad de
“embudos, filtros y brújulas”: el embudo hace referencia al modelo de negocios de la plataforma,
el filtro remite al modelo del sistema de recomendación basado en el llamado aprendizaje
automático o machine learning, mientras la brújula representa la orientación y personalización para
el usuario basada en la implementación del sistema de recomendación. Si las plataformas digitales
suponen ya la emergencia de un nuevo modelo de negocios frente al estancamiento de la
productividad basada en el intercambio de bienes, la lógica económica de Spotify se presenta
como un rasgo específico al interior de ese modelo, una veta particular en la búsqueda de
crecimiento y rentabilidad.
El modelo conocido como freemium (neologismo que resulta de la combinación de las palabras
inglesas “free” y “premium”), que obtiene sus ingresos a través de la publicidad para los usuarios
que no pagan por el servicio y a través del pago para quienes tienen una cuenta con abono,
apuesta por un ingreso masivo de usuarios “free” que una vez en la plataforma puedan ser
seducidos a convertirse en usuarios “premium”. Hemos visto cómo esta apuesta se inscribía en la
fórmula “crecimiento primero, ganancias después”: crecimiento de usuarios a través de un rápido
acceso a una suscripción gratuita limitada en posibilidades de uso como puerta de entrada a un
servicio de pago con mayores beneficios; crecimiento geográfico a través del desembarco y
operación en nuevos países como modo de escalar en usuarios a nivel global y fortalecer el
nombre de la empresa como una marca; crecimiento en la ampliación y diversificación de la
oferta de contenidos, sumando canciones y artistas al catálogo musical e incorporando podcasts
que hacen de la empresa una plataforma de audio más que una plataforma sólo musical, todo lo
cual constituiría un método que prescribe tener pérdidas significativas como parte de una
estrategia que busca, primero, crecer y diversificarse para asentarse y posicionarse, y como
consecuencia, generar las condiciones para una mayor concentración del mercado que redunde
finalmente en el crecimiento que verdaderamente importa, el de la tasa de ganancia. Ahora bien,
queda por demostrar para la empresa, como hemos visto, si su modelo de negocios se volverá
económicamente sostenible en el largo plazo. Todo indica –según hemos observado en los
balances anuales de la compañía– que su efectiva estrategia de crecimiento, diversificación y
posicionamiento no ha decantado aun en términos de rentabilidad. Pero en la medida del
despliegue actual de la estrategia de captación, retención y crecimiento de su base de usuarios, un
factor central para comprender el lugar que ocupa Spotify entre las plataformas de streaming
musical ha sido –junto con los ya mencionados– el desarrollo de un singular sistema de
recomendación, por medio del cual la plataforma configura una “experiencia de usuario”
distintiva: su plus diferencial.
La “paradoja de elección” que podría suscitarse debido a la sobreabundancia de contenidos es
así resuelta a través de la disposición de una serie de filtros que componen el sistema de
recomendación. Esos filtros, a los que nos hemos referido como los tres modelos algorítmicos
que habitan “en el corazón” de Spotify (el modelo basado en contenido, el modelo de filtrado
colaborativo y el modelo de procesamiento del lenguaje natural), organizan, clasifican,
segmentan, jerarquizan y analizan los datos que en cada interacción en la plataforma el usuario
suministra, para devolverlos a la interfaz gráfica en forma de sugerencias personalizadas de
escucha (“Especialmente para ti”: “Descubrimiento semanal”, “Tu radar de novedades”, “Tu
Daily Mix”, “Tu Cara B”, “Ir a radio de la canción”, “Ir a artista de la canción”, etc.). Estas
sugerencias personalizadas son remitidas al perfil del usuario –creado y retroalimentado
algorítmicamente a partir de la correlación y análisis de los datos almacenados–, con el cual el
sujeto de la escucha entrará en relación. Es decir que a través del perfil, basado en la traza de
movimientos virtuales pasados, se personalizan los contenidos a los que el sujeto tendrá acceso y
se busca anticipar o predecir sus movimientos, gustos e intereses musicales futuros. Es a ese
doble informático al que dimos en llamar, con Deleuze, dividual, es decir, la individuación digital
del sujeto. De este modo, el sistema de recomendación se convierte en la brújula con la que
“navegar en el mar de contenidos” que ofrece la plataforma. Y de allí que habría que pensar a
Spotify, finalmente, menos como un intermediario que conecta individuos con archivos sonoros
y más como un mediador que modifica el sentido de los elementos que se supone debe
transportar.
Referencias
Arcila-Calderón, C., Sánchez-Holgado, P. y Ordóñez González K. (2019). Las plataformas de
entretenimiento on-demand: detrás del Machine Learning de Netflix, HBO y Spotify. En
Romero Rodríguez, L.M. y Rivera Rogel, D.E. (Coords.). La comunicación en el escenario digital.
Actualidad, retos y prospectivas (pp. 645-669). Pearson. http://tec-
comunicacion.unsl.edu.ar/Tecno%20I/2019/Teor%EDas/Documentos/La_comunicacion_
en_el_escenario_digital.pdf
Arrese, A. (2004). Algunas consideraciones sobre la gestión de productos y contenidos de los
medios. Comunicación y sociedad, XVII (2), 9-44.
Becerra, M., Labate, C., Lozano, L., Marino, S. y Mastrini, G. (2013). Abordajes sobre el
concepto de ‘concentración’. En Mastrini, G., Bizberge, A. y de Charras, D. (Eds.). Las
políticas de comunicación en el Siglo XXI. Nuevos y viejos desafíos (pp. 139-174). La Crujía.
Chevalier Naranjo, S. (2021). El steaming, una segunda vida para la industria musical. Statista.
https://es.statista.com/grafico/9156/ingresos-del-mercado-mundial-de-la-musica-grabada/
Chodos, A.T. (2019). What does music mean to Spotify? An essay on musical significance in the
era of digital curation. INSAM: Journal of Contemporary Music, Art and Technology, 1 (2), 36-64.
Deleuze, G. (1999). Posdata sobre las sociedades de control. En Ferrer, Christian (Comp). El
lenguaje libertario. Antología del pensamiento anarquista contemporáneo (pp. 105-110). Altamira.
Eriksson, M. (2018). Unpacking Online Streams. APRJA, 7, (1).
https://doi.org/10.7146/aprja.v7i1.115066
Eriksson, M., Fleischer, R., Johansson, A., Snickars, P. y Vonderau, P. (2019). Spotify Teardown.
Inside the Black Box of Streaming Music. MIT Press.
García, J. (2020). Quién está ganando la guerra del streaming de música. Xataka.
https://www.xataka.com/empresas-y-economia/quien-esta-ganando-guerra-streaming-
musica
IFPI (2021). Global Music Report 2021. State of the Industry. https://www.ifpi.org/wp-
content/uploads/2020/03/GMR2021_STATE_OF_THE_INDUSTRY.pdf
Kassabian, A. (2013). Introduction. Ubiquitous Listening: Affect, Attention and Distributed Subjectivity.
University of California Press.
Lury, C. y Day, S. (2019). Algorithmic Personalization as a mode of individuation. Theory, Culture
and Society, 0 (0), 1-21. https://doi.org/10.1177/0263276418818888
Monzoncillo, J. M. (2011). Las nuevas televisiones: personalización e individualización. La
televisión etiquetada. Nuevas audiencias y nuevos negocios (pp. 83-101). Planeta.
Nylund Hagen, A. (2015). Using Music Streaming Services: Practices, Experiences and the Lifeworld of
Musicking. [Tesis doctoral, Faculty of Humanities, University of Oslo].
https://www.academia.edu/21823524/Using_Music_Streaming_Services_Practices_Experie
nces_and_the_Lifeworld_of_Musicking
Ortelli, M. (2016). Radiohead. La banda del futuro. Página/12.
https://www.pagina12.com.ar/diario/suplementos/radar/9-11510-2016-05-22.html
Pichl, M.; Zangerle, E. y Specht, G. (2015). Towards a context-aware music recommendation
approach: what is hidden in the playlist name? IEEE 15th International Conference on Data
Mining Workshop (pp. 1360-1365). DOI 10.1109/ICDMW.2015.145
Portugal, I., Alencar, P. y Cowan, D. (2018). The use of machine learning algorithms in
recommender systems: A systematic review. arXiv, 4, 1-16.
https://arxiv.org/ftp/arxiv/papers/1511/1511.05263.pdf
Prey, R. (2018). Nothing Personal. Algorithmic individuation on music streaming platforms.
Media, Culture and Society, 40 (7), 1086-1100. Sage Publications.
https://journals.sagepub.com/doi/full/10.1177/0163443717745147
Rodríguez, P. (2019). Las palabras en las cosas. Saber, poder y subjetivación entre algoritmos y biomoléculas.
Cactus.
Rodríguez, P. (2018). Gubernamentalidad algorítmica. Sobre las formas de subjetivación en la
sociedad de los metadatos. Revista Barda, 4, (6), 14-35.
https://www.cefc.org.ar/assets/files/rodriguez.pdf
Rus, C. (2020). Spotify va a por todas con el podcast: compra Gimlet Media, una de las principales redes de
podcast a nivel mundial. Xataka. https://www.xataka.com/servicios/spotify-va-a-todas-podcast-
compra-gimlet-media-principales-redes-podcasts-a-nivel-mundial
Sanjinés Flores, D.E. (2019). Sistema para la Minería de Opiniones. Avances en Informática y
Automática. Duodécimo Workshop (pp. 97-109). https://gredos.usal.es/handle/10366/139439
Spotify for Artists (2019). How ‘Fans Also Like’ Works. https://artists.spotify.com/blog/how-
fans-also-like-works
Spotify Investors (2021). Press Release Details: Spotify Technology S.A. Announces Financial Results for
First Quarter 2021. https://investors.spotify.com/financials/press-release-
details/2021/Spotify-Technology-S.A.-Announces-Financial-Results-for-First-Quarter-
2021/default.aspx
Spotify Labs (2020). For Your Ears Only: Personalizing Spotify Home With Machine Learning.
https://labs.spotify.com/2020/01/16/for-your-ears-only-personalizing-spotify-home-with-
machine-learning/
Spotify Technology S.A. (2018). Prospectus. Form F-1 Registration Statement. United States Securities and
Exchange Comission.
https://www.sec.gov/Archives/edgar/data/1639920/000119312518063434/d494294df1.ht
m
Srnicek, N. (2018). Capitalismo de plataformas. Caja Negra.
Sweney, M. (2018). Slipping discs: music streaming revenues of $6.6bn surpass CD sales. The Guardian.
https://www.theguardian.com/technology/2018/apr/24/music-streaming-revenues-
overtake-cds-to-hit-66bn
Terranova, T. (2017). “Red Stack Attack! Algoritmos, capital y la automatización del común”.
Avanessian, A. y Reis, M. (Comps.). Aceleracionismo. Estrategias para una transición hacia el
postcapitalismo. Caja Negra.
Vonderau, P. (2017). The Spotify Effect: Digital Distribution and Financial Growth. Television and
New Media, 20, (1), 1-17.
https://www.academia.edu/35208651/The_Spotify_Effect_Digital_Distribution_and_Finan
cial_Growth
Wang, A. (2019). ‘Spotify Teardown’ Is The Book Spotify Didn’t Want Published. Rolling Stone.
https://www.rollingstone.com/pro/features/spotify-teardown-book-streaming-music-
790174/
Wikström, P. (2014). La industria musical en una era de distribución digital. C@MBIO. 19 ensayos
fundamentales sobre cómo internet está cambiando nuestras vidas. BBVA Open Mind.
https://www.bbvaopenmind.com/libros/cambio-19-ensayos-fundamentales-sobre-como-
internet-esta-cambiando-nuestras-vidas/
Yepes Vélez, A., López Batista V. y Moreno, M. (2019). Sistema de Recomendación de música
Sensible al Contexto. Avances en Informática y Automática. Duodécimo Workshop (pp. 40-64).
https://gredos.usal.es/handle/10366/139439
Cómo citar: Gómez-Barrera, J. C. (2021) ¿Cómo estudiar Facebook? El contagio emocional y las
formaciones discursivas. Revista Hipertextos, 9 (15), 83-99. DOI: https://doi.org/10.24215/23143924e029
Resumen. Dado que las redes sociales digitales son un fenómeno relativamente nuevo y, sobre todo,
cambiante, su abordaje requiere de la constante producción de herramientas metodológicas y analíticas.
En esa dirección, el presente artículo muestra cómo se puede utilizar la noción teórico-metodológica de
las formaciones discursivas para analizar las redes sociales, en este caso, un modo en el que opera
Facebook. Esta noción, relativa a la arqueología del saber, permite entender a las redes sociales como
resultados de convergencias discursivas y enunciativas. Este aporte teórico-metodológico está
ejemplificado con el caso del contagio emocional y su convergencia con Facebook.
Palabras clave: Facebook, formaciones discursivas, arqueología del saber, redes sociales, contagio
emocional.
Abstract. Due to the fact it is a relatively new and rapidly changing phenomenon, it is necessary to
produce methodological tools and ways of understanding social networks. In consequence, this article
shows how we can use the theoretical-methodological notion of discursive formations to analyze social
discourses, in this case, a mode in how Facebook works. This notion, related to the archeology of the
knowledge, allows us to understand social discourse because of discursive and statements. This
theoretical-methodological support is exemplified in the case of emotional contact and its convergence
with Facebook.
Key Words: Facebook, discursive formations, emotional contagion, arqueology of knowledge, social
networks.
Resumo. Por se tratar de um fenômeno relativamente novo e em rápida mutação, é necessário producir
ferramentas metodológicas e formas de entender as redes sociais. Nesse sentido, este artigo mostra
como a noção teórico-metodológica de formações discursivas pode ser utilizada para analisar as redes
sociais, no caso, um modo de atuação do Facebook. Essa noção, relacionada à arqueologia do saber,
permite compreender as redes sociais como resultados de convergências discursivas e enunciativas. Essa
contribuição teórico-metodológica é exemplificada pelo caso do contágio emocional e sua convergência
com o Facebook.
1. Introducción
En 2016, se llevó a cabo en Colombia un plebiscito que buscaba refrendar y aprobar los
acuerdos de paz entre el Gobierno y la guerrilla de las Fuerzas Armadas Revolucionarias de
Colombia (Farc-EP). La condición para que dicho plebiscito fuera aprobado era que debía votar
mínimo un 13 % del censo electoral y superar los votos por el “No”. A pesar de que la guerra
entre estos dos actores se extendía más de 50 años, y que sus consecuencias eran devastadoras,
los votantes eligieron el “No”. Algunas de las primeras investigaciones sobre el tema señalaban
que una de las razones para esta sorpresiva votación tenía que ver con la dificultad en la
comprensión de los acuerdos: tanto de la complejidad de lo que significaban, como de la
redacción de los textos (Correa, García-Chitiva y García-Vargas, 2018). Sin embargo, meses
después de las elecciones se conocieron algunas de las estrategias usadas en las campañas de los
sectores opositores a los acuerdos. Entre las más relevantes, se encontraron estrategias masivas
por medios de comunicación tradicionales, como la radio y la prensa, así como el
aprovechamiento y circulación de noticias falsas por Facebook.
Uno de los actores que más relevancia tuvo en la campaña por el “No” fue el asesor político
Juan Carlos Vélez. De sus declaraciones (El espectador, 2016) se desprende que, la campaña no
se basó en discutir el contenido puntual de los acuerdos o en proponer modificaciones sobre los
puntos que allí se contemplaban. Por el contrario, la estrategia en contra de los acuerdos se basó
en producir y contagiar una indignación generalizada en contra de lo que se jugaba en los
acuerdos, en producir un sentimiento de rechazo o un modo de percibir que lo que el Gobierno
negociaba era inconveniente. Así, Vélez declaró a un medio de comunicación que se había
apelado a “la indignación, queríamos que la gente saliera a votar berraca [brava]”. En esa medida,
a través de publicaciones y un inmenso aparato publicitario, buscaron generar y propagar una
sensación sobre lo que se jugaba en los acuerdos: desde la pérdida de libertad, entrega del país al
comunismo hasta la imposición de la homosexualidad. Gran parte de la campaña se jugó en
redes sociales y, más aún, por Facebook: allí circularon memes, audios, noticias falsas y todo un
arsenal de contenidos que desvirtuaban los acuerdos2. Podemos plantear que la estrategia resultó
efectiva, toda vez que la propaganda generó un malestar con los acuerdos pactados que llevó a
que el “No” ganara con 50.21 % de los votos; en resumidas cuentas, pudieron contagiar
masivamente a usuarios de Facebook con una emoción y sensación de rechazo sobre los
Acuerdos de Paz.
Este caso colombiano es apenas uno de los que se podría encontrar en la vida política,
religiosa, económica y social, cada vez más atravesada por Facebook, en diversos contextos.
Contagio de ideas políticas, en contra de los planes de vacunación de la COVID-19, contenidos
catalogados como de conspiración, riesgos del comunismo en Latinoamérica, etc. parecen estar a
la orden del día. La cuestión, bajo ese hecho y para el presente artículo, suscita las preguntas:
lejos de ser una postura que privilegie la neutralidad de la plataforma, ¿cómo ha podido
Facebook constituirse de tal manera que permite que este tipo de contagios se consoliden no
2 Del registro que se cuenta, pueden encontrarse páginas de Facebook dedicadas a generar memes en contra de los
acuerdos (ver https://www.facebook.com/Voto-NO-al-plebiscito-de-Santos-546777902190989/potos o ver
https://www.facebook.com/search/top?q=No%20al%20plebiscito). En todas estas campañas se propusieron figuras como la
de la familia, la unidad y la patria, las cuales se verían desvirtuadas si se firmaba el Acuerdo de Paz. Al momento de
escribir este artículo, encontré más de 100 páginas, cada una con más de 2000 memes y publicaciones en contra de
los acuerdos; es decir, todo un arsenal de contenido.
solo como aspectos marginales, sino en prácticas regulares y ya casi establecidas de su modo de
operación?, ¿qué tipo de saberes, discursos, herramientas teóricas y metodológicas ha utilizado
que permiten diseñar herramientas y formas de propagación? y, en última instancia, ¿cómo ha
llegado a constituirse en lo que es, es decir, sobre qué tipo de prácticas y saberes se ha apoyado la
red social para poder consolidar y concretizar esos modos de funcionamiento?
Para tratar de comprender la génesis de esas prácticas y modos de funcionamiento de las
redes sociales, en otras palabras, su concretización3, sugiero que se lea este tipo de fenómenos a
la luz de la herramienta teórico-metodológica de las formaciones discursivas. A grandes rasgos,
esta noción alude a la constitución (múltiple) de discursos en una época o sobre un saber
puntual, de conocimientos específicos que producen un objeto de estudio y, a la par, determinan
relaciones de este conocimiento con prácticas regulares externas al conocimiento puntual. Por
tanto, quiero plantear que las formaciones discursivas permiten comprender que fenómenos de
la vida digital, como las redes sociales, tienen un anclaje en discursos, saberes, conocimientos, en
fin, en todo un campo de saber que las determina y permite su desarrollo; es decir, esta
herramienta teórico-metodológica permite entender modos en los que las redes sociales se han
constituido o, si se quiere, se han concretizado. De hecho, esta noción nos permite comprender
cómo el contagio emocional en Facebook es el resultado, entre otros factores y convergencias,
de una puesta en marcha de nociones, teorías, en fin, discursos que convergieron en el sistema
técnico que estaba desarrollándose.
Esta apuesta metodológica, lejos de buscar ser totalizante, procura ser una herramienta de
análisis y comprensión de las redes sociales digitales. Así, las formaciones discursivas pueden
considerarse como una de las tantas apuestas teóricas por definir, delimitar, abordar y trabajar
fenómenos propios de lo digital. Para ello, ejemplifico su uso a través de la noción de contagio
emocional, ya que su constitución y uso en la red social Facebook sugiere que hay una
regularidad de sus hallazgos y métodos que generan un dominio de interdependencia entre los
enunciados que constituyen una formación discursiva y un campo de saber. En otras palabras, con la
intención de ejemplificar la apuesta metodológica, muestro cómo la noción de contagio
emocional, constituido como un saber, sirvió de base experimental para que Facebook pudiera
adoptar mecanismos, objetivos, planes, métodos de irrigación de emociones entre sus usuarios.
Por tanto, analizo cómo la concretización de lo que hoy es Facebook se ha logrado a través de la
existencia y convergencia de un terreno discursivo que le brindó a la red social herramientas,
métodos y nociones que posibilitaron transformar e implementar nuevas funciones en su diseño.
Utilizo el contagio emocional como ejemplo para aplicar las formaciones discursivas a un
análisis sobre Facebook, porque sobre este concepto se puede rastrear toda una producción
científica que intentó no solo desarrollarse como un campo de conocimiento (con sus propias
características), sino buscar sistemas y métodos de aplicación. De hecho, uno de los desarrollos
más avanzados que tuvo este campo de saber fue la posibilidad de generar mecanismos de
contagio en Facebook. Por tanto, este campo tuvo una convergencia con una práctica específica,
a través de mecanismos que permiten transmitir emociones e irrigar comportamientos, modos de
percibir, sensaciones sobre fenómenos u objetivos específicos. En esa medida, por ejemplo, no
3 Esta noción es más relativa a la filosofía de la técnica; para este caso, la uso en el sentido dado por Gilbert
Simondon (2008). A grandes rasgos, la concretización alude a la evolución, de acuerdo con unas pautas internas de
tipo funcional, estructural y energética, de un objeto técnico. Esto implica que, para estudiar un objeto técnico, se
deben analizar la conformación de sus partes internas, de sus propios procesos que permitieron la funcionalidad y
puesta en marcha de ese objeto técnico.
resulta para nada extraño que este tipo de mecanismos sigan siendo utilizados en materia política
o electoral. De hecho, la tendencia de esos estudios ha desembocado en el análisis del contagio
de emociones sobre candidatos o políticas específicas, como el caso colombiano del plebiscito
para la Paz. Sin embargo, para el presente caso, me quiero centrar en la posibilidad de observar
cómo el desarrollo del concepto de contagio emocional estuvo guiado por encontrar
mecanismos y herramientas de aplicación: es decir, en poder encontrar modos en lo que se
pudieran producir contagios emocionales y, justamente, esto hizo parte de la concretización de
Facebook.
Para cumplir con lo planteado, en una primera parte señalo algunos puntos teóricos
desarrollados por Foucault sobre las formaciones discursivas que, a la luz del caso mostrado,
permiten formular ciertos rasgos de cómo se ha venido constituyendo Facebook. En un segundo
momento muestro cómo la noción de contagio emocional fue un campo discursivo que se
desplegó por fuera de Facebook y, en un tercer apartado, indico cómo a partir de un caso
puntual, la noción de contagio emocional confluyó con la red social digital y propició todo un
campo de prácticas posteriores que se le han dado a la red social, es decir, que constituyeron su
desarrollo.
4 Foucault (2011) proporciona una amplia definición de episteme. La que me interesa en este punto versa así: “La
episteme no es una forma de conocimiento o un tipo de racionalidad que, atravesando las ciencias más diversas,
manifiesta la unidad soberana de un sujeto, de un espíritu o de una época; es el conjunto de las relaciones que se
pueden descubrir, para una época dada, entre las ciencias cuando se las analiza en el nivel de las regularidades
discursivas” (249).
Sin embargo, más que delimitar cómo se constituye un objeto de estudio, me resultan
interesantes las características que demarcan la existencia de un objeto específico de
conocimiento. Es decir, de acuerdo con los rasgos que plantea Foucault (2011), no me centraré
en cómo aparece un objeto de estudio, sino simplemente en evidenciar su existencia a través de
las características que demarcarían su presencia en un dominio particular. Por tanto, para el
presente caso, bastará con señalar la presencia, lograda o incompleta, de una superficie de
emergencia de la noción de contagio emocional. Así, resalto el emplazamiento enunciativo donde
surgen objetos de un conocimiento, que luego es reasignado, desplazado, puesto en práctica por
otros registros o instituciones, como sucede en Facebook. Subrayo, así, cómo el contagio
emocional, como un conocimiento específico, es reasignado y puesto en marcha por la red social.
Las características que para Foucault (2011) representan la existencia de las formaciones
discursivas (esto es, los rasgos que permitirían delimitar la existencia del contagio emocional
como un conocimiento) están dadas por cuatro hipótesis. La primera tiene que ver con el hecho
de que enunciados diferentes, incluso inscriptos en tiempos y lugares distintos, van conformando
un objeto específico de conocimiento. Por tanto, se dan secuencias, ordenaciones en una
multiplicidad de discursos sobre un solo objeto que determinan un “conjunto de enunciados” (p.
48). Lo interesante acá es que, para Foucault (2011), este conjunto determina la aparición de un
objeto que se va manifestando en diversas inscripciones, en saberes y prácticas:
[…] será el juego de las reglas que hacen posible durante un periodo determinado la
aparición de objetos, objetos recortados por medidas de discriminación y de represión,
objetos que se diferencian en la práctica cotidiana, en la jurisprudencia, en la casuística
religiosa, en el diagnóstico de los médicos, objetos que se manifiestan en descripciones
patológicas, objetos que están como cercados por códigos o recetas de medicación, de
tratamiento, de cuidados (p. 48).
Para el presente caso, sería necesario mostrar la existencia de una serie de herramientas, de un
conjunto de formas de referir y de enunciar elementos relacionados con el contagio emocional,
que puede entenderse también como un “determinado carácter constante de enunciación” (p.
49). Este carácter, como lo mostraré, se da particularmente por la existencia de una serie de
herramientas particulares que provienen, en especial, de la medicina y de allí saltaron a la
psicometría o sistemas de evaluación.
La tercera hipótesis que plantea Foucault (2011) tiene que ver con ciertos conceptos
permanentes que están en el trasfondo de una formación discursiva y que empiezan a darle
forma a ese campo de conocimiento. La constitución de estos conceptos se da en ciertas
estructuras, en grupos ordenados, aunque también puede darse a través de incoherencias. En esa
medida, es necesario considerar las incompatibilidades conceptuales y no tanto una arquitectura
sólida que contiene una armazón teórica. En esa instancia, surge un campo de análisis enfocado
en las regularidades, en los estratos y dispersiones en las que aparecen las nociones que delimitan
esa formación discursiva:
Sino del lado de su emergencia simultánea o sucesiva, de desviación, de la distancia que los
separa y eventualmente de su incompatibilidad. No se buscaría ya entonces una arquitectura
de conceptos lo bastante generales y abstractos para significar todos los demás e
introducirlos en el mismo edificio deductivo; se probaría analizar el juego de sus apariciones
y de su dispersión (p. 51).
De esta manera, es necesario mostrar cómo el contagio emocional surge como resultado de
un entrecruce de diversas teorías, nociones, conceptualizaciones particulares y diversas, algunas
veces dispersas y exteriores, que van definiendo ese campo específico donde se inscribe. Tal
como se mostrará, este campo se alimentará, en especial, de teorías relacionadas con la
inmunología médica.
La última hipótesis de Foucault (2011) tiene que ver la persistencia de ciertos temas que
provocan y motivan la constitución de enunciados. No quiere decir esto que siempre se presente
un continuum temático y sobre el cual se formula una unidad discursiva. Por el contrario, se deben
considerar las dispersiones y las irregularidades en los temas, por fuera de una supuesta
unificación, que dan forma a esas discursividades. Por tanto, se deben considerar los debates, las
críticas, las disyuntivas que constituyen y están alrededor de ciertos temas, en fin, las “cadenas de
inferencia” (p. 55):
Más que pensar en la permanencia de los temas, de las imágenes y de las opiniones a través
del tiempo, más que trazar la dialéctica de sus conflictos para individualizar unos conjuntos
enunciativos, ¿no se podría marcar más bien la dispersión de los puntos de elección y definir
más allá de toda opción, de toda preferencia temática, un campo de posibilidades
estratégicas? (p. 54).
Esta persistencia de los temas que motiva la constitución de un conjunto de enunciados debe
entenderse también como una temática que articula diversos juegos de conceptos, o que podría
articularlos. En esa medida, buscaré observar ciertos temas y conceptos, como el de contagio
emocional, que delimitan y articulan un objeto de estudio.
En síntesis, una formación discursiva se observa cuando se dan al menos cuatro condiciones:
la existencia de un objeto de conocimiento común en diversos registros (temporales y
discursivos), una estilística frecuente en esos registros y conceptos permanentes o un continuum
temático. Ahora bien, el estudio de las formaciones discursivas más que permitir comprender un
campo específico de conocimiento, da luz sobre las formas en las que este se puede desarrollar y
constituir en la base de formaciones no discursivas, como denomina Foucault al campo del
poder en La arqueología del saber. En el caso que quiero mostrar, las formaciones discursivas
permiten comprender cómo se determina un campo de saber específico que va dando forma a
una serie de nociones, temas y prácticas articuladas al contagio emocional que, en determinado
momento, convergen con el diseño y funcionalidad de Facebook, es decir, con prácticas no
discursivas. A su vez, permite comprender cómo se determina una serie de temas y nociones que
empiezan a circular y que van configurando unos conceptos particulares que permiten, luego, dar
vida a una serie de prácticas visibles, como la referenciada en el caso del plebiscito por la paz en
Colombia.
efectúa de manera casi instantánea, de manera que las personas son capaces de adaptar
automáticamente gestos de con quien estén conversando.
La segunda forma en la que se presenta el contagio es a través de un feedback. Según Hatfield,
Cacioppo y Rapson (1993), la experiencia emocional subjetiva es afectada por la activación y
gestos del rostro, de la voz, de la postura y la imitación de movimiento. La experiencia emocional
afecta sistemas nerviosos y, luego, genera un feedback en relación con esos gestos o aspectos
imitados. La intención de este procedimiento es, indican, producir percepciones sobre uno
mismo. Las investigaciones realizadas demuestran la idea de que el feedback es una de las
experiencias más importantes en la sincronía de las emociones y afecta la inducción y adopción
de expresiones faciales. Es decir, cuando se producen gestos para manifestar desagrado, siempre
se están afinando en búsqueda de una mejor expresión, bien sea adoptando otras efectivas o
compendiando varias. La tercera forma en la que se expresa el contagio es a través de la
captación o adopción de las emociones de otros. Como complemento, indican que esto no solo
ha sido una cuestión de humanos, sino que se ha evidenciado en otras especies, como animales.
El de Hatfield, Cacioppo y Rapson (1993) no fue el único estudio en torno al contagio de las
emociones. Ya otros trabajos, como los de Zajonc (1985), estaban apuntando al hecho de que
ciertas expresiones y gestualidades eran fácilmente adquiridas por terceros. Solo para señalar
algunos de estos estudios, se pueden encontrar el de Surakka y Hietanen (1998) sobre las
reacciones; el de Papa y Bonanno (2008), sobre la posibilidad de afectar y contagiar la risa en los
otros, y el de Laurenceau y Bolger (2005), sobre cómo dentro de relaciones intrafamiliares se
empiezan a compartir prácticas y gestos similares. En esa misma línea argumentativa, el terreno
más fértil que se mostró para entender estos fenómenos de contagio fue el de las redes sociales,
entendidas como la estructura social compuesta por individuos y las relaciones entre ellos
(Newman, 2003). De hecho, algunos estudios pioneros sobre el tipo de comportamientos que
tenían los individuos en las redes sociales y que podían homogeneizarse son los de Nowak (2005)
y Kossinets y Watts (2006).
Lo interesante de todas estas investigaciones, que surgen a partir de la década de 1990, es que
muestran la persistencia de ciertos temas, de ciertas nociones que van recorriendo, explorando e
impulsando la aparición del contagio emocional como objeto particular de estudio. Así, nociones
como contagio, cercanía, imitación, irrigación, adopción de posturas, sincronía, prácticas,
regularidades, etc., van apareciendo en toda la literatura que surge sobre este tema y, más aún, se
van convirtiendo en temas centrales e ineludibles para comprender y estudiar el contagio
emocional. Si bien para Foucault (2011) esa constitución de temas no necesariamente se da a
partir de un continuum de temas, sino que se puede dar en una dispersión (puesto que algunas
nociones, como se vio, fueron retomadas de Adam Smith), en el caso particular del contagio
emocional encontramos una unidad discursiva regular, o si se quiere, una permanencia de estos
temas que señalan una preferencia temática. Por tanto, en los estudios referenciados hasta acá se
plantearon algunos puntos temáticos que fueron recorriendo y dando forma al estudio sobre el
contagio emocional. Una muestra de ello es que muchos de estos estudios se citan unos a otros.
Sin embargo, el estudio más relevante que se dio a principios del siglo XXI sobre cómo las
emociones se podían contagiar en una red social fue realizado por el sociólogo Nicholas
Christakis y el politólogo James Fowler. Ambos habían estudiado temas relacionados sobre
cómo se pueden esparcir nociones o estados relacionadas con la salud. Así, en un estudio del
2007, analizaron cómo la obesidad podía contagiarse, señalando que uno de los factores que
debían considerarse para determinar su aparición eran las personas que rodean a un paciente
obeso, su comunidad cercana (Christakis y Fowler, 2007). En ese mismo sentido, analizaron
ciertos hábitos relacionados con la salud pública, como fumar (2008a), o ciertos fenómenos
afines a la atención en salud (2008). Todos estos estudios fueron dando forma, en consecuencia,
a la idea de que las redes sociales eran escenarios propicios no solo para el estudio de fenómenos
sociales vinculados con el contagio, sino que también se podían producir mecanismos de
irrigación de efectos, hábitos, consumos y gestualidades. Un aspecto relevante de estos estudios
es que se produjeron dentro de un campo de la atención en salud: es decir, adoptaron también
conceptos y metodologías de análisis propios del campo de la salud y la enfermedad para
empezar a entender el comportamiento de los individuos en las redes sociales. En esa medida, se
puede observar el surgimiento, hacia inicios del siglo XXI, de un campo discursivo que derivaría
en formas específicas de comprensión y estudio de las redes sociales que, para el presente caso,
luego saltarían a las digitales.
Cabe indicar que todos estos conceptos y herramientas metodológicas fueron agrupando
temas relacionados con la imitación, el contagio, etc., conceptos que les fueron dando una
coherencia y un carácter específico a estos estudios. Por tanto, se van planteando ciertas
regularidades a través de la aparición o agrupamiento de ciertos conceptos y metodologías que
hacen las veces de articuladoras. Si bien para Hatfield, Cacioppo y Rapson (1993) las nociones
articuladoras estaban agrupadas bajo la idea de imitación, feedback y captación (adopción), con
Christakis y Fowler se ve aparecer un campo específico de comprensión extraído de la salud
pública y, más aún, de la inmunología. Por tanto, esto va a suponer la formulación de
herramientas de análisis del contagio emocional, formas de referirse específicas y modos de
enunciar y comprender este objeto de estudio, asociado ahora con un campo particular de la
medicina.
El estudio más relevante que adoptó metodologías y nociones propias de la salud aplicado al
análisis del contagio emocional fue el que realizaron Christakis y Fowler (2008b) sobre la
posibilidad de analizar y demostrar si en las redes sociales se podían contagiar estados de ánimo
como la felicidad. Ya que ambos autores habían desarrollado investigaciones sobre la salud
pública, la noción que adoptaron sobre la felicidad está imbuida dentro del problema de la
enfermedad. De hecho, la metodología para el análisis de la irrigación de la felicidad se centró en
la escala Center for Epidemiological Studies Depression Scale (CES-D), de Radlof (Joseph,
1995), un instrumento para medir emociones, como la depresión, en poblaciones o individuos.
De acuerdo con esta prueba, se pueden establecer, a través de preguntas y sistemas
psicométricos, estados de depresión, de ánimo, pérdida del apetito, etc. Así, a través de cuatro
preguntas sobre si ha estado feliz, si siente esperanza sobre el futuro, si disfruta la vida o si se
siente tan bien como los otros, Christakis y Fowler (2008b) entrevistaron a 4793 individuos entre
1983 y 2003 para determinar las transformaciones de la percepción de la felicidad a través del
tiempo y la influencia que tenían la ubicación y pertenencia de una red social sobre esos
individuos.
La investigación de Christakis y Fowler (2008b) se aplicó sobre el Framingham del Corazón,
el cual es un estudio de larga duración sobre problemas cardiovasculares que se ha venido
desarrollando en Massachusetts desde 1948. Allí, analizaron en jóvenes si sus alter ego, como
familiares, amigos, podían influir y afectar –considerando diversos tipos de relación que se
pueden establecer— emociones como la felicidad. De acuerdo con estos autores, se logró
demostrar que la felicidad podía expandirse de un grupo de personas a otro siempre y cuando
pertenecieran a una red social, que no involucrara ámbitos laborales (sobre los que, dicen, deben
producirse nuevos estudios). Por tanto, ambos autores indican que una persona rodeada de
amigos o familiares, e incluso vecinos que no estén más allá de una milla, son y serán
probablemente más felices en el futuro en un 25 %. Así, determinaron que la felicidad individual
depende de la de los otros con los que se está conectado a través de una relación. Esta inferencia,
señalan, formula una nueva mirada sobre nociones relacionadas con la salud pública preocupada
por temas como las emociones.
Si bien la felicidad había sido tratada como un tema económico, político, genético, nunca
había sido considerada como algo que proviniera de las relaciones sociales. En consecuencia,
Christakis y Fowler (2008b) plantearon que efectivamente la felicidad podía transmitirse en una
red social a través de lo que ya Hatfield, Cacioppo y Rapson (1993) habían considerado como
“contagio emocional”. En consecuencia, una persona puede captar y adoptar, incluso de manera
inconsciente, emociones que ha percibido o visto en otros durante periodos de tiempo que van
desde segundos a semanas. Si se sigue esta teoría, un estudiante que ha estado en contacto con
amigos depresivos, se tornará depresivo. Con ello, se logró demostrar que las redes sociales, y los
lazos que se constituyen allí, permiten generar efectos de contagios de diversas manifestaciones y
emociones. Posteriormente, ambos autores formularon un estudio correspondiente a la
depresión. Usando los mismos métodos y muestra, determinaron que, al igual que con la
felicidad, la depresión era algo que se podía contagiar dentro de los individuos de una red social
(Rosenquist, Christakis y Fowler, 2011). Con ello, estaba abonado el terreno conceptual para
poder pensar que se podía contagiar la rabia, por ejemplo, como sucedió en la campaña política
por el “No” en el plebiscitico por la Paz en Colombia.
Si bien el estudio de Fowler y Christakis (2008) fue relevante porque aportó una prueba
empírica a la teoría del contagio emocional, es significativo que el análisis en esa vía de las redes
sociales analógicas ya se estaba dando a principios del siglo XXI. Algunos de los trabajos que se
estaban produciendo en ese momento fueron los de Nowak y Sigmund (2005) y Kossinets y
Watts (2006). Con ello, lo que quiero mostrar es que se produjeron en la primera década del siglo
XXI una serie de estudios y un campo de saberes muy específicos sobre la forma de propagación
de emociones a través de redes sociales. Esto es interesante porque empiezan a circular con
mucha frecuencia las nociones de contagio, de irrigación, de imitación, todo dentro de un
lenguaje muy propio de la epidemiología, aplicado a emociones, percepciones y estados de
ánimo.
No obstante, para ese momento, aún no se había efectuado una investigación que permitiera
demostrar un mecanismo mediante el cual se pudiera contagiar a otros de una determinada
emoción. Es decir, no había estudios que mostraran cómo producir y dirigir ese contagio. Estaba
para este momento allanado el terreno empírico sobre la posibilidad de que efectivamente las
emociones se contagiaran. Más aún, se puede percibir que estaba ya constituido un objeto que
resonaba y era usado en diversos escenarios: el médico, psicológico, psicométrico, etc. En esa
instancia, puede observarse una secuencia de estudios que van refiriendo al contagio emocional
como un mismo objeto que, a su vez, permite reagrupar todos estos estudios en un conjunto,
articulado por un carácter de enunciación común, unos conceptos compartidos y una
persistencia de temas particulares.
La puesta del contagio emocional como objeto sobre una superficie y, a su vez, la
constitución de un conjunto de enunciados que articularían y darían vida a ese objeto de saber
allanarían el terreno para que fuera usado en otros escenarios y superficies, como Facebook. En
otros términos, el contagio emocional consolidó un campo de empiricidades que luego sería
utilizado por plataformas digitales y, a su vez, determinaría los modos en los que esas redes
sociales funcionarían a partir de esa convergencia. Por tanto, el contagio emocional redefiniría los
modos de operación de Facebook, una vez se pudiera aplicar este conjunto de herramientas,
conceptos y temas en la plataforma y con usuarios de la red social.
información y los posibles efectos que genera en los usuarios de la red social. Así, se ha
convertido en un objeto de estudio privilegiado en los estudios de comunicación, sociología,
antropologías digitales, etc. Para el caso del presente escrito, tampoco ha sido ajena a estudios de
carácter psicométrico y estadístico, preocupados por el papel de curaduría que tiene la News
Feed (Sun, Rosenn, Marlow y Lento, 2009), cómo se relacionan los usuarios con esta
herramienta (Rader, Gray, 2015) y cómo ocurren procesos de influencia, exposición o afectación
de perspectivas o creencias de los usuarios a través de lo que se les expone cada vez que ingresan
a Facebook (Bakshy, Messing y Adamic, 2015).
El punto central acá es que, hacia el año 2012, Facebook fue consolidando modalidades de
trabajo con los datos que eran extraídos y almacenados en procura de diseñar sistemas más
complejos y precisos de predicción y perfilado de usuarios. Por tanto, a la par de generar
sistemas técnicos que permitieran almacenar una mayor cantidad de datos, se procuró apoyar
formas, herramientas, metodologías y sistemas para analizar y construir perfiles de forma
automática. Para poder alcanzar este objetivo, la red social estableció alianzas con diversos
centros científicos y universidades, en especial con aquellos relacionados con estudios
psicométricos5, que en muchos casos estaban, a la par, diseñando sistemas de análisis masivo de
datos o perfilado a partir de sistemas de evaluación, como los empleados para el caso del
contagio emocional. De igual manera, la misma red social apoyó y patrocinó muchas de las
producciones científicas, en especial de tipo psicométrico, que investigaran formas de rediseñar y
entender las interacciones que se dan en la plataforma; el caso más representativo de esto es el
Facebook Research6. En esa medida, lo que se observa es un entrecruce, una convergencia de un
conocimiento y de una práctica específica que viene a darle una vuelta de tuerca a las
funcionalidades de Facebook. Puede indicarse, en consecuencia, que el surgimiento de una
formación discursiva, entorno a los comportamientos y, en especial, al contagio emocional,
configura nuevas prácticas y modalidades en las que la red social funciona.
Una de estas convergencias, precisamente, se dará con el estudio de Kramer, Guillory y
Jeffrey (2014). Este estudio se basó en exponer a 600.000 usuarios de Facebook a dos tipos de
contenidos en las News Feed. A la mitad de ellos, se los expuso a una reducción de expresiones
negativas y, a la otra mitad, se les redujeron expresiones positivas7. Los resultados de este análisis
señalan que quienes fueron expuestos a una menor cantidad de expresiones positivas empezaron
a manifestar expresiones negativas y, al contrario, la otra mitad manifestó expresiones positivas.
Por tanto, este estudio determinó que la exposición de manifestaciones positivas o negativas a
través de Facebook podía afectar y modificar las emociones de otros usuarios, a través de una
línea de contagio que, de acuerdo con ellos, era la primera vez que se podía observar a gran
escala y de manera provocada. Infieren, cabe indicarlo, que aquellos usuarios que no tienen una
exposición constante de emociones tienden a ser menos expresivos en la red social.
Este estudio pudo, en consecuencia, determinar dos cosas: la primera, que el contenido de las
News Feed es fundamental para entender cómo se propicia el contagio, es decir, que es necesario
un medio por el cual el elemento de transmisión pueda irrigarse. En este caso, el contagio no
5 Un caso bastante relevante es el trabajo en conjunto que se desarrolla con el instituto de investigaciones
psicológicas de la Universidad de Cambridge: http://www.psychometrics.cam.ac.uk/
6 Se trata de un centro que patrocina investigaciones con la intención de implementar sistemas técnicos al
and Word Count Sotfware (LIWC), cuya matriz también tiene una particularidad médica.
solo se da de persona a persona, sino que requiere de un elemento por el cual transmitirse. La
segunda demostración indica que el contagio no necesariamente requiere de expresiones
verbales: por el contrario, puede suceder a través de aspectos como emoticones, comentarios,
likes, etc. En esa medida, los elementos verbales son solo un canal mediante el cual se transmitiría
el contagio. Facebook, y en especial las News Feed, vino a ser ese medio por el cual se podrían
generar estrategias de transmisión de ideas, emociones, afectos, ya que no se trata de cuánto
contacto o tiempo compartan con sus amigos, sino de cuánta exposición tienen ciertos usuarios a
contenidos específicos. En otras palabras, a la idea de contagio emocional se le agregaría un
componente propio de la teoría de los medios: la exposición.
Ahora bien, el punto central que marca esta convergencia de los estudios y el uso en
plataformas digitales se da en que, para que Facebook pudiera direccionarse sobre la posibilidad
de contagio, para que pudiera funcionar como un sistema útil y capaz de irrigar emociones,
contagiar ideas y esparcir cualquier tipo de sensación, era necesaria la comprensión de un campo
de saber, o por lo menos, de la existencia de un objeto de conocimiento preciso, como lo fue el
contagio emocional. Valga indicarlo, este campo de saber preexistió a la red social digital y, aún
cabe señalar, permitió su configuración. En otras palabras, lo que se observa es una formación
discursiva sobre la que se basó y sustentaron ciertos modos de funcionamiento de Facebook,
como el del plebiscito por la Paz en Colombia, reseñado en la introducción de este artículo.
Lo que se demostró con el estudio de Kramer, Guillory y Jeffrey (2014) fue que el contagio
emocional funcionaba en escenarios digitales y que, más aún, lo único que se precisaba era una
plataforma, que funcionara como un medio, para que el contagio se produjera. Los mecanismos
de contagio, adicionales al medio, contemplan la cantidad de exposición, entendida como las
veces que aparece un tipo de contenido y el tiempo al que se somete a un usuario. Por supuesto,
esta plataforma fue en principio Facebook, aunque actualmente puede pensarse en otras redes
sociales como Instagram, Twitter o chats como WhatsApp. Para conectar estas ideas con el
ejemplo dado sobre el plebiscito para la Paz sucedido en Colombia, lo que aconteció fue la
puesta en práctica de estas demostraciones y de este campo discursivo que ya había sido
postulado a partir de la década de 1990. Como se mostró, Facebook convergió y se apropió del
contagio emocional como objeto de saber para posibilitar una serie de prácticas, de diversos
actores, relacionadas con la posibilidad de irrigar una sensación particular. Por supuesto, uno de
los campos más relevantes en este terreno tiene que ver con la generación de sensaciones
particulares sobre candidatos en juegos electorales, que afectan directamente los resultados en las
votaciones; en especial, se han desarrollado estudios en torno a cómo se incrementan los
contagios cuando se dan momentos de crisis social o económica (Steinert, 2020).
En el escenario electoral, de hecho, se ha observado una puesta en práctica muy particular
sobre el contagio a través de la viralización de contenido. Así, muchas de las estrategias de
campaña, de opinión pública o movilizaciones a través de las redes sociales digitales, vienen
siendo, por lo menos desde Obama, recurrentes y objeto de mejoras. Más importante aún, se ha
generado una serie de estudios que convergen con el conjunto de enunciados sobre el contagio
emocional, enfocados en prácticas, nuevas estrategias y herramientas para viralizar contenidos de
orden político (Vaccari, 2010; Schweitzer, 2008; Hendricks, 2010). No obstante, considero que
este terreno de la viralización de contenido se basa en la puesta en juego de un mecanismo que
procura, sobre todo, contagiar emociones, que luego pueden ser direccionadas a personas,
campañas políticas, opiniones. Por tanto, la viralización de contenido se debe leer en relación
con la formación discursiva sobre el contagio emocional, puesto que es allí donde se demostró y
puso en juego la posibilidad de transformar opiniones o estados emocionales de los usuarios:
esto es, es sobre el terreno de los afectos que se desenvuelve la viralización de las noticias falsas o
Fake News.
En síntesis, se observa una producción científica en torno a la posibilidad de generar
contagios emocionales, en donde se establecen técnicas, metodologías de medición y nociones
que sirven de base para experimentos prácticos. Esta producción científica constituye una
formación discursiva que alimentó prácticas de distintas redes sociales digitales, como el caso de
Facebook. Esta convergencia se dio a través del patrocinio directo sobre estas investigaciones y
el uso de los sistemas de medición que las investigaciones estaban desarrollando. En esa medida,
se puede establecer que la formación discursiva en torno al contagio emocional produjo una base
teórica y metodológica que luego convergería con Facebook y haría parte de su desarrollo. De
hecho, la posibilidad de contagiar emociones determinó el modo en el que operaría Facebook en
distintos terrenos: el político, social, afectivo. A la par, esta plataforma se torna central en todos
estos procesos, como es el electoral, cuando se logran establecer mecanismos para reproducir y
propagar afectos; esto es, cuando se logra determinar en un medio en el cual se puede aplicar y
ejecutar una serie de saberes específicos sobre el contagio emocional, la red social adquiere un
estatus diferente y unas implicaciones más agudas en el campo de lo social, que luego se
extendería a otras plataformas y redes sociales digitales. Por tanto, la comprensión de esta
formación discursiva permite entender cómo se produjo este desarrollo y cómo Facebook fue
entrando cada vez más en terrenos políticos y sociales.
5. Conclusiones
Las formaciones discursivas son una herramienta teórico-metodológica que permite comprender
cómo el desarrollo de ciertos sistemas digitales está precedido y basado en producciones
científicas que, a grandes rasgos, ayudan a delimitar sus modos de operación, desarrollo y uso.
Esto se observó en este escrito a través del contagio emocional, visto como un campo de
conocimiento constituido por estudios, investigaciones y usos en diversos escenarios, que se
integró con prácticas y formas de constitución de la red social Facebook. A su vez, esta noción
tiene un carácter de enunciación particular, al estar conformado por (1) herramientas y (2)
formas de referir; (3) conceptos comunes, muchos de ellos extraídos de campos médicos, y (4)
unos temas persistentes, como imitación, adopción y sincronía. Estas cuatro características,
definidas por Foucault (2011), permiten plantear que el contagio emocional se desplegó sobre
una formación discursiva que serviría de base para el diseño y uso de Facebook, una vez fuera
demostrada su aplicabilidad en usuarios y perfiles.
Se puede concluir que es necesario entender formaciones discursivas que en algún momento
determinado convergieron y definieron las herramientas de Facebook y sus modos de uso. Esto,
a mi modo de ver, permite considerar que saberes científicos deban ser estudiados como bases
que han permitido y dado forma no solo a las redes digitales actuales, sino a modos en los que lo
digital se ha configurado en nuestras sociedades. Por tanto, esto demuestra que, para el estudio
de las redes sociales digitales, se debe empezar a considerar teorías, nociones, estudios, temas
previos que convergieron y pusieron en marcha formas en las que nos relacionamos y somos
relacionados por plataformas digitales. Así, por ejemplo, no se puede dejar de hablar de lo viral,
de la viralización de contenidos o, incluso, de prácticas tan arraigadas en la vida digital como las
Fake News sin considerar que parten, en última instancia, de la idea de que un contenido se puede
contagiar. Tampoco quiere decir que el contagio emocional sea suficiente para el desarrollo de
una práctica como la de las Fake News. De hecho, estudios más recientes, como los de Kraft y
Donovan (2020) han determinado que, para producir la desinformación es necesario
implementar estrategias como acompañar las noticias a través de imágenes o que el mismo
contenido aparezca en diversas plataformas; es decir, es necesario implementar estrategias y
prácticas de otro orden para que el contagio suceda.
Considerar las formaciones discursivas para analizar la concretización de Facebook abre un
campo de estudios relacionados, al menos, con dos cuestiones: la primera, habría que estudiar
cómo esas formaciones discursivas o esos objetos de saber han penetrado en prácticas
institucionales, en campos de acción política o en escenarios educativos. El ejemplo que
proporcioné sobre el plebiscito para la Paz en Colombia da algunas pistas sobre esa modalidad,
aunque queda abierta la posibilidad de estudiar otras formas de acción, puesto que esos campos
varían: otra voz, por ejemplo, sería estudiar esa formación en un escenario de la pandemia del
COVID-19. En segundo lugar, se debería analizar la posición de los sujetos en ese campo de
objetos de saber: una pregunta que puede plantearse, relacionado con lo que se mostró en este
artículo, es ¿qué procesos subjetivos acontecen en el campo específico del contagio emocional,
teniendo en cuenta que esta discursividad también viene a conformar o a constituir procesos
subjetivos o de subjetivación?
Referencias
Bakshy, Messing y Adamic (2015). Exposure to ideologically diverse news and opinion on
Facebook. Science. Vol. 348. Pp. 1130-1132. DOI: 10.1126/science.aaa1160
Christakis N. y Fowler J. (2007). The spread of obesity in a large social network over 32 years.
N Engl JMed 2007; 357:370-9.
Christakis N. y Fowler J. (2008). The collective dynamics of smoking in a large social
network. N Engl JMed 2008; 358:2249-58.
Correa, J. C., García-Chitiva, M. D. P., & García-Vargas, G. R. (2018). A text mining
approach to the text difficulty of Latin American peace agreement. Revista Latinoamericana
de Psicología, 50(1), 61-70.
El Espectador, (06 oct. 2016), “La cuestionable estrategia de campaña del No”. El Espectador.
https://www.elespectador.com/noticias/politica/cuestionable-estrategia-de-campana-del-
no-articulo-658862
Foucault, M. (2011). La arqueología del saber. Buenos Aires: Siglo Veintiuno Editores.
Fowler, J. y Christakis, N. (2008a). Estimating peer effects on health in social networks. J
Health Econ ; 27:1400-5.
Fowler, J. y Christakis, N. (2008b). Dynamic spread of happiness in a large social network:
longitudinal analysis over 20 years in the Framingham Heart Study. BMJ. Doi:
10.1136/bmj.a.2338
Hatfield, Cacioppo y Rapson (1993). Emotional contagion. Curr Dir Psychol Sci 2(3): 96–100.
Hatfield, Cacioppo y Rapson (1994). Emotional contagion. NewYork: Cambridge University
Press, 1994.
Hendricks, J. A. & Denton, R. (2010). Political campaigns and communicating with the
electorate in the Twenty-First Century. En J. A. Hendricks & R. Denton (Eds.),
Communicator-in-chief: How Barack Obama used new media technology to win the White House (pp.
1-18). Lanham: Lexington Books.
Kossinets G, Watts DJ. (2006). Empirical analysis of an evolving social network. Science; 311.
pp. 88-90.
Kraft y Donovan (2020). Disinformation by Design: The Use of Evidence Collages and
Platform Filtering in a Media Manipulation Campaign. Political Communication, 37. Pp. 194-
214
Kramer, AD., Guillory J.E. y Hancock, J. (2014). Experimental evidence of massive-scale
emotional contagion through social networks. PNAS (111-24).
Newman, M, (2003). The structure and function of complex networks. SIAM Rev Soc Ind
Appl Math 2003; 45:167-256.
Nowak, M. y Sigmund, K. (2005). Evolution of indirect reciprocity. Nature; 437. Pp. 1291-8.
Papa A. y Bonanno, G. (2008). Smiling in the face of adversity: the interpersonal and
intrapersonal functions of smiling. Emotion 2008;1:1-12.
Rader, G. (2015). Understanding User Beliefs About Algorithmic Curation in the Facebook
News Feed. https://doi.org/10.1145/2702123.2702174
Rosenquist, Christakis y Fowler (2011). Social Network determinants of depression. Molecular
Psychiatry. 16. Pág. 273-281.
Simondon, G. (2007). El modo de existencia de los objetos técnicos. Buenos Aires: Prometeo.
Steinert, S. (2020). Corona and value change. The role of social media and emotional
contagion. Ethics and Information Technology. https://doi.org/10.1007/s10676-020-09545-z
Sun, E., Rosenn, I., Marlow, C. y Lento, T. (2009). Gesundheit! Modeling Contagion through
Facebook News Feed. Association for the Advantacement of Artificial Intelligence.
https://www.aaai.org/ocs/index.php/ICWSM/09/paper/view/185/428
Surakka, V.y Hietanen, J. (1998). Facial and emotional reactions to Duchenne and non-
Duchenne smiles. Int J Psychophysiol; 29. Pp. 23-33.
Vaccari, C. (2010). Technology is a commodity: the Internet in the 2008 United States
presidential election. Journal of Information Technology & Politics, 7, 318-339.
Zajonc, R. (1985). Emotion and facial efference: an ignored theory reclaimed. Science ;5. Pp.
15-21.
Cómo citar: Burlot, G., Piatelli, L. y Penisse, F. (2021) Índice Uber. Análisis cuantitativo del capitalismo
de plataforma mirado desde América del Sur. Revista Hipertextos, 9 (15), 101-124. DOI:
https://doi.org/10.24215/23143924e030
Resumen. El índice Uber se construye como una aplicación de los aportes que ha desarrollado el
enfoque de los estudios del campo de Ciencia, Tecnología y Sociedad, en relación al capitalismo de
plataforma. El mencionado índice se elabora a partir del seguimiento de la tarifa del servicio de Uber a
nivel global con el objetivo de observar la distribución de la renta entre los choferes de la plataforma en
cuestión, según su ubicación geográfica. Los datos relevados en 39 ciudades capitales se comparan con las
tarifas del servicio de taxis, entendiendo que estos son valores de referencia para estimar el
funcionamiento del capitalismo tradicional. Esta comparación ha permitido observar la estrategia de
precio del servicio que está desarrollando Uber y la redistribución de la renta del sector de acuerdo a
criterios diferentes a los que operaban en el mercado de taxis sin Uber. Tal afirmación se desprende del
dato de que en 36 ciudades el servicio de la plataforma es más barato que el de los taxis. Esta disminución
en la tarifa no se condice con una baja de los costos en igual medida. Para una mejor interpretación del
índice Uber, se cruzó con el Índice de Desarrollo Humano, y de ello se constata que el capitalismo de
plataformas está agrupando ciudades para establecer su estrategia de precios bajos en países de desarrollo
medio – alto y alto, erosionando así las condiciones de trabajo de los conductores en donde el capitalismo
tradicional de prestación de servicios mediante taxis tenía mejores condiciones de ingresos.
Palabras clave: índice Uber, Uber, capitalismo de plataforma, colonialismo digital, transporte.
Sumario. 1. Introducción. 2. Principales antecedentes de estudio de las nuevas formas del capitalismo y
de la empresa Uber. 3. Presentación y análisis del Índice Uber. 4. Análisis comparativo del capitalismo de
1 El presente trabajo ha sido financiado con subsidios del Instituto de Investigaciones de la Facultad de Ciencias
Económicas y Jurídicas de la Universidad del Aconcagua. Los autores agradecen los aportes y comentarios de la Lic.
Lía Martínez y MSc. Guillermo Ojeda.
2 Instituto Balseiro (UNCUYO - CNEA), Universidad del Aconcagua, Facultad de Ciencias Exactas y Naturales
The Uber Index. Quantitative analysis of platform capitalism as seen from South America.
Abstract. The Uber Index is created as a contribution that the field of Science, Technology and Society
has developed with regards to platform capitalism. The Index is calculated considering the Service Tariff
of Uber around the world and its objective is to observe the rent distribution between the drivers of Uber
in each city. The collected data in 39 cities were compared with the tariff service of Taxis companies,
taking in account that this data values are the reference of traditional capitalism. This comparison allows
observing the pricing strategy that Uber develops and the distribution of the rent of this
industry following criteria that differs with the one applied before Uber’s incorporation. The affirmation
derives from the data that in 36 of the 39 surveyed cities the platform price is cheaper than taxi’s services.
The rate of decrease does not follow the cost decreases in the same extent. For a better interpretation of
Uber Index, the data was compared with the Human Development Index. From this analysis is verified
that the platform capitalism is grouping cities as a way to establish low cost price strategy in medium-high
and highly developed countries, and this strategy is eroding driver´s work conditions where the traditional
capitalism had better income conditions.
Resumo. O índice Uber é construído como uma aplicação das contribuições que o foco de estudos na
área de Ciência, Tecnologia e Sociedade tem desenvolvido em relação ao capitalismo de plataforma. O
referido índice é elaborado a partir do monitoramento da taxa de serviço do Uber em nível global para
observar a distribuição da receita entre os motoristas da plataforma em questão, de acordo com sua
localização geográfica. Os dados coletados em 39 capitais são comparados com as taxas de serviço de táxi,
entendendo-se que esses são valores de referência para estimar o funcionamento do capitalismo
tradicional. Essa comparação nos permitiu observar a estratégia de preços do serviço que o Uber está
desenvolvendo e a redistribuição da receita do setor segundo critérios diferentes daqueles que operavam
no mercado de táxis sem Uber. A afirmação fica clara pelo fato de que em 36 cidades o serviço da
plataforma é mais barato que o dos táxis. Esta redução na taxa não é consistente com uma redução nos
custos na mesma medida. Para uma melhor interpretação do índice Uber, foi cruzado com o Índice de
Desenvolvimento Humano, e a partir deste verifica-se que o capitalismo de plataforma está agrupando
cidades para estabelecer sua estratégia de preços baixos em países de médio-alto e alto desenvolvimento,
erodindo assim o Condições de trabalho dos motoristas onde o capitalismo tradicional de prestação de
serviços por táxi apresentava melhores condições de renda.
1. Introducción
El presente trabajo está dividido en cuatro secciones. La primera está centrada en la revisión de
los principales antecedentes dedicados el estudio de las formas emergentes de capitalismo y al
desarrollo de una de las empresas más representativas del sector como es el caso de Uber Inc. El
segundo apartado está dedicado a la construcción y análisis del Índice Uber, a través del cual
aspiramos a conocer cómo se desarrolla la estrategia de precios y de distribución de renta de la
empresa Uber en las capitales políticas de 40 países del mundo. En la siguiente sección buscamos
comparar el funcionamiento del precio en el capitalismo de plataforma, representado por la
empresa Uber, y el capitalismo tradicional, tomando como ejemplo el servicio de taxis. Por
último, nos dedicamos a observar la distribución y las relaciones entre el Índice Uber y el Índice
de Desarrollo Humano, con el fin de observar si los niveles de precios están relacionados con los
niveles de desarrollo de los países bajo estudio.
Alrededor de los años 60’ y 70’ comienza a erigirse a nivel mundial un nuevo paradigma
sociotécnico dominando por la revolución de la información. A medida que este proceso se fue
consolidando aumentó su penetración en todos los ámbitos sociales, culturales y económicos de
la actividad humana. Este cambio produjo la emergencia de un nuevo modo de desarrollo5, el
Informacionalismo (Castells, 1996, p. 15). La fuente de la productividad del Informacionalismo
está en la tecnología de generación de conocimiento, el procesamiento de la información y la
comunicación de símbolos. Con el avance de la década de los 80’ se afianza este modo de
desarrollo informacional, y en paralelo se posiciona el capitalismo como el único modo de
producción6 viable. Este nuevo arreglo entre sociedad, estado y mercado es definido por Castells
(1996) como el Capitalismo informacional, el cual se caracteriza por una relación específica entre el
modo de desarrollo informacional y el modo de producción capitalista.
La titánica obra de Castells es el punto de partida de nuestros postulados, y el antecedente de
las reflexiones acerca del Capitalismo de plataformas y el Capitalismo de vigilancia. Entendemos
que ambos postulados y las observaciones de sus autores, pueden ser entendidas como
variedades del capitalismo informacional. A continuación, analizamos en detalle estas variedades
específicas de organización del capitalismo informacional.
El ensayo que produce Nick Srnicek es uno de los primeros trabajos que busca comprender
integralmente los principales cambios que han estado ocurriendo en la economía global de la
mano del fenómeno de las plataformas digitales. Comprensión que intenta poner estas
5 “los modos de desarrollo son los dispositivos tecnológicos mediante los cuales el trabajo actúa sobre la materia
para generar el producto, determinando en definitiva la cuantía y calidad del excedente.” (Castells, 1996, p. 18)
6 “la determinación de las reglas para la apropiación, distribución y usos del excedente. Estas reglas constituyen
modificaciones en una perspectiva histórica y teórica más amplia, llegando a proponer una
taxonomía de las empresas nuevas y las no tan nuevas, que pueblan el complejo escenario, de lo
que el autor denomina capitalismo de plataforma. Este tipo específico de capitalismo se basa en una
nueva forma de organización de las empresas, denominada empresas de plataforma. Las plataformas
“se caracterizan por proporcionar la infraestructura para intermediar entre diferentes grupos de
usuarios, por desplegar tendencias monopólicas impulsadas por efectos de red, por hacer uso de
subvenciones cruzadas para captar diferentes grupos de usuarios y por tener una arquitectura
central establecida que controla las posibilidades de interacción.” (Srnicek, 2018, p. 49).
En la economía capitalista la cuestión de la propiedad es clave, por lo cual el autor muestra
que este nuevo tipo de empresas ha construido un patrimonio que las distingue de sus
antecesoras. Las plataformas son propietarias de un software -un conjunto de líneas de códigos
diseñados para realizar una determinada cantidad de funciones, orientadas a fines definidos de
antemano- construido a partir de software libre -Android está basado en el Kernel de Linux y
Facebook se basa en Hadoop-, del hardware -los servidores, los centros de datos, etc.- (Srnicek,
2018, p. 49).
Pero el recurso más importante con el que cuentan las plataformas lo han ido construyendo
con el paso del tiempo y con la consolidación del modelo de negocio. Estas organizaciones
incorporan los datos a su patrimonio, los cuales han sido apropiados a partir de diferentes
estrategias que son legalizadas, por la vía legislativa o judicial, en los distintos países. Esta
cuestión no es menor, dado que la disponibilidad de estos datos y la capacidad para procesarlos
es constitutiva de estos nuevos modelos de negocios, como demuestra el trabajo de Zuboff
(2019).
El autor distingue cinco clases de plataformas. Estas clases son tipos ideales, porque en la
realidad estos modelos se combinan en diferente medida en las características de cada una de las
empresas. Las plataformas publicitarias como Google y Facebook, las cuales a partir del
procesamiento de los datos que tienen de sus usuarios venden espacios publicitarios. Las
plataformas de la nube como Amazon o Salesforce, compuestas por empresas que alquilan el
hardware y el software necesario para que otras empresas desarrollen sus actividades digitales.
Las plataformas industriales, tales como General Electric y Siemens, estas empresas industriales
llevan adelante la transformación digital empresaria a través de la comercialización de los
servicios, hardware y software para la modificación de los procesos de manufactura tradicional y
convertirlos en procesos conectados a internet. Las plataformas de productos como Spotify y Rolls
Royce, en este caso la transformación ocurre de otra manera, las empresas utilizan plataformas
para comercializar bienes tradicionales y convertirlos en servicios, y a partir de esta
transformación construir un sistema de suscripción. Por último, están las plataformas austeras,
entre las que se destacan Uber y AirBnb que se enfocan en contar con la menor cantidad de
capital enterrado posible y en reducir al mínimo los costos que asume la empresa en sus
operaciones (Srnicek, 2018, p. 50).
En el presente trabajo nos centramos en el estudio de las plataformas austeras. Estas tienen las
siguientes características en su modelo de negocio: el bajo nivel de capitalización de estas
empresas es notable, y a nuestro entender es una de las grandes innovaciones de estos modelos
de negocios, que desarrollan sus actividades con un bajísimo nivel de capital. Este aspecto queda
retratado en este fragmento tan citado “Uber, the world’s largest taxi company, owns no
vehicles” (Goodwin, 2015). Estos niveles de inversión no nos deben engañar, acerca de la
importancia de la propiedad en estos modelos de negocios. Como explicamos anteriormente la
propiedad sigue siendo una pieza clave, sólo que se ha ido trasladando, y en estos negocios se
concentra en el software, en los datos y en la marca. Esto las caracteriza como empresas digitales,
a diferencia de las grandes corporaciones tradicionales, que descansaban sobre una extensa lista
de recursos materiales. Por último, encontramos las características por las cuales más se ha
criticado a las plataformas austeras, la precarización laboral de los trabajadores que efectivamente
prestan el servicio que son comercializadas en la plataforma. Esto va de la mano de lo que
Srnicek (2018) denomina hipertercerización, donde están tercerizados los costos laborales, la
capacitación del personal y la evaluación, como así también, el aporte del principal capital para la
producción del servicio, que, en el caso de Uber, son los coches.
Srnicek es crítico de los modelos de negocios que establecen las empresas de las plataformas
austeras y observa que lejos de ser una innovación que pueda revitalizar el capitalismo, son
oportunidades de inversión de corto plazo, sostenidas en gran parte, por las bajas tasas de interés
en los mercados internacionales y por la ausencia de oportunidades laborales de calidad en las
economías nacionales. Además, objeta la supuesta novedad que han presentado estas empresas
para la economía mundial, observando que el aporte que han realizado se limita a extender la
precarización y la tercerización a sectores nuevos, tales como: el transporte a demanda y los
alquileres temporarios (Srnicek, 2018, p. 79, 86). En este punto es importante remarcar que
nuestro trabajo busca observar empíricamente esta afirmación, acerca de la profundización de la
precarización en el caso de Uber a nivel global.
De esta manera hemos repasado la mirada general que hace Srnicek acerca de cómo se están
transformando los distintos modelos de negocios de las empresas para adaptarse a un nuevo
entorno. Pero esta mirada pierde rigurosidad, a nuestro entender, para ganar en amplitud de sus
conceptos. Por eso en el presente buscamos un abordaje acotado a un caso, el de la empresa
Uber.
A continuación, nos centraremos en un tipo específico de estas organizaciones, las que están
caracterizadas dentro del capitalismo de vigilancia. No todos los capitalistas de plataformas son
capitalistas de vigilancia, sino que el capitalismo de vigilancia es una lógica y no una tecnología en
sí. Por ello sólo algunos capitalistas de plataformas son también capitalistas de vigilancia.
El segundo trabajo que cimienta los pilares de nuestra investigación, es la obra realizada por la
autora Shoshana Zuboff, profesora de Harvard y PhD en Psicología social de la misma
universidad.
El libro se llama The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier
of Power, donde sintetiza que los usuarios de la tecnología no son consumidores, ni empleados,
sino productos.
El capitalismo de vigilancia unilateralmente reclama la experiencia humana como una materia
prima gratuita para traducirla en datos conductuales. Si bien algunos de esos datos son aplicados
a la mejoría de productos o servicios, el resto son declarados excedente conductual propietario,
alimentado avanzados procesos de manufactura conocidos como “Inteligencia de máquinas”, y
fabricar productos de predicción que anticipan lo que vas a hacer ahora, dentro de poco y después.
Finalmente, estos productos de predicción son ofrecidos en un nuevo tipo de mercado al cual
Zuboff llama mercado de conductas futuras.
Los estudios sobre colonialismo tienen una extensa trayectoria en el ámbito de la antropología y
la sociología, pero han recorrido un camino más corto en el campo de los estudios de Ciencia,
Tecnología y Sociedad. En los años 70’ emergen estudios sobre el Colonialismo informacional el cual
se expande en América Latina de la mano del crecimiento del poder económico y político de
Estados Unidos como retrata Schiller (1978). Más recientemente, y también con investigaciones
que hacen foco en el Sur Global, Kwet (2019) acuña el término de Colonialismo Digital para
identificar el nuevo fenómeno colonial.
El Colonialismo Digital es una forma de dominación que es ejercida a través del control y
propiedad de los tres pilares del ecosistema digital: software, hardware y redes de conectividad,
que se basa y complementa con el poder político, económico y social de los Estados Unidos
(Kwet, 2019, p. 2).
Este trabajo se desarrolla en base al estudio del caso de Sudáfrica, de donde el autor es
oriundo, y muestra a partir de numerosas referencias al caso bajo estudio cómo los países se han
incorporado a la nueva era digital en una condición de dependencia tecnológica extrema, lo que
termina posibilitando que; Google/Alphabet, Amazon, Facebook, Apple, Microsoft, Uber y
Netflix; en coordinación con las agencias de inteligencia de EE.UU., como la National Security
Agency, forjen un nuevo imperialismo (Kwet, 2019, pp. 2-3).
El trabajo de Kwet surge desde una pregunta que es similar a la de nuestro trabajo, que es: ¿la
nube centralizada que están construyendo las grandes empresas tecnológicas son buenas para los
países? Pregunta abordada a partir de una serie de observaciones y datos acerca del país africano.
El trabajo llega a la conclusión de que los beneficios de estas nuevas tecnologías, tales como el
Big Data, la Inteligencia Artificial, los servicios en la nube, etc. están siendo absorbidos
principalmente por las casas matrices en Estados Unidos y dejando los costos sociales en los
países que colonizan.
Aunque el artículo no profundiza en la investigación del caso de Uber, sí realiza algunas
observaciones acerca del mismo. Y claramente estiliza un fenómeno que describe la situación de
la empresa a lo largo de los países del Sur global, que carecen del control del software, que está
bajo licencias y dominio de las empresas en las casas matrices; del hardware, los centros de datos
están contratados a terceras empresas y también gestionados por la propia organización; y el
último elemento es el control sobre la conectividad a la red, que busca asegurar que los usuarios
puedan acceder a los servicios y plataformas centralizadas que se basan en los dos pilares
anteriores.
Subirats (2019) escribe un texto que busca poner en el centro de la escena el argumento de que
estamos transitando un cambio de época que va a dar paso al poscapitalismo. En este nuevo
escenario, el autor busca mostrar que el nuevo régimen de acumulación que se está imponiendo
se caracteriza por el control de los datos que fluyen a través de los nuevos espacios de
intermediación que construyen las empresas del capitalismo digital de plataforma. Uno de los
principales impactos sociales de este nuevo régimen es la desaparición del trabajo como lo
conocemos y la profundización de las desigualdades.
En su trabajo del poscapitalismo hace un recorrido por la historia económica que le permite
afirmar que la combinación del ideario neoliberal –expresados en reclamos de mayores
libertades, ausencia de intervención estatal, promoción de la competencia para la organización
mercantil, y la desarticulación de la capacidad de negociación de los trabajadores- y la innovación
tecnológica, permitieron un proceso de tercerización de las actividades, lo que ha forjado un
escenario que es retratado por Subirats:
En cuanto al impacto que el autor observa en el mercado de trabajo, declara que la irrupción
de las tecnologías digitales y de la información en el proceso intra-empresa está acrecentando la
polarización en el mercado de trabajo, donde “Los más formados incrementan su ventaja y salen
perjudicados aquellos que ya ocupaban las posiciones peor retribuidas” (Subirats, 2019, p. 43).
Esta polarización también lleva a la construcción de empresas más horizontales, que carecen de
mandos medios, dado que esas funciones se han trasladado a los consumidores, por un lado, y a
los algoritmos, por el otro.
La otra modificación que ocurre en las relaciones de producción-consumo, es la hibridación
entre las actividades que realizaban, en el capitalismo industrial, los productores de manufacturas
y los consumidores de estas. Este nuevo capitalismo, declara el autor, favorece la figura del
prosumidor. Los clientes, a través de las acciones que realizan, los datos que proveen y las
evaluaciones que construyen, se convierten a su vez en factores de producción y trabajadores de
las empresas de plataformas.
Por último, Subirats carga contra los discursos que buscan colocar a las empresas de
plataforma, tales como Uber y Airbnb, dentro del amplio espectro de las economías
colaborativas. Lo hace al afirmar que las intermediaciones, “lejos de ser «colaborativa», es
claramente extractiva y coloca en situación de privilegio a la plataforma en virtud de la asimetría
en la información, que le acaba permitiendo determinar precios u opciones, o castigar o premiar
a los que establecen la transacción” (Subirats, 2019, p. 47).
En los últimos años han surgido trabajos que buscan demostrar que la irrupción de las
plataformas no solo implica un cambio en el capitalismo, sino que está llevando a una
transformación más amplia. En este grupo se inscriben los trabajos de Kenney y Zysman (2016)
y de Van Dijck et al. (2018).
El trabajo de Kenney y Zysman (2016) reflexiona acerca de las decisiones sociales, políticas y
de negocio que serán necesarias tomar para definir cuál será el impacto en la transformación
impulsada por las plataformas. Una de las principales observaciones que realizan los autores en
relación a esta preocupación es la comparación entre la cantidad de empleados de empresas que
orquestaron la actividad económica y organizaron los mercados del siglo pasado y la cantidad de
empleados de Google (50.000) y Uber (1.500). Estos cambios le plantean nuevos interrogantes y
problemas políticos, sociales y económicos. Los autores ponen en evidencia la tendencia a la
monopolización de los mercados donde operan las plataformas, lo cual permite “exprimir” la
comunidad de la plataforma. Aquí vuelve a ser clave la observación del hecho de que plataformas
como Facebook, Google o Uber no se basan en la premisa de compartir o “sharing economy” si
no en la monetización de los esfuerzos humanos. Como remarcan los autores, la economía de
plataforma no solo es el hecho de utilizar algoritmos y poseer potencia computacional, sino que,
el gran cambio se encuentra en la utilización de estos para desarrollar herramientas económicas
que les permitan, por ejemplo, ser los controladores de una plataforma y, por ende, ser empresas
que operan plataformas.
El libro Sociedad de plataformas (Van Dijck et al., 2018) tiene un capítulo específico dedicado al
estudio de la incorporación de las plataformas en el transporte urbano y los impactos que
generan en la calidad del transporte y los derechos laborales. El dilema que se presenta con esta
incursión es acerca de cómo gobernar esta incursión. Ya que, si bien las plataformas pueden
hacer más eficientes algunos aspectos del servicio, también están debilitando algunos valores
como la inclusión y la prestación universal.
La plataformización del transporte en gran parte es generada por el mecanismo de la
datificación, donde cada vehículo, conductor, ubicación, las condiciones del tráfico y las
necesidades de transporte son transformados en puntos de datos, estos pueden utilizarse para
conectar la demanda y la oferta mediante algoritmos. Esto genera que sea más fácil transformar
el servicio de transporte en un commodity.
Un aspecto central de las plataformas es un cambio en la organización de la confianza, la
confianza siempre fue una clave para la realización de las transacciones económicas y sociales.
Los sistemas de reputación desarrollados por las plataformas permiten organizar la confianza
entre individuos y también procurar por la calidad y la confiabilidad del sistema.
La incorporación de las plataformas en el transporte urbano lo modifican de tres maneras: en
primer lugar, el mercado se vuelve más personalizado, pero a su vez tiene el riesgo de disminuir
la inclusión, la prestación universal y asequible del sistema. La organización del trabajo borra las
barreras entre ser empleado y desempleado, la denominada precarización laboral. Por último, los
gobiernos tienen una nueva oportunidad de intervenir en el mercado de transporte para
incentivar o no el ecosistema.
La pregunta que se realizan los autores es “¿Quién gobernará el transporte público en una
sociedad de plataformas y basándose en que valores? Los gobiernos tienen algunos instrumentos
para comenzar a responder estas preguntas. Primero, pueden demandar que se comparta la
información de la plataforma para conocer el rendimiento y el impacto que tienen en el
transporte público. Segundo, pueden adaptar el enfoque hacia las plataformas y modificar
algunos de sus aspectos. Tercero, son capaces de introducir nuevos modelos de impuestos o
remuneraciones para los trabajadores de estas plataformas. Cuarto, pueden considerar a las
plataformas como parte del sector en el que operan.
Luego de realizar un recorrido por los principales trabajos que explican la forma en que las
plataformas están promoviendo el cambio de la sociedad en general y del capitalismo en
particular, observamos que existe una nutrida bibliografía que se concentra en el estudio de Uber
en diferentes ciudades. Sintetizamos los principales aportes desde esta mirada.
El arribo de Uber a México fue conflictivo, como lo fue en muchas ciudades del Sur Global.
De la mano de esta situación surgieron algunos trabajos que buscaban dar una explicación a la
situación legal de la empresa en la ciudad de México. En el caso del trabajo de Ávalos y Sofía
(2015) realizan un análisis legal comparado para concluir que la legislación local está
desactualizada y que se requiere una solución legislativa o judicial para corregir las asimetrías que
genera el desembarco de Uber. Más avanzado en el tiempo y enfocado en la Ciudad de
Guadalajara encontramos el trabajo González Pérez (2017) que realiza entrevistas y una encuesta
en redes sociales para conocer cuáles son las condiciones socio-económicas de los choferes de la
aplicación. Resultados que son consistentes con los datos de nuestro estudio. A las observaciones
que realizamos le incorpora cuestiones relevantes como el estudio de la degradación de la calidad
del servicio a medida que la empresa de consolida en el mercado (2017, p. 11) y que la propiedad
de los vehículos con los que se presta el servicio no es de los trabajadores (2017, p. 8).
En el caso de los Estados Unidos, Alex Rosenblat (2019) escribe este libro en base a una
investigación sobre 125 entrevistas a personas que utilizan la app de Uber para trasladar a otros
usuarios, a los cuales denomina drivers. El libro intenta esclarecer la relación y determinar cuáles
son los fines que Uber promulga. Cuando Uber dice que cada chofer es un emprendedor que
utiliza la plataforma para trabajar existen actos como por ejemplo: penalizaciones si un chofer
rechaza un viaje, cambios unilaterales en los porcentajes de comisión y pagos, no informando si
un viaje es rentable o no; esto sumado a que la relación que tienen con la plataforma no es
personal sino que es un algoritmo que sirve como un “manager virtual automatizado” que limita
las oportunidades de cada una de estas personas y esto se ha vuelto una de las bases del reclamo
de los choferes en no ser considerados como contratistas individuales.
Uno de los puntos centrales del libro se enfoca en cómo Uber puede organizar masas de
personas a través de la tecnología, estandarizando este trabajo con un algoritmo y al mismo
tiempo se mantiene al margen de las responsabilidades del empleador. Este uno de los
principales temas de su trabajo, demostrar cómo es la relación entre Uber y los drivers.
El estudio de las políticas de la plataforma en muchas ciudades y países permitió encontrar un
patrón consistente, el cual al principio buscar conseguir un enfoque directo al consumidor,
evitando barreras regulatorias y políticas gracias al apoyo de consumidores que están interesados
en la aplicación y su efectividad con lo que llama una “lógica de gratitud: agradece de la
tecnología disruptiva que traemos, porque lo que ofrecemos es superior a las regulaciones que
nos quieren frenar o detener”. Una vez alcanzado este paso, Uber cambia, y de ser necesario
vuelve a cambiar su identidad, buscando encontrar grietas e inconsistencias entre los sistemas
regulatorios y las leyes.
Para Argentina se desarrolló un extenso trabajo resultado de la cooperación entre CIPPEC,
BID y la OIT (Madariaga et al., 2019) basado en la realización de (30) entrevistas semi
estructuradas y (603) encuestas individuales orientadas a establecer las percepciones y
preferencias de los trabajadores de las principales plataformas que operan en el País. Estudio que
permitió tener una imagen inédita de cómo era la situación de los trabajadores de plataforma.
Los principales resultados de esta encuesta indican:
La fuerza laboral en plataformas puede considerarse más joven que la población ocupada
general. Edad promedio de encuestados de 37 años y 11 meses.
Los trabajadores de plataformas tienden a estar más educados que la población general.
Los niveles educativos más bajos son Zolvers y Uber.
El promedio de tiempo que estuvieron buscando trabajo antes de ingresar a las
plataformas fue de cuatro meses.
El 61,3% sostiene que los ingresos provenientes de la plataforma son su principal
fuente. Rappi (95,5%), Glovo (84,8%), Cabify (83,3%) y Uber (64,6%).
El 67,6% percibe los ingresos como estables.
El 21,9% desempeña actividades en dos o más plataformas simultáneamente.
Las principales motivaciones de trabajar en una plataforma son, posibilidad de acceder a
un ingreso extra (30,2%), posibilidad de manejar los horarios de trabajo (29,1%), No
pude encontrar otro trabajo (17,3%).
El 72,1% trabaja en horario rotativo y el resto en horario fijo.
Para la construcción del índice que permita conocer cómo retribuye Uber a los conductores por
el servicio de transporte que prestan, hicimos el siguiente proceso de recolección y
procesamiento de datos. A partir de la instalación de la aplicación –App- de Uber en un
Smartphone, consultamos la cotización de un viaje estandarizado en cada una de las ciudades
seleccionadas. La población, al momento de construir la muestra, era de 40 ciudades capitales 7.
Se decidió no realizar una muestra y estudiar a toda la población.
Una vez que seleccionamos las ciudades en las que íbamos a tomar datos, avanzamos hacia la
construcción del I.U. A continuación, detallamos la forma de cálculo:
Se toman los valores de las tres principales variables de cobro al pasajero que utiliza
la App, las cuales son: tarifa base, precio por minuto y precio por kilómetro.
Los datos de los mismos se obtienen en un recorrido estandarizado y a las 12:00
hs. según el horario oficial de la capital. El recorrido va del Punto A – Calle más
importante de la ciudad- al Punto B -Principal Aeropuerto Internacional de la
misma ciudad-.
7La población universo fue contabilizada al 15 de octubre de 2018 en base a la información disponible en el sitio
oficial de Uber: https://www.uber.com/global/en/cities/
Los valores son tomados en la moneda oficial del país correspondiente. Los
mismos son transformados a dólares americanos de acuerdo a la cotización vigente
del día en www.google.com.
Para conocer cuánto es el monto que recibiría cada chofer se realiza la siguiente
operación matemática. La tarifa base más el precio por un kilómetro más el precio
por minuto multiplicado por 1,6 minutos8.
El 75 % de ese total es lo que recibe el chofer de Uber por el primer kilómetro
recorrido.
El resultado de estas operaciones es lo que denominamos Índice Uber.
Se han realizado tres mediciones hasta el momento, marzo, junio y noviembre del año 2019.
Analizaremos principalmente la más reciente. El análisis se va a realizar sobre 39 de las 40
ciudades seleccionadas, se decidió excluir a Estocolmo de la población ya que fue considerada un
dato outlier.9
Encabezando el I.U. encontramos a los choferes en Helsinki que cobran 3,81 dólares. Seguido
por Londres y Berlín con 3,42 y 3,15 dólares, respectivamente. En cambio, en la capital política
de los Estados Unidos, país donde nació Uber en 2009, nos costaría 1,68 dólares. Muy cerca se
encuentra el Índice Uber de Madrid donde el chofer que nos lleva desde Barajas hasta Puerta del
Sol recibe 1,60 dólares americanos.
Distinta es la situación de la mayoría de los países del Sur, entre los cuales destacamos la
Ciudad de Buenos Aires, Argentina, en la cual solo reciben 0,57 dólares, o Bogotá y Quito con
0,68 y 0,70, respectivamente. Al final del ranking, nos encontramos con Kampala, en el centro de
África, donde los choferes cobran 0,43 dólares.
La toma de noviembre de 2019 tiene una media de 1,40 dólares, una desviación estándar de
0,84 dólares y una mediana de 1,04. En cuanto a la toma de junio encontramos una media de
1,51, una desviación estándar de 0,91 y una mediana de 1,17. Con respecto a la toma de marzo
los valores son, media 1,38, desviación estándar 0,84 y mediana 1,11. Esto nos muestra que de
marzo a junio hubo un incremento en el precio promedio de 9,3 % y de junio a noviembre una
disminución de 7,1%.
A partir de la comparación del Índice Uber en todas las ciudades, en los tres períodos de
tiempo (marzo, junio y noviembre de 2019) vemos el gran dinamismo que tiene la tarifa del
servicio de Uber. Al comparar los datos de marzo y junio se observa un aumento promedio del
10,7 %, en cambio entre los datos de junio y noviembre se produjo una caída promedio de 4,3
%. Estas variaciones son suavizadas si calculamos la diferencia entre la primera y la última toma
de datos, que nos termina dejando un aumento promedio del 2,2 %. A partir de los datos
analizados, se podría afirmar que la estrategia de la empresa a nivel global es la de ingresar con
precios bajos, y a medida que se consolida en el mercado aumenta los precios. Sin emabrgo, es
prudente tener una serie histórica de largo plazo del comportamiento de los precios, para afirmar
con mayor evidencia tal supuesto.
8 Este es el tiempo promedio que se tarda en recorrer un kilómetro en las ciudades seleccionadas de acuerdo a los
datos arrojados por Google maps en el recorrido estandarizado.
9 Es una observación que es numéricamente distante del resto de los datos de la muestra bajo estudio.
Figura n° 1: Ranking Índice Uber, marzo de 2019, junio de 2019 y noviembre de 2019
El I.U. muestra grandes diferencias entre las ciudades de ingresos más altos y más bajos.
Dejando entrever que, en África y América del Sur, es necesario realizar jornadas laborales más
extensas para alcanzar el nivel de ingreso de los países más desarrollados. Las urbes
sudamericanas se encuentran en la mitad inferior de la tabla, exceptuando a Montevideo, la cual
es la de mayor ingreso. Las capitales de Argentina junto con México son las peor posicionadas de
la región y se encuentran entre los 5 países con el menor ingreso a nivel global.
Como hemos visto, el I.U. es una medida calculada a nivel de capitales políticas10 de los
países, pero su agregación a nivel continente realizando un promedio nos permite analizar el
impacto del capitalismo de plataformas a nivel mundial.
Europa es el continente que más países aporta a la población analizada, además de, junto con
Oceanía, ser los únicos continentes que superan los 2 dólares en promedio. El viejo continente
se caracteriza por poseer países desarrollados y con altos niveles de desarrollo humano. Los
resultados indican que hay sustento para la vieja comparación entre Europa y América del Sur; la
diferencia de ingreso es mayor al doble, por lo que el tipo de trabajo, la cantidad de horas
dedicadas a la plataforma y el salario adquieren diferentes ponderaciones en cada continente.
Asia representa el 10 % de nuestra población con un promedio del I.U. de 1,43 y 1,56 en
ambas tomas de datos. Si bien no incluyen nuestra población los países principales del
continente, si lo hacen gran parte de los ubicados al este del territorio. El país peor posicionado
es Jordania, pero el resto ostenta mejores lugares dentro del ranking.
América del Norte es el segundo continente con más participación (20 %). Los países con el
mayor I.U. son Estados Unidos y Canadá donde es tres veces mayor al de su vecino México. Si
dejamos de lado a los dos países principales, nos encontramos con una situación muy similar a la
de América del Sur, donde no solo el I.U. adquiere valores por debajo de un dólar, sino que
también el IDH demuestra que el desarrollo humano en la región es bajo.
América del Sur posee la gran mayoría de sus países, excepto Uruguay, por debajo de la mitad
de tabla. Estos resultados terminan de enmarcar una situación ya conocida sobre el nivel de
ingreso, el desarrollo humano y el PBI per cápita. Podemos ver claramente cómo Uber mantiene
las brechas económicas que se fueron conformando con el paso del tiempo entre países
desarrollados y subdesarrollados.
Según el estudio realizado por CIPPEC, BID y OIT (2019), el 63 % de las personas que
trabajan en Uber consideran a esta plataforma su principal fuente de ingresos. Lo cual muestra
10 En pos de simplificar la lectura de los resultados en algunos casos hemos utilizado el nombre del país y no de la
ciudad capital.
Para poder conocer cuál es la retribución de los taxistas en las ciudades nos enfrentamos a un
contratiempo, no existe una app globalizada como lo es Uber, por lo tanto, se realizó una
selección de diferentes fuentes de datos y se las comparó con el dato de fuentes primarias para
validar los datos de las mismas -contacto telefónico con compañías de taxis de estas ciudades-. Se
seleccionó la web www.preciosmundi.com ya que nos aportó datos precisos, en promedio la
diferencia entre las fuentes primarias y la página web fue de solo 3 %11.
Una vez que recolectamos los datos de precio del servicio el método de cálculo fue el
siguiente:
1. Se toman los dos valores que entrega www.preciosmundi.com: inicio de taxi y
precio por km.
2. Los valores son tomados en la moneda oficial del país correspondiente. Los
mismos son transformados a dólares americanos de acuerdo a la cotización vigente
del día en www.google.com.
3. Para conocer cuánto es el monto que recibiría cada chofer se realiza la suma de las
dos variables.
Como no sabemos qué porcentaje de este valor es el que finalmente reciben los choferes ya
que existen diferentes esquemas de negocios en esta industria, lo comparamos con el valor
11Las ciudades a las que se contactó explícitamente fueron 20 en total, los cuales son las siguientes: Helsinki,
Finlandia; Beirut, Líbano; Amsterdam, Holanda; Estocolmo, Suecia; Berlín, Alemania; Londres, Reino Unido;
Manama, Bahrein; Washington D.C., Estados Unidos; Nairobi, kenia; Madrid, España; Canberra, Australia; Lima,
Perú; Bogotá, Colombia; Varsovia, Polonia; San José, Costa Rica; México D.F., México; Montevideo, Uruguay;
Buenos Aires, Argentina; Bucarest, Rumania; El Cairo, Egipto.
completo del primer kilómetro de Uber -lo que recibe el chofer y la comisión que cobra Uber-.
Los datos de taxi han sido tomados en julio de 2019 y los de Uber en noviembre del mismo año.
Para conocer cómo se da esta competencia comparamos los precios del mismo viaje en Uber y
en taxis en 39 ciudades alrededor del mundo. En 36 de las 39 ciudades Uber es más barato que el
taxi. Entre las 3 ciudades en las que la plataforma es más cara, la diferencia promedio es de solo
USD 0,24. En cambio, en las 36 ciudades donde el taxi es más oneroso, la diferencia promedio
pasa a ser de USD 2,20.
Si observamos los promedios de precio de los dos servicios también vemos las asimetrías.
Mientras que la media de precios de los taxis es de USD 3,88 la de Uber es de USD 1,87. Lo que
indica que en el capitalismo tradicional el servicio cuesta más del doble. A lo que se le agrega que
la desviación estándar, que muestra como los datos se alejan del promedio, es mucho mayor en
los taxis que en Uber, USD 2,09 y USD 0,91, respectivamente. Indicando que la economía de
plataforma no solo baja los precios, que no significa que baje los costos en igual medida, sino que
también los agrupa en los niveles más bajos.
A continuación, mostramos gráficamente la comparación de los precios de estos servicios
en cada una de las ciudades. En la mayoría de los casos el precio del taxi es mayor que el de
Uber, pero, además, la diferencia es más acentuada en los casos que el Taxi es más caro que
Uber, y es más ajustada en los casos donde Uber es más caro.
Taxi Uber
En el siguiente gráfico vemos que Uber, además, produce una concentración de las ciudades
en los cuartiles de precios bajos, cuando en el caso de los taxis observamos una distribución más
homogénea a lo largo de todos los cuartiles. El primer cuartil concentra el 58,9 % de las ciudades
para Uber y el 35,8 % para los taxis. El segundo cuartil, tiene 12 ciudades en el caso de los taxis y
sólo 7 para Uber. Marcando una caída suave para los taxis y abrupta en la economía de
plataforma. Esto nos muestra que Uber está haciendo que trabajos de países que en el modelo de
capitalismo tradicional tenían remuneraciones mayores migren hacia zonas de menores ingresos
en el capitalismo de plataformas. Este proceso está profundizando las desigualdades que ya
estaban presentes en la economía tradicional.
20
15 14
12
10
7 7
6 6
5 3
0
1º Cuartil 2º Cuartil 3º Cuartil 4º Cuartil
Uber Taxi
A pesar de estos efectos negativos que está teniendo la irrupción rápida y global de Uber,
observamos que este fenómeno se está basando en dos ventajas comparativas. El uso de una
aplicación para coordinar el traslado y los precios más bajos.
El uso de una App está dejando de ser un diferencial, dado que en la mayoría de los países las
empresas de taxis o los gobiernos ya han lanzado sus propias plataformas, tales como “PideTaxi”
en España, “Voy en Taxi” en Uruguay o “BA Taxis” en Buenos Aires. Aunque la ventaja que
sigue manteniendo Uber es que su App se puede usar en más de 800 ciudades del mundo, a
diferencia de sus competidoras locales.
La otra ventaja, los precios bajos son posibles por varias innovaciones del modelo de negocio.
Entre ellas destacan que la empresa busca penetrar los mercados como una empresa tecnológica,
y no de movilidad, ya que de esta manera las leyes que la regulan son diferentes y evita costos,
sobre todo, laborales (Srnicek, 2018; Subirats, 2019). Además, reduce gastos en mandos
intermedios que debieran supervisar a los choferes, lo que define si se los mantiene o se los
desvincula es la valoración de los pasajeros (Zuboff, 2019). Sin lugar a duda, el mayor ahorro fue
que la empresa no tuvo que comprar los 3,9 millones de autos que prestan servicio a su nombre
a nivel mundial, en esta decisión radica la mayor originalidad de este modelo de negocios. Uber
no tuvo que adquirir ni un solo automóvil para prestar servicios de transporte. Por lo cual no
tiene el costo financiero de una inversión de esta envergadura, un capital que, por otro lado,
tuvieron que poner a disposición de la empresa los propios choferes. Para que nos hagamos una
idea de qué niveles de inversión estamos hablando: si todos estos autos fueran comprados en
EE. UU. y fueran un auto mediano, como el Volkswagen Golf, serían al menos 62.400 millones
dólares. Monto equivalente al PBI de Uruguay en 2018. El corolario de esta estrategia es la
posibilidad de acceder a grandes niveles de inversión desde la bolsa de Wall Street que sostienen
el déficit operativo de la Empresa (Kwet, 2019; Srnicek, 2018).
Más allá de las estrategias empresariales, al observar las retribuciones que reciben los choferes
de Uber encontramos que la plataforma estaría erosionando las condiciones en las que se presta
el servicio en países de renta media. Según el documento de salida a Bolsa de Uber, el costo de
mantenimiento de un automóvil varía según el continente. El más caro es Oceanía y el más
barato es África. Lo interesante es que en los países donde los pasajeros pagan un precio más
alto el chofer se queda con un mayor porcentaje del beneficio, porque los costos que debe
afrontar son menores. Por ejemplo, en París los costos son solo el 10 % de lo que recibe el
chofer como pago, en cambio en México D.F. son el 50 %.
Fuente: elaboración propia a partir de Uber, 2019 y Programa de las Naciones Unidas para el
Desarrollo, 2019.
Dividimos el gráfico en cuatro Secciones12. Observamos que hay pocos casos, 8 ciudades, que
se encuentran en el cuadrante de países de bajo desarrollo humano relativo y con precios bajos
en Uber. Igual de nutrido está el grupo de países con altos niveles de desarrollo humano relativo
y con precios altos. Y vemos que el grupo más numeroso, con 23 ciudades, tienen un IDH
relativamente alto, pero con una variación importante del I.U. Vale la pena observar que no hay
casos en el cuadrante que vincula I.D.H. bajo con precios altos, por lo que nos permitiría
sostener que la estrategia de precios de la empresa Uber sostiene una relación con el desarrollo
de los países. Cuestión que indicaría que esta estrategia no permitiría al chofer y a la empresa
multinacional lograr precios altos en naciones empobrecidas13.
En el análisis de clúster, identificamos cuatro grupos de ciudades. Lo primero que salta a la
vista es la concentración de tres de los cuatro clústeres en la mitad inferior en lo que ha I.U. se
refiere. Lo que estaría mostrando que los niveles de desarrollo no son capaces de explicar el nivel
de precios; y que la Plataforma ha logrado establecer precios bajos para sociedades con niveles
altos de desarrollo, tales serían los casos de Madrid, Ottawa y Zagreb. Lo que nos podría indicar
que la definición del precio que hace la empresa Uber está empobreciendo a trabajadores de
12 La división en el eje de la abscisa está dada por la mitad del I.U. obtenido en el mes de noviembre de 2019. La
división en el eje de la ordenada para separar los cuartiles del Informe para el Desarrollo en dos. La mitad inferior
está conformada por los países con IDH “baja” y “media” y la mitad superior con países con IDH “alta” y “muy
alta”.
13 Para contrastar esta afirmación, hicimos este mismo análisis con los precios de Taxi, y observamos que 4 casos se
encuentran dentro del cuadrante de IDH bajo con precio de taxi alto. Los casos que se encontraron dentro de este
grupo son: Nairobi, San Salvador, Beirut y Santo Domingo. Este último, está sobre la media de los anteriores, pero
claramente en el clúster que reúne las características enunciadas.
países con IDH alto y muy alto. Precarización 14 que se acentúa entre los países del Sur Global 15
(Subirats, 2019).
El fenómeno de países con IDH similar, pero con precios diferenciados se vuelve a reconocer
entre los clústeres de color violeta y de color azul. En el clúster violeta encontramos ciudades
con IDH alto y muy alto pero con precios de IU en la mitad inferior. En estos países se debilita
la relación entre niveles desarrollo y precio de Uber. Abriendo la puerta a un proceso de
empeoramiento de los ingresos de los conductores de diversos países. Dado que, a niveles
similares de desarrollo humano, perciben menores ingresos. Tales son los casos de Buenos Aires
y Bucarest.
Al graficar la distribución de IDH y el precio del taxi, el resultado cambia notablemente. Lo
primero que se modifica es la dispersión de los precios, que es casi el doble que en el caso de
Uber. Además, vemos que surgen casos en todos los cuadrantes. Cuestiones que mostrarían la
ausencia de una definición centralizada del precio. Ejemplo de esta ausencia, es que en el
cuadrante de bajo nivel de IDH y precios altos de taxi tenemos tres casos, siendo muy cercano a
este cuadrante el caso de Santo Domingo. A prima facie pareciera que estos casos se producen en
ciudades donde el taxi está principalmente vinculado a la actividad turística, por lo cual alcanza
precios más elevados. Además, observamos que el cuadrante de IDH bajo y precio de taxi bajo,
tiene solo a 5 ciudades que difieren fuertemente en los niveles de precio.
14 Frente a la importante diversidad de conceptualizaciones de Precariedad laboral, nosotros hemos decidido emplear
un concepto construido a partir de las conceptualizaciones de la Organización Internacional de Trabajo, el trabajo
precario es el trabajo que se realiza en la economía formal e informal y que se caracteriza por la incertidumbre que
acarrea en cuanto a la duración del empleo, la presencia de varios posibles empleadores y una relación de trabajo
encubierta o ambigua que traslada los riesgos y responsabilidades de la actividad a los trabajadores (2012, p. 32).
15 A esta observación sólo escapan los precios que reciben los choferes en Montevideo y Santiago de Chile.
16 Para observar los emergentes que genera la desorganización en los mercados que produce la irrupción de Uber en
la capital Argentina se puede visitar: https://www.clarin.com/ciudades/batalla-campal-taxistas-choferes-uber-pleno-
centro_0_v44d2_Jb-.html
6. Conclusiones
A partir de la comparación del Índice Uber en todas las ciudades, en los tres períodos de tiempo
(marzo, junio y noviembre de 2019) vemos el gran dinamismo que tiene la tarifa del servicio de
Uber. Al comparar los datos de marzo y junio se observa un aumento de la tarifa promedio del
10,7 %, en cambio entre los datos de junio y noviembre se produjo una caída promedio de 4,3
%. Estas variaciones son suavizadas si calculamos la diferencia entre la primera y la última toma
de datos, que nos termina dejando un aumento promedio del 2,2 % 17. A partir de los datos
analizados, se podría afirmar que la estrategia de la empresa a nivel global es la de ingresar con
precios bajos, y a medida que se consolida en el mercado aumentar los precios. Sin embargo, es
prudente tener una serie histórica de largo plazo del comportamiento de los precios, para afirmar
con mayor evidencia tal hipótesis.
Llegados a esta instancia nos preocupamos por el funcionamiento del mercado de transporte
de personas en vehículo con chofer en el capitalismo tradicional, lo que se conoce como
servicios de taxis. Así comparamos los ingresos por viajes – tarifas aprobadas, con el
funcionamiento de los precios de Uber en las mismas ciudades capitales en las que se trabajó
para la construcción del Índice Uber. De los datos sistematizados podemos indicar que, en 36 de
las 39 ciudades, Uber es más barato que el taxi. Al analizar las 3 ciudades en las que la plataforma
es más cara, la diferencia promedio es de solo USD 0,24. En cambio, en las 36 ciudades donde el
taxi es más oneroso, la diferencia promedio es de USD 2,20. La comparación en la distribución
de los datos nos permite afirmar que la economía de plataforma no solo baja los precios, sino
que también los agrupa en los niveles más bajos. Esto no implica que los costos desciendan en
igual medida, lo interesante es que en los países donde los pasajeros pagan un precio más alto, el
chofer se queda con un mayor porcentaje del beneficio neto. Por ejemplo, en París los costos
son solo el 10 % de lo que recibe el chofer como pago, en cambio en México D.F. son el 50 %.
Con el fin de profundizar la relación entre los ingresos de los choferes de Uber y las
condiciones de vida de los países en lo que esas personas trabajan, y para conocer cómo los
montos que cobran los choferes de Uber se condicen con los niveles de desarrollo humano,
construimos un gráfico de dispersión para mostrar la relación entre estas variables. Para eso
estudiamos la vinculación entre el Índice Uber y el Índice de Desarrollo Humano elaborado por
el Programa de Naciones Unidas para el Desarrollo.
El resultado más notable de la investigación fue mostrar cómo Uber ha logrado establecer
precios medios inferiores a los valores IDH en cuestión, llevando a que países con niveles
medios - altos y altos tengan precios de Uber mucho más bajos que los que tenían con los taxis.
Además, la figura 5 muestra la consistencia de la estrategia de precios bajos de la Empresa de
Plataforma Uber a nivel global, más allá de las obvias disparidades que tiene el negocio en cada
ciudad. En cambio, al graficar la distribución de IDH y el precio del taxi – figura 6 -, el resultado
cambia notablemente. Lo primero que se modifica es la dispersión de los precios, que es casi el
doble que en el caso de Uber. Además, vemos que surgen casos en todos los cuadrantes.
Cuestiones que mostrarían la ausencia de una definición centralizada del precio.
Este fenómeno de empobrecimiento y precarización es posible por la existencia de subsidios
cruzados entre el capitalismo de plataforma y el capitalismo financiero que permite que las
17La inflación ajustada para ese mismo período de tiempo en los países bajo estudio fue de 1,79 % en base a los
datos (Banco Mundial, 2020). Vale la pena observar que se retiró de la muestra a la Argentina por ser una outlier.
empresas globales que cotizan en Wall Street sostengan déficits operativos durante largos
periodos de tiempo. Según Kwent (2019), se denomina Colonialismo digital. Otra de las
consecuencias de este Colonialismo es la desorganización de los mercados que prestaban el
servicio de vehículos de transporte de personas con conductor. La institucionalización de este
mercado tradicionalmente estaba signada, en la mayoría de los casos, por la presencia de al
menos tres componentes: un conductor con una habilitación determinada, un vehículo con una
identificación específica habilitado a circular y una licencia estatal -normalmente a nivel local- que
habilitaba a la prestación del servicio en cuestión, con ciertos gravámenes al favor del Fisco. La
institucionalización y regulación de éste mercado incluía algún mecanismo de fijación de tarifa,
objetivamente medible para la facturación por dispositivos tecnológicos específicos, como un
taxímetro, aunque en muchas ciudades estaba permitido que sea mediando negociación entre el
viajero y el chofer. Pero en el caso de la de la prestación de los servicios de vehículos de
transporte de personas con conductor mediante la plataforma Uber, desaparecen los tres
componentes y la tarifa pasa a ser definida por un algoritmo construido y administrado solo por
la Empresa.
Como históricamente ha sucedido en diversos mercados donde nuevas tecnologías inciden en
el cambio de las reglas para ofertar o demandar, el Estado debe interceder para resolver los
conflictos que traen aparejados este tipo de cambios, y el caso de Uber y su ingreso al mercado
de taxis no debe ser la excepción. El comienzo de las operaciones de Uber trajo consigo el
aumento de la violencia entre choferes de taxis y choferes de la plataforma. Inclusive en algunos
casos los enfrentamientos llegaron a presentarse como pequeñas “guerras civiles” entre ambos
bandos de choferes a lo largo de numerosas ciudades. Sólo para citar algunos ejemplos podemos
ver la ‘South African taxi wars’ (Kwet, 2019, p. 4) y la ‘batalla campal porteña’ (Clarin.com,
2019) en la Ciudad de Buenos Aires que lleva más de tres años sin un escenario claro de
solución. Estos, lejos de ser hechos aislados, han sido la norma en el desembarco de la aplicación
en las grandes ciudades del Sur global, lo cual también puede interpretarse como una estrategia
explícita de que terceros paguen los costos de ingresar en un mercado tradicional a partir de
plataformas.
Referencias
Ávalos, M., & Sofía, P. (2015). Baby, you can('t) drive my car. El caso de Uber en México.
Economía Informa, 390, 104-112. https://doi.org/10.1016/S0185-0849(15)30007-4
Bobbio, N., Matteucci, N., & Pasquino, G. (1991). Diccionario de Política. Siglo XXI Editores.
Castells, M. (1996). La red y el yo. Prólogo. En La era de la información: Economía, sociedad y cultura.
(Vol. 1, pp. 12-31). Oxford Blackwell Publishers.
Clarin.com. (2019, mayo 6). Batalla campal entre taxistas y choferes de Uber en pleno centro.
Diario Clarin. https://www.clarin.com/ciudades/batalla-campal-taxistas-choferes-uber-
pleno-centro_0_v44d2_Jb-.html
Colaboradores de Wikipedia. (2020, julio 6). Conflicto entre Uber y los taxistas. Wikipedia, La
enciclopedia libre.
https://es.wikipedia.org/w/index.php?title=Conflicto_entre_Uber_y_los_taxistas&oldid=1
27513003
González Pérez, M. G. (2017). Uber y movilidad urbana en la geografía metropolitana de
Guadalajara: Auge y declive. Geograficando, 13(1). https://doi.org/10.24215/2346898Xe020
Hutton, S., & Cantale, S. (2015). Uber: An Empire in the Making? (IMD-7-1654). International
Institute for Management Development.
Kenney, M., & Zysman, J. (2016). The Rise of the Platform Economy. Issues in science and
technology, 32, 61-69. https://doi.org/10.17226/21913
Kwet, M. (2019). Digital colonialism: US empire and the new imperialism in the Global South.
Race & Class, 60(4). https://journals.sagepub.com/doi/10.1177/0306396818823172
Madariaga, J., Buenadicha, C., Molina, E., & Ernst, C. (2019). Economía de plataforma y empleo:
¿Cómo es trabajar en una APP en Argentina? CIPPEC - BID - OIT.
Organización Internacional del Trabajo. (2012). Del trabajo precario al trabajo decente: Documento final
del simposio de los trabajadores sobre políticas y reglamentación para luchar contra el empleo precario. OIT.
Preciosmundi.com. (2019, julio 2). Preciosmundi.com. https://preciosmundi.com/
Programa de las Naciones Unidas para el Desarrollo. (2019). Informe sobre Desarrollo Humano
2019. PNUD. http://hdr.undp.org/sites/default/files/hdr_2019_overview_-_spanish.pdf
Rosenblat, A. (2019). Uberland. How Algorithms Are Rewriting the Rules of Work. University of
California Press Books.
Schiller, H. (1978, enero 1). Decolonization of Information: Efforts Toward a New
International Order. Latin American Perspectives, 5(1), 35-48.
Srnicek, N. (2018). Capitalismo de plataformas. Caja Negra Editora.
Subirats, J. (2019). ¿Del poscapitalismo al postrabajo? Nueva Sociedad, 279, 34-48.
Tomino, P. (2016, abril 4). Uber en Buenos Aires: Un experimentado lobbista negocia con las
autoridades. La Nación. https://www.lanacion.com.ar/buenos-aires/uber-en-buenos-aires-
un-experimentado-lobbista-negocia-con-las-autoridades-nid1885858
Uber. (2018). Ciudades Uber. Uber. https://www.uber.com/es-AR/cities/
Uber. (2020a, abril 17). Guías Comunitarias de Uber Latinoamérica y el Caribe (excepto Brasil) [Página
Oficial Uber]. https://www.uber.com/legal/en/document/?name=general-community-
guidelines&country=mexico&lang=es
Uber. (2020b, julio 10). When did Uber go public, and on what stock exchange is Uber traded?
FAQ and resources. https://investor.uber.com/faq-resources/default.aspx
United Nations Development Programme. (2010). Human Development Report 2010 (2010.a ed.).
Palgrave Macmillan.
Van Dijck, J., Poell, T., & De Waal, M. (2018). The platform society: Public values in a connective world.
Oxford University Press.
Vidal Correa, L. (2018, agosto 21). Uber abre una oficina en Palmares Open Mall. El Ciudadano.
https://www.ciudadanodiario.com.ar/nota/2018-8-21-12-5-38-uber-abre-una-oficina-en-
palmares-open-mall
Williams, A., & Srnicek, N. (2013). Manifiesto por una política aceleracionista (Comité Disperso,
Trad.). https://syntheticedifice.files.wordpress.com/2013/08/manifiesto-
aceleracionista1.pdf
Wikimedia Commons, the free media repository. Protestas contra Uber en Buenos Aires.jpg.
(2020, June 20). Recuperado 15:59, julio 15, 2020 de
https://commons.wikimedia.org/w/index.php?title=File:Protestas_contra_Uber_en_Bueno
s_Aires.jpg&oldid=427711468.
Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier
of Power. Public Affaire.
Cómo citar: Dughera, L. y Bordignon, F. R. (2021) Accesos, usos y percepciones sobre contenidos
audiovisuales en YouTube. Una mirada a estudiantes de escuelas secundarias técnicas. Revista Hipertextos,
9 (15), 125-142. DOI: https://doi.org/10.24215/23143924e031
Resumen. Las plataformas han tenido en la última década, por lo menos, un crecimiento continuo y
acelerado. Dentro de este contexto, los usos que las y los jóvenes realizan de estas resultan significativos.
YouTube no es ajena a dicho fenómeno, más aún ha cobrado relevancia no sólo en términos
cuantitativos, sino también cualitativos. Es decir, tanto en el número de suscriptores y visualizaciones,
como en la variedad del contenido ofrecido. Así, en un horizonte más amplio que nos permita
comprender los procesos de aprendizaje que despliegan las y los jóvenes en dichos espacios, nos
proponemos, por un lado, caracterizar los usos de YouTube que realizan las y los estudiantes de escuelas
técnicas de sectores populares y, por otro, describir las percepciones que tienen dichos actores respecto
de esta plataforma como espacio de resolución de problemas vinculados tanto a la educación informal
como a la formal. Metodológicamente, presentamos los resultados de una encuesta en línea realizada en
2019 a estudiantes del ciclo básico de escuelas secundarias públicas técnicas del partido de La Matanza,
provincia de Buenos Aires, Argentina.
1 Investigadora Asistente del CONICET. Doctora en Ciencias Sociales (FLACSO), Magíster en Ciencia, Tecnología
y Sociedad (UNQ), Licenciada en Sociología (UBA) y Profesora para la Enseñanza Primaria (Normal Nº1). Dirige el
Proyecto PICT Joven (2016/1952) Análisis de la incorporación de tecnologías digitales e Internet en la institución
educativa. Estudio comparativo de las dinámicas socio-técnicas en las escuelas públicas primarias comunes. Es
docente de grado en la Facultad de Cs. Sociales (UBA), en la materia Tecnologías Educativas y en la Universidad
Maimónides. Integra el Equipo de Estudios sobre Tecnología, Capitalismo y Sociedad (e-TCS) y el Observatorio
Interuniversitario de Sociedad Tecnología y Educación. luciladughera@e-tcs.org
2 Profesor Adjunto Regular en la Universidad Nacional de Luján y Profesor Asociado Regular en la Universidad
Pedagógica Nacional, en relación con la alfabetización mediática y el desarrollo de capacidades relacionadas con el
hacer digital crítico. Investigador del integra el Observatorio Interuniversitario de Sociedad Tecnología y Educación.
Licenciado en Sistemas de información, Universidad Nacional de Luján, Argentina; Magister en Redes de Datos,
Universidad Nacional de La Plata, Argentina y Doctor en Educación, Universidad Nacional a Distancia de España..
Contacto: fernando.bordignon@unipe.edu.ar
Accesses, uses and perceptions of audiovisual content on YouTube. A look into technical high
school students.
Abstract. The platforms have had in the last decade, at least, a continuous and accelerated growth.
Within this context, young people make these uses are significant. YouTube is no stranger to this
phenomenon, even more so it has gained relevance not only in quantitative terms, but also in qualitative
terms. That is, both in the number of subscribers and views, and in the variety of content offered. Thus,
in a broader horizon that allows us to understand the learning processes that young people deploy in
those spaces, we propose, on the one hand, to characterize the uses of YouTube made by school students
techniques of popular sectors and, on the other hand, describe the perceptions that these actors have
regarding this platform as a space for solving problems linked to both informal and formal education.
Methodologically, we present the results of an online survey carried out among students of the basic cycle
of technical public secondary schools of the La Matanza district in 2019.
Keywords: learning, YouTube, students, technical high schools.
Resumo. As plataformas tiveram na última década, pelo menos, um crescimento contínuo e acelerado.
Nesse contexto, os usos que os jovens fazem deles são significativos. O YouTube não é estranho a esse
fenômeno, ainda mais que ganhou relevância não só em termos quantitativos, mas também em termos
qualitativos. Ou seja, tanto no número de assinantes e visualizações, quanto na variedade de conteúdos
oferecidos. Assim, num horizonte mais amplo que nos permite compreender os processos de
aprendizagem que os jovens implantam nesses espaços, propomos, por um lado, caracterizar os usos do
YouTube feitos por alunos de escolas técnicas de setores populares e, por outro lado, descrever as
percepções que esses atores têm sobre essa plataforma como um espaço de resolução de problemas
ligados à educação formal e informal. Metodologicamente, apresentamos os resultados de um inquérito
online realizado junto dos alunos do ciclo básico do ensino secundário técnico do distrito de La Matanza
em 2019.
1. Introducción
A partir de la masificación de Internet, el saber, junto con los diferentes soportes en los que se
objetiva, ha comenzado a evidenciar transformaciones tanto en su producción como en sus
modos de circulación y consumo (Martín-Barbero, 2003). Dichas modalidades no solo han
tensionado las formas de producción de este, sino también a las instituciones modernas que
históricamente se han abocado a (re)producirlo. En efecto, se identifica una diversidad de
cuestionamientos y tensiones en torno a la educación formal3, específicamente a las estrategias de
producción y transmisión de dicho saber y a los actores encargados de este. En contraste con
esto, se advierte que tanto la educación informal como no formal4 han ganado terreno en dichos
procesos de producción y transmisión y se han empezado a erigir como espacios reconocidos
para ello.
En dicho escenario, las tecnologías digitales en general y las plataformas5 en particular tienen
un papel protagónico. YouTube forma parte de dicha escenografía y, tal como lo advierte Scolari
(2018) para el caso de las y los jóvenes., por el momento, parecería tener uno de los papeles
principales. En efecto, consideramos que dada la impronta de esta plataforma en la construcción
de dichas subjetividades y, a la vez, las diversas estrategias de resolución de problemas que estos
actores sociales encuentran allí, resulta de interés adentrarnos en el acceso, los usos6 y las
percepciones que portan las y los estudiantes de escuelas técnicas de sectores populares, ya que
pueden darnos pistas para precisar no sólo cómo utilizan dicho espacio, sino también cómo van
tejiendo conversación entre aquellas necesidades que surgen de sus inquietudes extraescolares y
las necesidades de la educación formal. En función de los objetivos esgrimidos, se entiende a los
usos “como posibilidades abiertas de juegos de lenguaje, donde la regularidad y continuidad de
los modos de uso, ya sean reproductivos o creativos, por parte de los jóvenes, devienen en
prácticas comunicacionales habituales (mutables y persistentes) en la contemporaneidad”
(Murolo, 2014, p. 56).
YouTube es una plataforma privativa destinada a producir, almacenar, compartir, visualizar,
comentar y valorar contenidos audiovisuales 7 (CAV) en línea (Dolcemáscolo, 2016; 2017).
Específicamente, “el sitio se sirve de los contenidos producidos por los usuarios para llenar su
cartelera, generar tráfico de usuarios y atraer anunciantes publicitarios” (Dolcemáscolo y
Dughera, 2019, p. 3). Así, dichos CAV pueden ser producidos tanto por principiantes como por
profesionales y tener diversas finalidades, desde el “simple” compartir una producción hasta la
3 Se entiende a la educación formal como "el sistema educativo altamente institucionalizado, cronológicamente
graduado y jerárquicamente estructurado que se extiende desde los primeros años de la escuela primaria hasta los
últimos años de la universidad" (Coombs y Ahmed, 1975, p.27).
4 Aquí se entiende por educación informal "al proceso que dura toda la vida y en el que las personas adquieren y
acumulan conocimientos, habilidades, actitudes y modos de discernimiento mediante las experiencias diarias y su
relación con el medio ambiente" y por educación no formal "a toda actividad organizada, sistemática, educativa,
realizada fuera del marco del sistema oficial, para facilitar determinadas clases de aprendizaje a subgrupos
particulares de la población, tanto adultos como niños" (Coombs y Ahmed, 1975, p. 27)
5 “Las plataformas son definidas como infraestructuras digitales que permiten la interacción de dos o más grupos”
(Srnicek, 2017, p 55)
6 “La pregunta por los usos de las tecnologías de la comunicación, constantemente novedosas y configuradoras de
nuevas prácticas sociales, es una pregunta por la relación de un sector específico, etario, social y territorial, con las
condiciones cambiantes de representación y comunicación de la realidad que les toca vivir con los otros, ante los
otros y en medio de disputas de sentido” (Murolo, 2014, p. 54)
7 Se entiende a los CAV como la pieza audiovisual más todos los metadatos que lo acompañan (ya sea datos del
creador como aquellos derivados de las interacciones con otros usuarios). En efecto, los CAVs resultan las piezas
fundamentales del continente YouTube, aunque dicha plataforma los excede por mucho.
monetización de esta (Van Dijck, 2016). Sin embargo, tal como se ha identificado en uno de los
trabajos emblemáticos sobre la plataforma (Burgess y Green, 2009), la “cultura participativa” que
allí se construye lejos se encuentra de ser un espacio libre de tensiones.
En cuanto a las y los usuarios de la plataforma sobresale el uso intensivo que realizan las y los
jóvenes. Ellos ven a YouTube como un espacio donde pueden encontrar cualquier tipo de
contenido (Scolari, 2018) y por lo tanto también lo perciben como motor de búsqueda para
encontrar recursos de aprendizaje, dejando de lado los servicios ofrecidos por los grandes
buscadores, tales como Google o Bing (Pires y otros, 2019; Scolari, 2018). En tal sentido,
parecería ser que YouTube se está configurando como el buscador por defecto para una buena
parte de las y los jóvenes.
Más allá de que en los inicios YouTube haya sido un espacio de recursos para el
entretenimiento, con el paso del tiempo empezaron a producirse, almacenarse y circular recursos
audiovisuales relacionados con el aprendizaje y la enseñanza (Van Dijck, 2016). De esta manera,
tutoriales, recetas, videos paso a paso, tips para reparar y mantener cosas o trucos que enseñan
cómo avanzar en videojuegos empezaron a ser más frecuentes en la oferta de la plataforma. Así,
YouTube se tornó una referencia para el aprendizaje informal.
Para los jóvenes YouTube es uno de los espacios de aprendizaje informal más importantes y
ocupa un lugar central en el consumo mediático de contenidos y, a veces, de producción.
YouTube es la gran escuela “a distancia” de las nuevas generaciones (Scolari, 2018b, sp).
Las demandas de las y los jóvenes, en relación al aprender, pueden dividirse a grandes rasgos
en dos categorías: a) aquellas vinculadas con su cotidianidad extraescolar que surgen de
cuestiones que los motivan, afectan, interpelan, entre otras, y b) aquellas relacionadas con
demandas que nacen en y del sistema de educación formal. En este escrito, partimos del
supuesto de que ambas resultan complementarias. Así, en esta ocasión, nos adentramos, por un
lado, en los accesos y usos que realizan las y los estudiantes de escuelas técnicas de sectores
populares de YouTube y, por otro, en las percepciones que tienen dichos actores educativos de
aquellas necesidades que nacen en la enseñanza formal, más precisamente en el aula, y derivan
hacia la plataforma. Específicamente, en este artículo nos dedicamos a describir cómo
estudiantes de tres escuelas técnicas públicas del partido de La Matanza, provincia de Buenos
Aires, Argentina, utilizan YouTube en general y para sus estudios en particular. Algunas de las
preguntas que vertebran las líneas que siguen son: ¿Cómo acceden a YouTube? ¿Qué tipo de
contenidos buscan ahí? ¿Cuál es la frecuencia de uso de la plataforma? ¿Cómo y en qué medida
YouTube les permite resolver algunas de las inquietudes que surgen de su vida extraescolar y de
la educación formal en particular?
En este artículo se presentan los primeros resultados de una investigación más amplia, que se
está llevando a cabo, sobre ciertos desacoples en la educación formal. Específicamente, allí
analizamos a la plataforma YouTube como una fuente de recursos para el aprendizaje informal
en diálogo con necesidades o problemas que se originan en las instituciones escolares. Estudiar
las demandas de las y los estudiantes en relación a los CAVs nos permite construir conocimiento
acerca de los mencionados desacoples.
El artículo está organizado en cuatro secciones. Esta primera parte oficia de introducción, y
funciona como primera sección. Luego, la segunda consiste en una descripción del estado del
arte respecto tanto de los usos que realizan las y los estudiantes de los contenidos disponibles
como de las intersecciones que se han encontrado con la educación formal. En la tercera sección,
analizamos los resultados de nuestro trabajo de campo realizado en el primer ciclo de escuelas
técnicas del distrito de La Matanza entre septiembre y diciembre de 2019. Por último, ensayamos
algunas conclusiones.
realizado en Argentina, en agosto de 2017, se identifica que el 59% de los adultos que
participaron señalaron que los videos YouTube les habían ayudado a aprender cómo se realiza
algo o cómo adquirir nuevas habilidades (Google, 2017). Un estudio sobre métodos de
educación, realizado a personas de entre 14 y 40 años en Norteamérica (Pearson Education,
2018), indica que hay evidencias de que estos sujetos están cambiando sus preferencias en
relación a los métodos de aprendizaje. En particular, los jóvenes de entre 14 y 23 años señalan
que los videos en línea de la plataforma YouTube son su medio preferido de aprendizaje, seguido
de las actividades en grupo, las aplicaciones educativas, los juegos interactivos y finalmente los
libros de texto.
El segundo corpus bibliográfico caracteriza los usos que realizan las y los jóvenes de
YouTube en relación con sus necesidades e intereses de aprendizaje. En la educación superior se
identifica el trabajo de Moghavvemi y otros (2018) quienes confirmaron que el entretenimiento,
la búsqueda de información y el aprendizaje académico son las principales motivaciones para
usar la plataforma. Específicamente, los estudiantes consideran que los CAV ayudan a responder
preguntas y resolver problemas. De esta forma, dichos recursos son identificados como una
herramienta complementaria para el aprendizaje.
Ya en el nivel secundario, se destaca el trabajo de Pires y otros (2019) quienes, por un lado,
señalaron que las y los jóvenes aprenden en YouTube a partir de una serie de prácticas (aprender
haciendo, resolver problemas, ensayo y error y responder preguntas) y, por otro lado,
identificaron metáforas (MOOC, espacio informal de aprendizaje, motor de búsqueda y
repositorio de tutoriales) que permiten describir las representaciones juveniles en relación a los
usos y prácticas educativas en la plataforma8. Por último, se identifica un estudio reciente a
estudiantes argentinos de primer ciclo de la escuela técnica sobre la relación que éstos tienen con
las tecnologías digitales (Bordignon, 2020). En particular sobre los CAVs, se observa que la
plataforma YouTube es intensamente utilizada por los estudiantes para distintos propósitos,
incluso, para estudiar y aprender cosas que los motivan o afectan por medio de tutoriales.
El tercer conjunto de trabajos que identificamos intenta precisar los usos que realizan las y los
jóvenes de los CAVs de la plataforma YouTube y, al mismo tiempo, su relación con las
necesidades e intereses surgidos de la educación formal. En el ámbito de la educación superior se
destaca el estudio de Nagumo y otros (2020), quienes analizaron hábitos de uso de dichos
contenidos por parte de estudiantes, para complementar sus estudios formales y propusieron
cuatro categorías (aprendizaje de contenidos, revisión de contenidos, preparación de pruebas y
recursos audiovisuales). En línea con dichos aportes, Usaini y otros (2019) observaron que
YouTube es utilizada para el aprendizaje informal ya que allí los estudiantes señalaron aprender
una diversidad de temas que no habían sido adquiridos en el proceso formal de educación. Más
específicamente, se halla un estudio realizado a estudiantes indios que examinó el uso de
YouTube con fines educativos por parte de dichos actores (Shimray y Ramaiah, 2020). Allí
identificaron que los CAVs no solo ayudaron a preparar tareas, presentaciones y seminarios, etc.,
sino que también les permitió lograr un mejor resultado educativo.
En el nivel de la educación secundaria, Masanet y otros (2019) indican que las y los
adolescentes establecen una estrecha relación con los medios, entre otros YouTube, y se
8 Se detectaron cinco usos de YouTube: radiofónico, televisivo, social, productivo y educativo. En la investigación
se observa que la mayoría de los usos están asociados a las rutinas cotidianas de estos jóvenes, en particular con la
forma en que adquieren conocimientos y desarrollan habilidades. De manera complementaria, se identificaron una
serie de analogías a partir de analizar elementos de su discurso.
configuran como “aprendices digitales”. Así, sus prácticas se caracterizan por una lógica más del
"mostrar, no decir" y se basan en un aprendizaje por imitación. En tanto, adentrándonos en las
motivaciones que señalan tener las y los estudiantes acerca del uso de YouTube un estudio
aplicado a estudiantes de los cursos 3º y 4º de ESO en España (Hurtado Sanjurjo, 2017), observa
que "(l)os adolescentes reconocen un amplio uso didáctico de los vídeo tutoriales. Son muchos
los que conciben estas grabaciones como una ayuda valiosa para poder reforzar los contenidos
curriculares desarrollados en clase, incluso para ser capaces de aprobar asignaturas."
Finalmente, Bardakci (2019) examina el uso educativo de YouTube por parte de estudiantes
de bachillerato. Allí indica que la expectativa de desempeño y la influencia social son factores
predictivos significativos de la intención conductual del uso de YouTube. En particular, “será
más probable que los participantes usan YouTube con fines educativos si perciben que el
aprendizaje a través de este recurso digital mejoraría su rendimiento académico” (p. 13)
Estos aportes resultan sumamente valiosos ya que nos permiten, por un lado, dimensionar el
protagonismo de la plataforma en relación a los diferentes tipos de educación, sobre todo
informal y, por otro, acercarnos a las representaciones que tienen las y los estudiantes respecto
de YouTube como espacio de resolución de inquietudes y/o dificultades en general y escolares
en particular. Sin embargo, identificamos cierta vacancia en relación a los usos que realizan los
estudiantes de escuelas técnicas de sectores populares y cómo dichos usos podrían
complementar la educación formal. Dicho aspecto es el centro del trabajo que presentamos a
continuación.
Estas diversas formas de hacer que se proponen allí, como diseñar, construir, reparar, ensayar,
etc. o, en un sentido amplio, el lugar del hacer como protagonista de esta modalidad, ofrecen a
los estudiantes un abanico de oportunidades para que habiten problemas y propongan prototipos
de soluciones y, en el mismo movimiento, tallan una subjetividad proclive a aprender haciendo.
Dicha marca de agua se ha visto afectada por la incorporación de las tecnologías digitales e
Internet en al menos dos niveles. El primero reside en la digitalización de los diferentes procesos
de enseñanza práctica que allí se realizan. El segundo, íntimamente emparentado con el anterior,
consiste en los usos que las y los estudiantes de este tipo de escuelas despliegan respecto a la
tecnología en general y las digitales en particular.
3.2. Análisis de los accesos, usos y percepciones sobre YouTube por parte de estudiantes
de primer ciclo de escuelas técnicas de La Matanza
En esta sección nos dedicamos a presentar los resultados de nuestro trabajo de campo. Este fue
realizado durante los meses de septiembre y diciembre en 2019. Dicho trabajo, de corte
cuantitativo, consistió en una encuesta en línea, con preguntas abiertas y cerradas, a estudiantes
de Escuelas Secundarias Técnicas (EST) del partido de La Matanza. Específicamente, se
encuestaron a estudiantes del primer ciclo (1º, 2º y 3º año) de las siguientes escuelas: EST 11 en
Ciudad Evita, EST 7 en Gregorio de Laferrere y EST 14 en González Catán9.
La selección de las escuelas técnicas se sustenta, tal como ha sido señalado en la sección
anterior, en el papel protagónico que tienen en los procesos de enseñanza y aprendizaje el saber
hacer y, al mismo tiempo, la cotidianeidad con la que las y los estudiantes de este tipo de
instituciones utilizan los artefactos. Así pues, partimos de suponer que en las escuelas técnicas se
talla una subjetividad proclive a resolver problemas a partir del uso de tecnologías. Aquí entonces
queremos identificar en qué medida YouTube forma parte de dicha representación.
En relación al instrumento de recolección de datos, estese estructura en: 1) preguntas
orientadas a indagar acerca de las modalidades, el tiempo de uso a la plataforma y 2)
interrogantes relacionados con los motivos de acceso a los CAVs disponibles en YouTube por
parte de las y los estudiantes.
El tamaño del universo se conforma por 1.472 estudiantes. Se define una muestra con una
heterogeneidad de 50%, margen de error de 5.5% y nivel de confianza 95%, con lo cual el
tamaño de esta fue de 264 casos. Cabe aclarar que a partir de las respuestas obtenidas en relación
al uso de CAVs en YouTube se cuenta con 258 estudiantes que usan la plataforma. En términos
sociodemográficos, las y los encuestados se distribuyen entre 22% femenino y 78% masculino.
Dicha distribución resulta esperable en relación a la masculinización hasta el momento de las
escuelas secundarias técnicas. En cuanto a sus edades: menor igual que 12 años 21%; 13 años
26%; 14 años 39% y mayor igual a 15 años 14%.
9 En esta oportunidad se presentan los resultados correspondientes al distrito de La Matanza debido a su extensión
y población juvenil escolarizada. Permite observar, sin ánimo de representatividad “la relación del sistema escolar del
ciclo medio y los jóvenes” (Cammarota, 2020, p. 20). Específicamente en dicho partido se hallan catorce escuelas
técnicas. Aquí se encuestaron a las y los estudiantes de tres de ellas que por sus características representan al distrito
escolar bajo análisis.
En relación al primer bloque de preguntas, aquellas relacionadas con el tiempo de uso y sus
modalidades, identificamos quelas y los estudiantes secundarios bajo estudio acceden
cotidianamente a YouTube. Específicamente, el 77% de nuestros encuestados manifiestan ver
videos en línea todos los días, es decir, casi 8 de cada 10 estudiantes. En tanto, un 16% indica
que lo hace al menos una vez a la semana y solo un 2% señala que no ve videos en línea. Interesa
destacar que las y los estudiantes que acceden diariamente, lo hacen varias veces durante la
jornada (90%).
Respecto al dispositivo con que acceden a la plataforma, se identifica al celular como
tecnología digital de preferencia. Siete de cada diez de nuestros encuestados visualizan videos en
línea desde el celular. Dicha frecuencia está muy lejos de las otras pantallas habituales (Smart TV
27%, computadora de escritorio 20%, tableta 20% y computadora portátil 13%).
En cuanto al tiempo de permanencia en la plataforma, hallamos una distribución bastante
homogénea. Más aún, de las y los estudiantes que ven videos en línea todos los días el 53% pasa
una o más horas, en tanto un 47% indica que a lo sumo pasa una hora como máximo. Dentro
del tiempo de uso también identificamos, más allá de las visualizaciones, distintas formas de
interacción de las y los estudiantes con la plataforma YouTube:
La figura anterior amerita dos comentarios. En primer lugar, se identifica que las categorías
producir, subir y compartir, además de poder aglutinarse bajo un gran bloque relacionado con la
idea de “trabajo impago” y “entrega de contenido” a la plataforma (Dolcemáscolo y Dughera,
2019), tienen poca presencia. En tanto, comentar y calificar adquieren porcentajes relativamente
mayores que dichas categorías. Así, observamos que nuestros encuestados tienen como práctica
el comentar y calificar CAVs. En segundo lugar, se observa que la producción de videos es una
actividad que casi no tiene lugar entre estos actores educativos. Específicamente, más de 6 de
cada diez de dichos actores educativos señalan no producir CAVs. Si bien estos usos son
característicos de la franja etaria en la que se ubican las y los estudiantes encuestados,
consideramos que además hay cierto diseño de la plataforma que tracciona, enfatiza y premia este
tipo de prácticas (van Dijck, 2016)
En relación a para qué acceden las y los estudiantes del ciclo básico de la escuela técnica a la
plataforma, se destaca de manera central que buscan pasar el momento, divertirse y entretenerse,
así lo manifiesta el 90%. Luego, un poco más de un tercio (37%) indica que son una buena
referencia para aprender y un 32% destaca que la plataforma es un espacio válido para
informarse. Ambos porcentajes resultan contraintuitivos a lo que la literatura especializada ha
“Para ver música que me gusta, el reggeaton Daddy Yanke y otros y para hacer tareas o buscar
cosas que no entiendo o entendí“
“Lo uso generalmente para entretenerme, aprender manualidades y/o ejercicios que no entiendo
de la escuela”
“Para cuando necesito arreglar algo”
“Gameplays”
“Miro videos de deportes”
“Para ver series”
“Para entender y entretenerme”
Así, entre las temáticas “más solicitadas” para entretenerse se hallan entre las tres primeras
preferencias: videos musicales, humor/bromas y videos virales. En tanto, en relación al aprender
se identifican las siguientes: tecnología/ciencia, instrucciones acerca de cómo hacer cosas y
videos relacionados con el estudio.
En relación a qué aspectos de YouTube les gustan o, de otra manera, resultan destacables de
la plataforma, identificamos dos: i) aquellos relacionados con el contenido y ii) aquellos
vinculados con el diseño o formato de la plataforma.
i) En relación a los CAVs disponibles, señalaron:
“Podés aprender muchísimas cosas sin necesidad de leer o buscar mucho algo “
“que hay videos que te ayudan a comprender bien las cosas”
“que me da la posibilidad de informarme/entretenerme desde mi casa”,
“calidad que reproducen videos”.
Tal como podemos identificar, valoran positivamente tanto la calidad de la producción de los
CAVs como la diversidad temática de estos. En cuanto a la diversidad, dichos actores enfatizan
la variedad de contenidos, en particular aluden: “que podés encontrar casi todo”, “la variedad de videos”.
Así, se identifica que la estética “promovida” en los contenidos es un aspecto que dialoga con
una mirada propia de la época que ha ido sedimentando y calando esta subjetividad juvenil.
ii) En referencia al diseño o formato de la plataforma, las y los estudiantes de este estudio han
mencionado:
En este sentido, observamos el papel destacado que juegan las recomendaciones al momento
de la selección de los videos. Específicamente, un 64% de las y los estudiantes encuestados
suelen mirar los videos recomendados por YouTube. Esto supone que el condicionamiento
algorítmico (van Dijck, 2016; Srnicek, 2018) de la plataforma resulta efectivo.
En tanto, sobre los aspectos negativos, o que parecen no valorar de manera positiva, en
primer lugar, identificamos no solo que estos son significativamente menos que los positivos,
sino que a un 23% no “le molesta nada” de la plataforma. En segundo lugar, más de 6 de cada 10
estudiantes indican que la incorporación de publicidad no es de su agrado; sin embargo, por el
momento, esto parecería no resultar un motivo de “abandono” de la plataforma. Con lo cual, en
otros trabajos será necesario profundizar acerca de cuáles son los aspectos del diseño de la
plataforma que traccionan a “quedarse” allí o, por lo menos, ir y venir en esta.
En vías de alcanzar el segundo de los objetivos propuestos, describir las percepciones que
portan las y los estudiantes encuestados acerca de YouTube como espacio de resolución de
problemas, a continuación, las líneas que siguen se orientan a analizar cómo estos estudiantes
utilizan los CAVs para (re)mediar algunas dificultades y/o inquietudes en relación con sus
necesidades de aprendizaje10. Para ello comenzamos analizando cómo los videos de YouTube se
perciben como una fuente de información para “aprender a realizar cosas”. Para ello se
propusieron dos preguntas: “cuando surge la necesidad de saber, cómo hacer algo”, ¿qué haces
primero?” e inmediatamente después, “Y si lo anterior no resultó, ¿qué haces como segunda
opción para resolver el problema?”. En ambos casos, al menos el 50% recurre a tecnologías
digitales e Internet como forma de resolución. No obstante, si bien el ver videos está presente, su
frecuencia no resulta significativa. Más concretamente, sólo un 20% lo prefiere como
herramienta principal de asistencia.
A partir de la tabla anterior, es posible señalar por lo menos tres cuestiones. La primera reside
en identificar el lugar destacado de los Otros ya sean pares y/o figuras de autoridad, como,
profesores y profesoras al momento de canalizar dudas. Así, la (re)mediación a partir de otra
10 Cabe aclarar que dado lo incipiente de los diferentes resultados de nuestras investigaciones, consideramos que en
futuros trabajos será necesario recuperar la relación aprendizaje y CAVs. Más específicamente, centrar el análisis de
las demandas que nacen de la educación formal y se “resuelven” a la luz de los CAVs de YouTube. Entendemos que
en esa línea hay una potencial riqueza de conocimiento en diálogo con la construcción de una pedagogía
informacional.
subjetividad alcanza casi un 40% como primera opción, ascendiendo tres puntos como segunda
opción.
La segunda cuestión a señalar consiste en el lugar marginal que tienen los libros a la hora de
ayudar a resolver situaciones problemáticas con las que se enfrentan las y los encuestados. En
efecto, se identifica aquí cierto desajuste entre la necesidad de un “auxilio inmediato” y las
implicancias temporales y de comprensión que supone la lectura de un texto escrito. Así, es
posible señalar que un dispositivo histórico de la institución educativa moderna sobre el que se
erigió el proceso de enseñanza y de aprendizaje ha perdido, según nuestros encuestados, dicho
protagonismo. Este desacople resulta un problema pedagógico que reclama ser atendido desde la
educación formal de manera urgente y prioritaria. En algún punto, sería deseable un delicado
balance entre esas formas de aprender que parecerían inmediatas y una formación de más de
largo aliento.
La tercera cuestión refiere al lugar lateral de los videos. Los resultados obtenidos resultan
contrarios a lo que hemos identificado en otras investigaciones (Bordignon, 2020), ya que es bajo
el porcentaje de estudiantes que intentan “resolver” sus inquietudes a partir de visualizar videos
online. En este sentido, se nos plantean dos interrogantes, por un lado, en qué medida dicha
opción de respuesta, además de ser políticamente incorrecta, no queda subsumida indirectamente
en la categoría de respuesta “investigo en Google u otro buscador”. Por otro, si cuentan con la
disponibilidad de conectividad amplia para ver los resultados de las diferentes búsquedas que se
les presentan. En este sentido, cabe señalar cómo dicha disponibilidad va sedimentando una
forma de resolución diferencial o complementaria a la que históricamente ha tallado la institución
educativa del capitalismo industrial. De manera más específica, cabe considerar que en el sistema
educativo argentino todavía hoy lamentablemente se identifican, desde edades tempranas,
carencias en torno a habilidades relacionadas con la alfabetización informacional
(UNESCO/NFIL, 2003). Este tipo de alfabetización podría ayudar a recuperar aquellos saberes
informacionales que nuestros estudiantes tienen y, a la vez, robustecerlos a partir de su
conceptualización y reflexión.
Para finalizar y, a la vez, ilustrar las temáticas que prevalecen en las búsquedas de las y los
estudiantes encuestados, presentamos una selección de voces a partir de la pregunta de respuesta
abierta: “En caso que busques videos sobre "cómo hacer algo" en YouTube, ¿sobre qué temas
buscás más?”
Figura nº 3. Temáticas elegidas por las y los estudiantes según relación con
aprendizajes extraescolares y escolares
Dimensión Respuesta
Aprendizaje no “Cocina, construcción y estudios”
relacionado con la escuela “Cómo arreglar algo (auriculares, computadora, etc.)”
“Manualidades, sobre estudios, cocina”
“Como hacer ciertas cosas en videojuegos”
“Como hacer trucos en skate”
“Tutoriales de Pokemon”
"Para hacer manualidades y cocinar"
Del análisis de las 191 respuestas se puede destacar que las búsquedas que guían el “cómo
hacer algo” están en diálogo con dos aspectos de su vida: lo cotidiano y las necesidades que se
originan en la escuela. Dentro de dichas necesidades, es posible identificar dos tipos de respuesta,
por un lado, aquellas que se vinculan con la comprensión de los contenidos de la educación
formal y, por otro, con lo procedimental asociado a estos. En relación a lo procedimental, se
destaca el “cómo hacer”. En este sentido, se hallan dos situaciones diferentes de ese “saber
hacer”. La primera se relaciona directamente con lo inmediato y la urgencia de resolver una
problemática específica, por ejemplo, “Vi un video de Julioprfe y así aprobé matemáticas de 2do año”. En
tanto, la segunda está vinculada al “paso a paso” de la resolución, como, “A cómo hacer los
polinomios”.
4. Consideraciones finales
En primer lugar, a lo largo de estas páginas hemos identificado una serie de trabajos relacionados
con los usos educativos y extraescolares de YouTube. Allí, un aspecto a destacar consiste en la
ausencia de investigaciones que tengan como propósito recuperar las formas del hacer
extraescolar en YouTube y ensayen posibles diálogos y puentes con aspectos didácticos en la
educación formal, pero sobre todo con pedagogías que tejan conversaciones con el modo de
desarrollo informacional (Castells, 2001).
El presente trabajo tuvo por objetivos describir los usos que realizan de los CAVs de
YouTube las y los jóvenes de escuelas técnicas de sectores populares de La Matanza y, a la vez,
captar las percepciones que dichos actores portan de dicha plataforma como espacio de
resolución de problemas. Para ello en la primera parte presentamos, a partir de los resultados de
nuestra encuesta, los accesos y usos que efectúan las y los estudiantes de YouTube. Luego, nos
aproximamos a las impresiones que tienen dichos actores respecto a la plataforma como espacio
de aprendizaje que los asiste en la (re)mediación de problemas cotidianos y escolares.
En relación a dicha primera parte identificamos que los usos de CAVs se hallan muy
presentes en su vida cotidiana. En efecto, se evidencia tanto una alta frecuencia de acceso a
CAVs como de tiempo invertido en la visualización de estos. Un segundo aspecto a destacar se
relaciona con el diseño y las funcionalidades de la plataforma, factores que en general son de su
agrado; más allá de algunos cuestionamientos, como las publicidades insertadas, que no resultan
de peso para abandonar la plataforma. La tercera cuestión se relaciona con los contenidos
preferidos por los estudiantes. Del análisis de los datos surge que su predilección se halla entre el
entretenimiento y el aprendizaje. Este último se reparte entre necesidades que surgen de su vida
cotidiana y escolar. Por todo lo anterior, entendemos que los CAVs se constituyen como un
elemento primordial en la construcción de sus vidas y para la producción de sus aprendizajes.
Respecto a las percepciones que tienen las y los estudiantes de YouTube como espacio de
aprendizaje, identificamos dos grandes dimensiones. Una relacionada con su vida cotidiana y otra
vinculada a lo escolar. En cuanto a lo cotidiano, hallamos que sus búsquedas tienen como leit
motiv a los emergentes que van surgiendo en su quehacer diario, por ejemplo, reparaciones del
hogar o cómo cocinar un determinado plato. En este sentido, se buscan CAVs que aporten
soluciones inmediatas, breves y que dialoguen con el orden de lo práctico. En tanto, en relación a
lo escolar, identificamos dos necesidades que orientan las búsquedas de contenidos en YouTube,
por un lado, CAVs que podrían colaborar en la comprensión de temas abordados en los espacios
escolares a los cuales asisten estos estudiantes y, por otro, videos que derivan de sus necesidades
procedimentales. Las cuales se orientan al “cómo hacer” en dos niveles. En el primero, dicho
“paso a paso” se vincula directamente a la urgencia y premura por resolver de manera casi
inmediata trabajos prácticos, exámenes, entre otros, en tanto, en el segundo nivel, dicha premura
parece tener un papel marginal o, por lo menos, no se presenta como tal.
A lo largo del escrito hemos dejado planteados diversos interrogantes que esperamos retomar
en futuras investigaciones. En primer lugar, entendemos que es necesario profundizar en los
tipos de uso que realizan estos estudiantes de los CAVs, que exceden por mucho a las
orientaciones didácticas en general y a las recomendaciones de sus docentes en particular. Más
aún, indagar sobre cuáles son sus motivaciones podría aportar una serie de conocimientos que
nos permitan comprender mejor y de manera más acabada tanto sus prácticas de aprendizaje
como el desacople con las prácticas de enseñanza y sobre todo con los recursos educativos. En
segundo lugar, consideramos necesario identificar relaciones entre el “saber hacer” que portan
particularmente las y los estudiantes de escuelas secundarias técnicas y los usos de la plataforma.
Finalmente, en un horizonte más amplio, incitamos a recuperar las diversas y amplias
estrategias de aprendizaje que despliegan las y los estudiantes por fuera de las instituciones
educativas. Esto nos impone no solo revisitar las estrategias de enseñanza, sino y sobre todo nos
invita a seguir construyendo espacios escolares en los que las prácticas que despliegan las y los
estudiantes puedan no solo ser (re)conocidas, sino integradas y robustecidas.
Referencias
AGETIC y UNFPA (2019). Juventudes TIC. Estudio sobre las TIC en adolescentes y jóvenes en Bolivia.
AGETIC & UNFPA.
Almandoz, M. (2010). Políticas para la educación técnico-profesional en la Argentina. En M.
Almandoz [et.al.] Educación y trabajo: articulaciones y políticas. IIPE-UNESCO.
Bardakcı, S. (2019). Exploración del uso educativo de YouTube por parte de estudiantes de
bachillerato. Revista Mexicana De Bachillerato A Distancia, 11(22).
http://dx.doi.org/10.22201/cuaed.20074751e.2019.22.70605
Berk, R. (2009). Multimedia teaching with video clips: TV, movies, YouTube, and mtvU in the
college classroom. International Journal of Technology in Teaching and Learning, 5(1), 1-21.
Bordignon, F. (2020). Estudio de la relación que los estudiantes de primer ciclo de la escuela
secundaria técnica tienen con las tecnologías digitales. Virtualidad, Educación y Ciencia, 11(21),
52-69
Burgess, J. y Green, J. (2018). Youtube: Online video and participatory culture. Polity Press.
Sofia Foladori-Invernizzi1
}
Resumen. El desarrollo de los radares se remonta a unos años antes de la Segunda Guerra Mundial, y su
nombre deriva de un acrónimo: Radio Detection and Ranging. En este trabajo, tomando el caso de la
tecnología de radares en Argentina, evidenciamos algunos desafíos para alcanzar autonomía tecnológica
en países periféricos. En Argentina, la producción de radares nacionales ocurrió mucho después que en
los países industrializados y hasta entrados los años 2000 las políticas de radarización no fueron efectivas,
y muchos de los planes iniciados fueron descontinuados. Mismo tarde en el contexto internacional,
Argentina se destaca por el pionerismo en la tecnología de radares en el contexto latinoamericano.
Examinando el caso de los radares en Argentina podemos discutir algunas cuestiones centrales en el área
de la ciencia y la tecnología, tales como la transferencia tecnológica, la dependencia científica y la
tecnología dual. Dada la característica dual de los radares, las cuestiones geopolíticas en distintos
momentos históricos constituyen un punto central en su desarrollo. A partir del análisis documental y de
literatura, evidenciamos la efectiva importancia y destacado rol de Argentina en el contexto
latinoamericano respecto de la tecnología de radares aéreos que pasó, en pocos años, de tener una
pequeña porción del territorio nacional cubierto por radares a cubrir prácticamente toda el área nacional,
cambio que ocurrió después del inicio de la fabricación nacional de radares. También se destaca la
importancia de la autonomía tecnológica en Argentina y el papel central jugado por la empresa INVAP.
Finalmente, es necesario reflexionar sobre la necesidad de un apoyo continuo y sista aemático del Estado
para hacer sustentable un proyecto de autonomía tecnológica como el analizado. En áreas de alta
tecnología, los logros conseguidos por países periféricos están siempre amenazados por la acelerada
dinámica de innovación liderada por los países centrales.
Palabras clave: tecnología dual, tecnología de radares, políticas de radarización, dependencia científico
tecnológica.
1Bióloga, Estudiante de Maestria en Ciencia, Tecnologia e Innovación en la Universidad Nacional de Rio Negro.
Contacto: sofiafoladori@gmail.com
Radar policies and technologies: the case of Argentina in the Latin American context
Abstract. The development of radars dates back to a few years before World War II, and its name
derives from an acronym: Radio Detection and Ranging. In this work, taking the case of radar technology
in Argentina, we present some challenges to achieve technological autonomy in peripheral countries. In
Argentina, the production of national radars occurred much later than in industrialized countries. Until
the early 2000s, the radarization policies in Argentina were not effective, and many of the plans that
started were discontinued. However, even late in the international context, Argentina stands out as
pioneer on radar technology in the Latin American context. Examining the case of radars in Argentina,
we can discuss some crucial issues in the area of science and technology, such as technology transfer,
scientific dependence and dual technology. Given the dual characteristic of radars, geopolitical issues and
historical moments constitute a central point in their development. From the analysis carried out, we can
conclude the importance and prominent role of Argentina in the Latin American context with respect to
radar technology. In a few years they passed from having a small portion of the national territory covered
by radars to covering practically the entire national area, a change that occurred only after the beginning
of national production of radars. The importance of technological autonomy in Argentina and the central
role played by the INVAP Company are also highlighted. Finally, it is necessary to reflect on the need for
continuous and systematic support from the state to allow for technological autonomy in cases such as
the one analyzed in this paper. In high-tech areas, the achievements of peripheral countries are threatened
by the accelerated dynamics of innovation led by central countries.
Keywords: dual technology, radar technology, radarization policies, scientific technological dependence
Resumo. O desenvolvimento de radares remonta a alguns anos antes da Segunda Guerra Mundial, e seu
nome deriva de uma sigla: Radio Detection and Ranging. Neste trabalho, tomando o caso da tecnologia de
radar na Argentina, mostramos alguns desafios para alcançar a autonomia tecnológica em países
periféricos. Na Argentina, a produção de radares nacionais ocorreu muito mais tarde do que nos países
industrializados, e até o início dos anos 2000 as políticas de radarização não foram efetivas e muitos dos
planos iniciados foram interrompidos. Porém, mesmo tardiamente no contexto internacional, a Argentina
se destaca pelo pioneirismo da tecnologia de radar no contexto latino-americano. Examinando o caso dos
radares na Argentina, podemos discutir alguns temas centrais na área de ciência e tecnologia, como
transferência tecnologica, dependência científica e tecnologia dual. Dad o duplo carater dos radares, as
questões geopolíticas e os momentos históricos constituem um ponto central em seu desenvolvimento. A
partir da análise realizada, podemos concluir a importância efetiva e o papel de destaque da Argentina no
contexto latino-americano no que diz respeito à tecnologia de radar aéreo, que passou, em poucos anos,
de ter uma pequena porção do território nacional coberto por radares a cobrir praticamente toda a área
nacional, mudança ocorrida após o início da fabricação nacional de radares. Destaca-se também a
importância da autonomia tecnológica na Argentina e o papel central da empresa INVAP. Por fim, é
necessário refletir sobre a necessidade de apoio contínuo e sistemático do Estado para casos de
autonomia tecnológica como o aqui analisado. Nas áreas de alta tecnologia, as conquistas dos países
periféricos são sempre ameaçadas pela dinâmica acelerada da inovação liderada pelos países centrais.
1. Introducción
El inicio del desarrollo de los radares se remonta a unos años antes de la Segunda Guerra
Mundial, y su nombre deriva de un acrónimo: Radio Detection and Ranging (Quiroga & Aguiar,
2016; Vassallo, 2008). Estos estaban siendo estudiados tanto por instituciones gubernamentales
como por universidades y grupos autónomos en diversos países de Europa y en Estados Unidos.
En 1938 se hizo el primer radar pulsado centimétrico, el cual permitió localizar barcos y aviones
(Susskind, 1994).
Bajo la presión del conflicto bélico, en poco tiempo y antes del fin de éste, los países
industrializados ya habían desarrollado sus propios radares. Estados Unidos, Reino Unido,
Francia, Alemania, Italia, Japón y Rusia, todos contaban con sus radares de producción nacional.
A pesar de registros de cierto nivel de transferencia tecnológica entre algunos de los países
citados, la mayor parte del desarrollo fue interno de cada nación (Susskind, 1994). Según este
autor es común, una vez que la ciencia y tecnología llegan a satisfacer todos los prerrequisitos
necesarios para innovaciones, que ocurran desarrollos de manera simultánea en distintos lugares,
como fue el caso de los radares.
Los radares utilizan tecnologías digitales, las cuales abarcan mucho más que el sentido
etimológico de su término (digitalis – dedo). Por tecnología digital se entiende la captación,
presentación, sistematización, transporte, combinación y almacenamiento de datos mediante bits.
Este tipo de sistemas que conecta los diversos dispositivos físicos entre sí codificándoles
digitalmente se conocen como ciberfísicos (Prime Faraday, 2002).
En la base técnica del proceso de tecnología digital están, hoy en día, los Mems (micro
electrical mechanical sistemas) – o Moems cuando utilizan procesos ópticos, o Nems cuando son
en escala nanométrica – dispositivos diminutos que incorporan sensores, actuadores, y
controladores formando sistemas inteligentes de información. Los sensores captan las fuerzas de
la materia y la convierten en señales eléctricas. Mediante los Mems puede ser identificada y
procesada la fuerza que manifiestan, sea hidráulica, neumática, magnética, motriz, etc., y
transmitida a los controladores y al sistema en su conjunto (Prime Faraday, 2002).
Los radares para aeronáutica utilizan ondas electromagnéticas, enviando señales cuyo eco,
viajando a la velocidad de la luz, permite medir objetos, tamaños, cantidades, velocidades de
movimiento, localización, distancia, y otras características (Prime Faraday, 2002). Los Mems para
uso en radares y aviones son muy diversos. Existen mercados específicos para Mems de presión,
temperatura, fuerza, torsión, velocidad, posición y desplazamiento, nivel, cercanía, captación de
flujos, acelerómetros, giroscopios, gps, etc. (Markets&Markets, 2020).
Existen dos tipos de radares para el control aéreo: los radares primarios y los secundarios. Los
radares primarios permiten obtener informaciones sobre la localización del avión – u otro objeto
en el espacio aéreo – actuando mediante la emisión de onda y vuelta de esta al iluminar con un
objeto. Vale destacar que consiguen identificar cualquier objeto, mismo que este no quiera ser
identificado, pues no dependen de ninguna otra señal. En contraste, los radares secundarios se
comunican con la aeronave mediante el auxilio de un Transponder. Así, la aeronave también
tiene una estación radioeléctrica, permitiendo la comunicación entre las estaciones de radar
(Omnisys, 2017; Vassallo, 2008). Hay una diferencia esencial entre esos dos tipos de radares. Los
primarios, como ya mencionado, son independientes de otra señal y, por ende, se encajan en un
contexto militar además de civil. Los radares primarios pueden subdividirse en otros dos grupos,
los radares 2D y los 3D. Esta distinción está relacionada a cuantas dimensiones capta el radar.
Los 2D adquieren información de dos dimensiones. Estos miden el acimut, que permite obtener
información de la distancia y de la ubicación en el plano. Los radares 3D, en cambio, además de
ubicación en el plano y distancia, consiguen también obtener la altura del objeto (Alonso, 2018;
González, 2017).
En este trabajo, tomando el caso de la tecnología de radares en Argentina, evidenciamos
algunos desafíos para alcanzar autonomía tecnológica en países en desarrollo. En la segunda
sección, siguiendo a esta introducción, presentamos, en una línea del tiempo, las políticas para el
desarrollo de radares en la Argentina, diferenciando un período de radarización basada en la
importación de tecnología y otro en que se desarrolla la producción nacional. En la tercera
sección examinamos la dependencia científico-tecnológica, abordando cuestiones como la
transferencia de tecnología y la dependencia científica y discutimos la característica dual de esta
tecnología. En esa misma sección, consideramos la necesidad de un conjunto de políticas
públicas convergentes para asegurar la sostenibilidad de la tecnología nacional de radares.
Finalmente, presentamos las conclusiones del trabajo.
SINVICA. En 2008, Argentina consiguió por primera vez realizar la detección de una aeronave a
partir del radar diseñado y producido por la empresa rionegrina INVAP, permitiendo, así, la
entrada de Argentina al grupo de países que poseen desarrollo proprio de tecnología de radares
(Quiroga & Aguiar, 2016).
No obstante el avance del desarrollo de radares nacionales y la mayor cobertura del territorio,
el sistema de estos todavía se encontraba debilitado al inicio de los años 2000. En 2000 hubo un
incendio en la torre de control del aeropuerto de Ezeiza en Buenos Aires, que evidenció la falta
de equipamientos de emergencia. Algunos años después, en 2007, ocurrió una tormenta eléctrica
en la ciudad de Buenos Aires que dañó el sistema de radar, también en Ezeiza, dejando el
servicio de control de aviones apenas por medio convencional mediante comunicación por radio
con la torre (Vassallo, 2008).
Argentina se destaca por el pionerismo en la tecnología de radares. Fue el primer país de
Sudamérica en tener radares para el control del tráfico aéreo, en 1948, siendo estos importados
(González, 2014 apud.; Quiroga & Aguiar, 2016). Al comparar con otros países de América
Latina, el desarrollo de la tecnología nacional de radares en Argentina fue temprano. En Brasil,
la producción de radares es realizada por una multinacional francesa, Thales, que compró una
empresa brasileña, la Omnisys, en 2006 e inició la fabricación de radares de tráfico aéreo. A pesar
de que la Omnisys había sido pionera – en términos de Latinoamérica – en el desarrollo de un
radar meteorológico en 2005, la producción de radares de tránsito aéreo apenas comenzó
después de la adquisición por la empresa Francesa, dando origen al radar LP23SST NG. En el
caso de Brasil la transferencia tecnológica fue total (Vasconcelos, 2013), muy diferente de lo
observado en Argentina.
Es interesante notar que Brasil es el país con mayor producción mundial de Niobio, un
elemento muy utilizado en la fabricación de radares. En 2012, la producción brasilera abarcaba el
93 % de la producción mundial (Aita et al., 2016). Brasil, teniendo predominancia en la
explotación de este material fundamental, igual posee una dependencia tecnológica total en la
fabricación de un producto que deriva de su utilización, el radar.
En México el desarrollo de radares fue aún muy posterior. En 2020 fue producido el primer
radar móvil nacional, el Tzincán, a partir de un proyecto que inició en 2015. Así como en
Argentina y en Brasil, el Tzincán fue resultado de un programa con objetivos tanto civiles como
militares, englobando tres instituciones mexicanas: el Consejo Nacional de Ciencia y Tecnología
(CONACYT), en conjunto con la Secretaría de la Defensa Nacional (SEDENA) y la Secretaría
de Marina-Armada de México (SEMAR). Además, México, a diferencia de Argentina, posee
todavía grandes lagunas en el control por radar de su territorio nacional, con grandes zonas grises
en el sur y dejando el norte, en gran parte, bajo control de radares de los Estados Unidos
(Medina, 2020). El país cuenta con apenas un tercio del área nacional con cobertura área
(Guevara, 2020). En parte, el desarrollo de un radar móvil por México es importante para poder
moverlo conforme las necesidades en distintos momentos, dada esta escasa cobertura actual del
espacio aéreo nacional.
En todo caso, en los tres países, los radares fueron desarrollados con la intención de integrar
tanto el tráfico aéreo civil cuanto el control militar. Aquí se destaca la función dual de la
tecnología de radar, que es producida ya previendo ambos fines: civil y militar. En el proprio sito
de INVAP, los radares se encuentran dentro de la categoría de “defensa, seguridad y ambiente”
(INVAP, 2020), ya haciendo alusión a su importancia militar, además de su inicio vinculado a las
FAA (Quiroga, 2018), aludiendo también a usos civiles como el monitoreo ambiental.
importante notar aquí que tecnologías producidas con diversos fines y spillovers en la industria
tecnológica siempre existieron, pero estos pasan a tener una centralidad nueva, al permitir la
sobrevivencia del complejo industrial-militar, ahora destinado a la producción de tecnología dual.
A partir de este momento histórico la tecnología dual pasa a ser punto de discusión de políticas
de desarrollo tecnológico.
Otra cuestión relevante en el ámbito geopolítico que afectó la tecnología de radares fue, sin
duda, la necesidad de aumentar la seguridad del espacio aéreo debido al aumento del tráfico de
drogas a partir de los años noventa. Para eso son fundamentales los esfuerzos por nacionalizar la
producción de radares y de cubrir el territorio nacional. Las zonas no abarcadas por radares se
presentan como una facilidad a la entrada de droga en esas regiones. Así, el combate al tráfico de
drogas se configura como otra razón para la necesidad e importancia del control y carácter
nacional de las tecnologías e información de los radares. Una tecnología nacional supone
también que la información sea controlada nacionalmente. Tomando por ejemplo la situación de
México, en toda la frontera norte con Estados Unidos, área estratégica para el control del tráfico
de drogas, el espacio aéreo está controlado por radares de Estados Unidos, los cuales les envían
– o no – la información adquirida (Medina, 2020).
Debido a la complejidad científico-tecnológica de los sistemas de radares, su vinculación con
asuntos geopolíticos y la función dual que estos poseen, las políticas públicas específicas para
estimular su fabricación nacional en países en desarrollo parecen no ser suficientes para englobar
un tema tan amplio y complejo. Son necesarias además de políticas de fomento para la
radarización, otras políticas sectoriales o vinculadas que se integren a esos planes de desarrollo,
auxiliando en cuestiones más específicas.
De entre muchas otras políticas, algunas están directamente relacionadas con la
sustentabilidad de la I&D en radares. Este es el caso, por ejemplo, de políticas vinculadas a la
propiedad intelectual. En la actualidad todas las innovaciones tecnológicas están registradas
como propiedad intelectual (Piñeiro, 2015). Las patentes y otras formas de Propiedad Intelectual
se han convertido en un creciente mercado a nivel internacional. Desde finales de los años
ochenta y principios de los noventa la cantidad de patentes registradas en las diversas oficinas se
ha incrementado año con año a un ritmo mucho mayor que en década anteriores. Las patentes se
consideran un indicador de innovación y desarrollo tecnológico (OMPI, 2010). Pero, registrar
una patente no significa necesariamente una ventaja económica. Existe una amplia discusión
sobre las ventajas o desventajas de las patentes en el desarrollo económico (Madies et al., 2014).
En el caso de los radares de tráfico aéreo argentinos de INVAP, algunos de estos están
patentados, pero quien asume la propiedad de derechos y patentes y la dirección del proyecto es
la Dirección General de Fabricaciones Militares (DGFM) según los requerimientos técnicos de la
FAA (Piñeiro, 2015). Así, las patentes son de carácter nacional pero, en lugar de estar vinculadas
a una empresa provincial están bajo el dominio militar, destacando explícitamente el carácter dual
de estas tecnologías, con énfasis en su importancia prioritaria militar.
Dado, además, el alcance internacional de la empresa, que ya ha realizado transferencia de
tecnología a varios países, como es el caso últimamente de Holanda, es posible que surja la
necesidad del registro de patentes allende Argentina (Caillaud & Méniere, 2014). En el caso del
radar 3D, este cumple los requisitos técnicos y las normas para poder exportar sus radares a nivel
internacional (Alonso, 2018). Argentina puede, ahora, cambiar de posición a nivel internacional y
actuar como exportadora de tecnología en lugar de importar tecnología extranjera. Sin embargo,
dado al vínculo militar del radar 3D y el acuerdo hecho con la FAA la venta a otro país es difícil
(Alonso, 2018).
Otro ejemplo de políticas sectoriales íntimamente ligadas al desarrollo de los radares es la
concerniente a la integración de las cadenas de producción y de valor. En la actualidad, gran
parte de la producción industrial mundial corresponde a la integración de muchas empresas con
sede en diversos países que participan parcialmente en la producción de la mercancía final
(Mayer & Gereffi, 2010). Si tomamos el caso del radar 3D RP3DLAP argentino, se tiene que 80
% de los componentes son fabricados localmente, lo que evidencia una alta tasa de
nacionalización. Cabe indagar si el 20 % restante es efectivamente imprescindible de ser
importado o si se podría eventualmente llegar a una producción integralmente nacional. Además,
siguiendo la cadena de producción se nota la gran participación de pequeñas y medias empresas
(pymes) vinculadas. Hay alrededor de 500 pymes que han participado en el proceso de
fabricación de radares, de las cuales 50 tuvieron un rol más significativo (Alonso, 2018). Eso
demuestra cómo se está manteniendo la propuesta original del proyecto de radarización de
favorecer la industria nacional y, además, consiguiendo crear un tejido productivo con la
actuación de pymes y no apenas de industrias grandes ya consolidadas.
Este aspecto del radar RP3DLAP es esencial para la sustentabilidad de la producción y la
contínua investigación sobre radares en Argentina u otros países en desarrollo. Solamente una
producción a partir de materiales prioritariamente nacionales y con tecnologías relacionadas
nacionales, fabricados a partir de recursos humanos locales puede llevar a una independencia
tecnológica efectiva y real. López y colaboradores (2018), tratando sobre los satélites argentinos
destacan el supuesto de que productos nacionales – como el satélite o el radar – no implican,
necesariamente, que todas sus piezas e instrumentos vinculados sean también producidos por
una industria nacional, muchos son importados e incorporados a la producción nacional.
Empero, se nota como en el caso de los radares argentinos – por lo menos en este último
RP3DLAP que es también el más competitivo a nivel internacional debido sus características –
consiguieron una real e efectiva producción casi integralmente nacional (Alonso, 2018).
Otro factor vinculado a la nacionalización de toda la cadena de producción es que asegura el
mantenimiento de los radares instalados, dada la mayor disponibilidad de las piezas de repuesto.
Según Abila y colaboradores (2009), la expectativa de vida media de los satélites es de 15 años
debido, en gran parte al desgaste de los materiales. Puede suponerse que los radares
experimenten un desgaste semejante.
La empresa INVAP, que desarrolla y fabrica los radares argentinos, opera también con la
fabricación de satélites. La integración tecnológica entre los radares y los satélites es fundamental
para el “comando del espacio”, hablando en términos militares. La interconexión de estas
tecnologías es favorecida en la Argentina por una empresa única que realiza ambos
equipamientos (Abila et al., 2009). Además, el hecho de que INVAP iniciara con la tecnología
nuclear y de satélites también facilitó el desarrollo de los radares, dado que algunas de las bases
tecnológicas son intercambiables y relacionadas, y los propios satélites utilizan radares como
cargas útiles (Alonso, 2018; López et al., 2018). Esto demuestra el papel decisivo de la
acumulación de capacidades científico-tecnológicas en las empresas de alta tecnología.
Así, la independencia tecnológica en el área de radares también permite auxiliar la
independencia en otras esferas que poseen tecnologías equivalentes y vinculadas. Lleva también
estimular la formación de personal calificado y a la construcción de estructuras y laboratorios de
4. Conclusiones
A partir de los temas discutidos en este breve ensayo podemos esbozar algunas conclusiones y
cuestionamientos respecto las políticas científicas y tecnológicas de radares en América Latina y,
más específicamente, en Argentina. Con un tema como los radares, que son tecnologías
altamente duales con claras e importantes funciones en el área militar y civil, las cuestiones
geopolíticas y el contexto histórico constituyen un punto central en su desarrollo. Efectivamente,
el surgimiento y desarrollo del radar estuvo directamente vinculado con la Segunda Guerra
Mundial y con la Guerra Fría. El amplio desarrollo de la aviación civil desde los años 1950 y
mucho más aceleradamente en las décadas recientes demandó ampliar la innovación en radares
para garantizar la seguridad del tráfico aéreo. Después, entrados los años 2000, se plantea la
necesidad de control del tráfico de drogas, y junto con eso el aumento de la radarización en
Argentina, Brasil y México.
A partir del análisis temporal realizado, podemos concluir la efectiva importancia y destacado
rol de Argentina en el contexto Latinoamericano respecto de la tecnología de radares aéreos que
pasó, en pocos años, de tener una pequeña porción del territorio nacional cubierto por radares a
cubrir prácticamente todaa el área nacional. Este cambio se nota después del inicio de la
fabricación nacional de radares.
Es fundamental también destacar la importancia de la autonomía tecnológica en Argentina y
el papel central jugado por la empresa INVAP, que inició con investigación nuclear, luego
satélites y radares. Esas tecnologías y avances permitieron la capacitación de personal y la
creación de la infraestructura necesaria para el desarrollo y mejoramiento de esas tecnologías y la
posibilidad de aumentar la investigación sobre otras áreas afines. Sumado a eso, el hecho de que
80 % de los materiales provengan de Argentina y de la gran actuación de pymes en la cadena
productiva demuestra que la producción es efectivamente nacional y con alta independencia
tecnológica. A esto podemos agregar la presencia de patentes de los productos realizados, pero
aquí cabe la consideración de que la patente es propiedad militar y no directamente de la empresa
provincial desatacando, nuevamente, el carácter dual y altamente militar de la tecnología de
radares.
Finalmente, es necesario reflexionar sobre la necesidad de un apoyo continuo y sistemático
del Estado, mediante un conjunto de políticas públicas, para hacer sustentable un caso de
autonomía tecnológica como el analizado.
Referencias
Abila, F., Martins, J. & Cepik, M. (2009). Armas estratégicas e poder no sistema internacional: O
advento das armas de energia direta e seu impacto potencial sobre a guerra e a distribuição
multipolar de capacidades. Contexto Internacional, 31(1), 49–83.
Aita, E., Studart, Á. V., & Oliveira, M. A. G. (2016). Current overview and future perspectives
on integrated defense logistics in South America: Opportunities for the regional defence
industry. Austral: Brazilian Journal of Strategy & International Relations, 5(10), 199–228.
Alic, J. A. (1994). The dual use of technology: Concepts and policies. Technology in Society, 16(2),
155–172.
Alonso, M. (2018). Radar en la tormenta [Universidad Nacional de San Martín]. Agencia TSS.
unsam.edu.ar/tss/radar-en-la-tormenta/
Brandt, L. (1994). Defense Conversion and dual-use technology: The push toward civil-military
integration. Policy Studies Journal, 22(2), 359–370.
Caillaud, F., & Méniere, Y. (2014). Strategic intelligence on patents. En Patent markets in the global
knowledge economy: Theory, empirics and public policy implications. Madiès, T., Guellec, D., & Prager,
J.-C.
Cowan, R., & Foray, D. (1995). Quandaries in the economics of dual technologies and spillovers form military
to civilian research and development (Núm. 9509). Department of Economics, University of
Western Ontario.
Defence-aerospace. (2002). Lockheed Martin selected to provide radar system for AT-63 Pampa trainer
light attack aircraft. Defence-aerospace. http://www.defense-aerospace.com/articles-
view/release/3/9449/lockheed-radar-for-at_63-pampa-(apr.-3).html
Diamand, M. (1976). Las posibilidades de una técnica nacional en Latinoamérica (el caso
argentino). Estudios Internacionales, 9(34), 10–41.
González, O. F. (2017). Caracteísticas de los distintos tipos de radares. Gaceta Aeronautica.
https://www.gacetaeronautica.com/gaceta/wp-101/?p=22789
Guevara, I. (2020). El dios murciélago: Tecnología y radares mexicanos. El Heraldo de México.
https://heraldodemexico.com.mx/opinion/2020/6/23/el-dios-murcielago-tecnologia-
radares-mexicanos-186672.html
Hurtado, D., Lugones, M., & Surtayeva, S. (2017). Tecnologías de propósito general y políticas
tecnológicas en la semiperiferia: El caso de la nanotecnología en la Argentina. Revista
Iberoamericana de Ciencia, Tecnología y Sociedad, 12(34). http://www.revistacts.net/volumen-12-
numero-34
INVAP. (2020). INVAP - La empresa. INVAP. https://www.invap.com.ar/la-empresa/
Junior, O. F., Hurtado, D. Moreira, I. C., & Barros, F. de S. (2013). Nuclear wepons in regional
contexts: The cases of Argentina and Brazil. An open world: science, technology and society in the
light of Niels Bohr’s thoughts, Copenhagen.
López, A., Pascuini, P., & Ramos, A. (2018). Climbing the Space Technology Ladder in the
South: The Case of Argentina. Space Policy, 46, 53–63.
https://doi.org/10.1016/j.spacepol.2018.06.001
Lorenzo, C. (2002). Lockheed Martin renegotiates terms at Argentina facility. Defense Daily - Dow
Jones Factiva, 216(3).
Madies, T., Guellec, D., & Prager, J.-C. (Eds.). (2014). Patent Markets in the Global Knowledge
Economy: Theory, Empirics and Public Policy Implications. Cambridge University Press.
https://doi.org/10.1017/CBO9781107110960
Markets&Markets. (2020). Aircraft Sensors Market by Connectivity, Platform, Sensor, Application, End
Use COVID-19 Impact Analysis. Aircraft Sensors Market.
https://www.marketsandmarkets.com/Market-Reports/aircraft-sensors-market-
53630527.html
Mayer, F., & Gereffi, G. (2010). Regulation and Economic Globalization: Prospects and Limits
of Private Governance. Business and Politics, 12(3). https://doi.org/10.2202/1469-3569.1325
Mazzucato, M. (2017). El Estado emprendedor: Mitos del sector público frente al privado. RBA.
Medellín, J. A. (2020). La marina y el ejército mexicanos concluyen su primer radar de vigilancia aérea.
defensa.com. https://www.defensa.com/mexico/marina-ejercito-mexicanos-concluyen-
primer-radar-vigilancia
Medina, J. (2020, noviembre 29). Entre lo urgente y lo importante: Radares. Aviación21.
https://a21.com.mx/index.php/inteligencia-aeroespacial/2020/09/13/entre-lo-urgente-y-lo-
importante-radares
Omnisys. (2017, junio 22). A Thales apresenta o LP23SST NG, o radar de vigilância em rota de uso dual
civil e militar mais avançado do mundo e já vendido para o Brasil. Omnisys.
https://www.omnisys.com.br/a-thales-apresenta-o-lp23sst-ng-o-radar-de-vigilancia-em-rota-
de-uso-dual-civil-e-militar-mais-avancado-do-mundo-e-ja-vendido-para-o-brasil
OMPI. (2010). Indicadores mundiales de propiedad intelectual. Organización Mundial de la Propiedad
Intelectual.
http://www.wipo.int/edocs/pubdocs/es/intproperty/941/wipo_pub_941_2010.pdf
Piñeiro, L. (2015). Argentina inagura el tercer radar primario 3D de largo alcance y firma contrato para la
construcción de seis nuevos radares. defensa.com. https://www.defensa.com/argentina/argentina-
inaugura-tercer-radar-primario-3d-largo-alcance-firma
Potenze, P. L. (2017). Los radares argentinos. Gaceta Aeronautica.
https://www.gacetaeronautica.com/gaceta/wp-101/?p=22386
Prime Faraday. (2002). An Introduction to MEMS (Micro-electromechanical Systems)—An-introduction-to-
mems.pdf. Prime Faraday Technology Watch.
http://www.lboro.ac.uk/microsites/mechman/research/ipm-
ktn/pdf/Technology_review/an-introduction-to-mems.pdf
Quiroga, J. M. (2018). Políticas públicas, trayectorias institucionales y desarrollo tecnológico
nacional. Los primeros sesenta años de tecnología radar en la Argentina. En Políticas de ciencia,
tecnología e innovación en la Argentina de la postdictadura. Editorial UNRN.
Quiroga, J. M. (2020). Capacidades dinámicas en la producción de bienes intensivos en
conocimientos. El caso del desarrollo de radares en Argentina (2003-2015). CTS - Revista
Iberoamericana de Ciencia, Tecnología y Sociedad. https://doi.org/10.13140/RG.2.2.27266.63680
Quiroga, J. M., & Aguiar, D. (2016). Abriendo la “caja negra” del radar. Las políticas de
radarización para uso civil y de defensa en Argentina entre 1948 y 2004. H-Industri@: Revista
De Historia De La Industria, Los Servicios Y Las Empresas En América Latina, 19, 71–100.
Sábato, J. A. (2004). Ensayos en campera (1a ed.). Bernal: Univ. Nacional de Quilmes Editorial.
Susskind, C. (1994). Radar as a case study in simultaneous invention. En Tracking the history of
radar. IEEE-Rutgers Center for the History of Electrical Engineering and the Deutsches
Museum.
Toledo, D. G. C. (2019). Aspectos históricos e conceituais da dependência tecnológica da
América Latina sob o novo neocolonialismo. OIKOS, 18(3), 41–56.
Vasconcelos, Y. (2013). De misiles a radares. Pesquisa Fapesp, 202.
https://revistapesquisa.fapesp.br/es/de-misiles-radares/
Vassallo, C. M. (2008). Control del espácio aéreo en la República Argentina [Ministerio de Justicia y
Derechos Humanos Argentina]. SAIJ. http://www.saij.gob.ar/doctrina/dacf080092-vassallo-
control_espacio_aereo_en.htm%3Bjsessionid=el1a0negeh3fppq327uq3y5e?0
Cómo citar: Surtayeva, S. (2021). Política tecnológica en Argentina: los Fondos Argentinos Sectoriales en
el caso de la nanotecnología. Revista Hipertextos, 9 (15), 157-181. DOI:
https://doi.org/10.24215/23143924e033
Resumen. Las políticas para impulsar el cambio tecnológico constituyen un complejo desafío para los
países latinoamericanos. En Argentina, a diferencia de los países desarrollados, las políticas de ciencia y
tecnología (CyT) fueron influenciadas por una lógica basada en la oferta de conocimientos proveniente
del sector académico. Esto se tradujo en la promoción de políticas horizontales: formación de recursos
calificados en CyT, creación de infraestructura CyT y financiamiento de proyectos de Investigación y
Desarrollo (I+D). Esta tendencia reforzó las debilidades estatales para el diseño e implementación de
políticas orientadas a misiones enraizadas en problemas de relevancia socioeconómica. Las políticas de
promoción a la nanotecnología, en el caso argentino, fueron estructuradas inicialmente bajo el enfoque de
políticas horizontales. Ahora bien, los Fondos Argentinos Sectoriales (FONARSEC) fueron un
instrumento de política novedoso, que buscó romper con esta tendencia al financiar proyectos para
generar plataformas tecnológicas que generen innovaciones científico-tecnológicas y, en los cuales, se
requería una fuerte participación empresarial. Este artículo se centra en el análisis del FONARSEC, para
lo cual se estudian dos proyectos nanotecnológicos, buscando determinar sus fortalezas y debilidades.
Technological policy in Argentina: the Argentine Sectorial Funds in the case of nanotechnology
Abstract. Policies to promote technological change constitute a complex challenge for Latin American
countries. In Argentina, unlike developed countries, science and technology (S&T) policies were
influenced by a logic based on the supply of knowledge from the academic sector. This translated into the
promotion of horizontal policies: training of qualified resources in S&T, creation of S&T infrastructure
and financing of Research and Development (R&D) projects. This trend reinforced state weaknesses for
the design and implementation of mission-oriented policies embedded in problems of socio-economic
1Doctora en Ciencias Sociales y Humanas y becaria postdoctoral con lugar de trabajo en la Universidad Nacional de
San Martín (UNSAM), Centro Babini. Contacto: Sofya.Surtayeva@gmail.com
relevance. Policies to promote nanotechnology, in Argentine case, were initially structured under the
horizontal policy approach. However, the Argentine Sectorial Funds (FONARSEC) were a novel policy
instrument, which sought to break with this trend by financing projects to generate technological
platforms that generate scientific and technological innovations and, in which, it was required strong
business participation. This article focuses on the analysis of FONARSEC, through the study of two
nanotechnological projects, seeking to determine their strengths and weaknesses.
1. Introducción
A nivel mundial, en los 80s la política de CyT se desplazó desde iniciativas horizontales dirigidas
a fortalecer la infraestructura y las capacidades científico-tecnológicas de los países, hacia
iniciativas focalizadas en sectores y tecnologías de interés especial, dando lugar a lo que se
conoce como políticas orientadas a misiones -en inglés mission oriented policies-. Estas políticas se
caracterizan por impulsar proyectos tecnológicos estratégicos orientados por un objetivo. Se trata
de políticas sistémicas que coordinan y ejecutan una gran diversidad de instrumentos financieros
y no financieros a través de los cuales el Estado vincula actores públicos y privados para el
desarrollo de sectores, tecnologías y mercados, según objetivos estratégicos (Ergas, 1987; Peres y
Primi, 2009; Mazzucato, 2013; Mazzucato, 2014).
Las posibilidades de un país para definir e implementar estas políticas dependen del contexto
y de las capacidades y lógicas que en éste subyacen al diseño y gestión de los vínculos entre
ciencia-tecnología-industria y desarrollo socioeconómico (Carrizo, 2019). Así, mientras que los
países desarrollados llevaron a cabo políticas orientadas a misiones, guiadas por una lógica
enfocada en aplicar la tecnología a la resolución de problemas prácticos en sectores
socioeconómicamente estratégicos y centralizada en la acción estatal, en los países en vías de
desarrollo, a excepción de ciertos “bolsones de eficiencia” (Evans, 1995) como el sector
aeronáutico en Brasil y el nuclear en Argentina,2 primó una lógica académica basada en la oferta
de conocimientos, que alimentó la promoción sistémica de políticas horizontales. La continuidad
de esta tendencia derivó en debilidades estatales para el diseño e implementación de políticas
focalizadas en sectores y tecnologías estratégicas y políticas orientadas a misiones enraizadas en
problemas de relevancia socioeconómica para la región (Carrizo, 2019).
En Latinoamérica, este problema se agrava por la desvinculación de las actividades de CyT
con las realidades socioeconómicas (Herrera, 1995; Varsavsky; 2006; Sabato; 2004). Así, a
diferencia de los países desarrollados, que supieron vincular sus actividades de I+D con sectores
estratégicos para su desarrollo socioeconómico, en países en desarrollo como Argentina o Brasil,
que presentan ciertas capacidades industriales y tecnológicas, los procesos de “desarrollo
dependiente”, en términos de Evans (1979), desdibujan el rol del Estado en la producción de
conocimiento, y sus ciclos recurrentes de inestabilidad política, económica y social, explican en
buena medida la “desconexión” de las actividades de CyT con las realidades socioeconómicas
locales (Carrizo, 2019).
Un ejemplo de la aplicación de políticas horizontales en los países en desarrollo es el de la
nanotecnología en Argentina, donde las políticas se concentraron mayormente en la generación
de recursos de financiamiento para actividades de I+D y los resultados fueron la formación de
recursos humanos calificados en CyT y el reforzamiento de la infraestructura en CyT a través de
la adquisición de equipamiento para los centros de investigación. No obstante, las prioridades de
las políticas excluyeron la necesidad de avanzar en la coordinación de políticas públicas a nivel
interministerial, así como la organización de actividades de diagnóstico, prospectiva, revisión de
marcos regulatorios y generación de capacidades en tópicos como cadenas de valor, escalado o
estrategias de comercialización (Surtayeva, 2019).
2 Según Evans (1996), la “autonomía enraizada” refiere a un Estado con un grado relativo de autonomía entre las
agencias que intervienen en la implementación una política y cierto grado de enraizamiento con grupos sociales con
los cuales se comparte un proyecto de transformación. Dado que no siempre se dan casos de tipo ideal, para los
casos “intermedios”, Evans habla de la presencia de “bolsones de eficiencia” dentro del Estado (Evans, 1995).
Sin embargo, los Fondos Argentinos Sectoriales (FONARSEC), creados en 2009, cuyo
objetivo general fue vincular al sector científico con el productivo -a través de proyectos
consorciados entre el sector de investigación y el empresario- y que financió nueve proyectos de
nanotecnología en 2010 y 2012, poseen características del tipo de política tecnológica mission
oriented, dada su focalización a objetivos específicos. Los FONARSEC fueron creados como un
recurso estratégico para resolver el problema de la escasa vinculación entre las actividades de
CyT con las necesidades del desarrollo económico y social. Su objetivo era promover la
producción de innovaciones en laboratorios públicos orientadas a mejorar la calidad de vida de
las personas y la competitividad de las empresas locales al producir cambios en el perfil
productivo de los bienes y servicios. Este fondo no buscó la generación de conocimiento en el
área, sino que estuvo orientado hacia proyectos con objetivos de generar soluciones a problemas
sociales y productivos concretos (Surtayeva, 2019).
Partiendo de esta base, el artículo se centra en el análisis del FONARSEC, para lo cual se
estudian dos proyectos en el área de nanotecnología, buscando determinar las fortalezas y
debilidades de este instrumento de política. El abordaje de este instrumento de política científica
y tecnológica, que excede a las tecnologías digitales como las TICs, permite avanzar en la
comprensión de cómo mejorar el desempeño de las políticas tecnológicas en contexto
latinoamericano, generando aprendizajes en este sentido. Se adoptó una metodología de tipo
cualitativa con dos estudios de casos apoyados en entrevistas a actores claves y otras fuentes
secundarias -notas de divulgación y/o publicaciones científicas pertinentes, reglamentaciones y
notas periodísticas-.
3 En su momento, la máquina de vapor, la electricidad y los semiconductores fueron tecnologías de frontera. Estas
tecnologías tienen un profundo impacto en el crecimiento de las economías en su totalidad por su capacidad de
penetración y dinamismo tecnológico en un gran segmento de productos existentes o potenciales.
4 La NNI forma parte del diseño de una red de organizaciones donde intervienen múltiples agencias, que fue
acompañada por financiamiento público creciente (NNI, 2006, p.29-30). Acumulativamente, la NNI recibió un total
de más de 25.000 millones de dólares desde su inicio en 2001 hasta 2017 (NSTC, 2017).
5 Sobre el impulso de la nanotecnología en Latinoamérica, puede verse Invernizzi et al. (2014) y Foladori (2016).
6 Sobre la trayectoria de las políticas de promoción a la nanotecnología en Argentina entre el 2003 y 2018 ver
Hurtado et al. (2017), Surtayeva (2019) y Surtayeva (en prensa). Asimismo, sobre el desarrollo de las políticas de
nanotecnología en nuestro país ver Andrini y Figueroa (2008); Hubert y Spivak (2009); García et al. (2012); Vila
Seoane (2011; 2014); Carrozza y Brieva (2017); Foladori y Carrozza (2017); Lugones y Osycka (2018).
7 El FONARSEC fue parcialmente financiado por el BM y por el Banco Interamericano de Desarrollo (BID).
8 Los proyectos financiados pueden verse en: http://www.agencia.mincyt.gob.ar/archivo/1099/fonarsec/res03-11-
embargo, Isabel Mac Donald, directora del FONARSEC entre 2009-2017, indicó que la
debilidad del programa fue que para seleccionar los temas de las convocatorias “se refirió a
expertos del mundo científico”, por lo que las áreas a desarrollar terminaron siendo las “más
importantes a nivel del estado del área, no lo más importante de acuerdo al desarrollo económico
argentino” (Comunicación con Mac Donald, 22/03/2018).
A continuación, se presentan dos proyectos de la línea de nanoarcillas y se delinean sus
principales características, con foco en sus fortalezas y debilidades, describiendo sus objetivos
iniciales, su ejecución y resultados. Las nanoarcillas fueron determinadas como temática
prioritaria porque Argentina posee arcillas con características particulares que se comercializan
sin ningún valor agregado y son la base para el desarrollo de productos con nuevas propiedades
en industrias automotrices, de electrodomésticos y de la construcción, por dar algunos ejemplos.
10Las nanoarcillas presentan diversas aplicaciones industriales. Por ejemplo, en la industria automotriz se desarrollan
compuestos de un material polimérico cargado de nanoarcillas para reducir el peso de las piezas plásticas utilizadas
en el montaje de los automóviles. En la agricultura, las nanoarcillas pueden ser utilizadas para la descontaminación
de aguas contaminadas con tiabendazol, empleado como conservante en la industria alimentaria y fungicida de
frutas. Las frutas son sumergidas a piletones donde son rociadas con fungicidas, lo que genera efluentes
contaminados que son vertidos a canales y ríos (MINCyT, 2013).
Existen varios tipos de arcillas, pero las nanoarcillas se obtienen de la familia esmectita y las
más utilizadas como materia prima son la montmorillonita y la bentonita. Una empresa argentina
dedicada a la extracción, producción y exportación de bentonita es Castiglioni, Pes y Cía. Creada
en 1930, su planta industrial se ubica en Cinco Saltos, provincia de Río Negro y posee un equipo
de 60 personas entre profesionales, técnicos y empleados. Previo al proyecto FONARSEC,
Castiglioni era el proveedor de arcillas del CETMIC, existiendo así una relación entre esta
empresa y una de las partes públicas del CAPP. Cuando surge la posibilidad de presentarse a los
proyectos, el CETMIC convoca a Castiglioni a participar. En palabras del Director Ejecutivo de
Castiglioni, Edgardo García Molinari, “la cosa empezó cuando la doctora Torres nos pidió
muestras”. Varios investigadores del CONICET estaban haciendo estudios con bentonitas y
Torres tenía “dos o tres becarios que estaban estudiando el tema”. Entonces, al abrir la
convocatoria, el CETMIC buscó a Castiglioni como contraparte privada, que “más que nada lo
hicimos como una cosa de desarrollar algo nuevo, pero la parte que hacíamos nosotros eran
algunas cosas en nuestro laboratorio y básicamente el aporte del mineral” (Comunicación con
García Molinari, 31/05/2017).
La participación de Castiglioni durante el proyecto consistió en proveer el material. Como el
entrevistado reconoce, su rol fue proveer el material, pero sin interés en lo que se hacía con éste,
los avances e incluso los resultados del proyecto:
Esto para comparártelo, ¿vos conoces todo lo que son los revestimientos de piedras? Eso es
como si le dijeras a un tipo de esos ‘A ver qué podemos hacer con pedacitos de piedra para
hacer alguna cosa chica’ […] y él tipo te dice ‘tomá la piedra y hace lo que quieras’. Es un
poco así […]. Así que eso fue un poco la participación nuestra en el proyecto […] y si vos
me preguntás hoy en qué está, no tengo la menor idea […] (Comunicación con García
Molinari, 31/05/2017).
Torres confirmó el tipo de participación de Castiglioni al sostener que ella “tenía las arcillas
súper caracterizadas de Castiglioni” y había notado que “estas arcillas eran las que mejores
condiciones tenían para ser usadas”. Refiriéndose a Molinari, explicó que “Enseguida visualizó
que había una aplicación, darle valor agregado a las arcillas que él comercializa” (Comunicación
con Torres, 03/07/2017).
Por su parte, la empresa Alloys tuvo una participación más activa en el CAPP. Creada en
1992, cuya planta de fabricación se encuentra en Barracas (CABA), Alloys participa en el rubro
Al iniciar, el proyecto se separó en dos grandes áreas. Una fue el desarrollo de nuevos materiales
poliméricos utilizando nanoarcillas, que luego se subdividió en otras áreas, una de las cuales
consistió en dotar de capacidad ignífuga a estos materiales. La otra involucraba el uso de
nanoarcillas en remediación ambiental. Como explicó Torres, las arcillas tienen una estructura
laminar, cada una de las cuales están en la dimensión nano (entre 1 y 100 nanómetros) y la
separación de esas laminitas fue el eje de la parte técnica del proyecto, ya que las mismas
dispersadas individualmente abren un espectro de aplicaciones.
[…] pensamos utilizar las órgano-arcillas, es decir arcillas con sus laminitas separadas por
laminas sin estar exfoliadas […] estas órgano-arcillas retienen menos cantidad de fungicidas
que la arcilla sola. Pero permitiría por otra reacción (desorción), liberar el fungicida y dejar la
órgano-arcilla libre para una posterior retención de fungicida. Entonces lo que planteamos
en este proyecto era, aunque reduzcamos la cantidad de fungicida por gramo de órgano-
arcilla, si después lo podemos separar queda otra vez esa órgano-arcilla libre que se puede
reutilizar. Entonces no se acumula el material contaminado y libera el efluente industrial de
los fungicidas. En este tema tuvimos bastante éxito (Comunicación con Torres,
03/07/2017).
En esta parte del proyecto, el CETMIC trabajó en conjunto con el 3iA-UNSAM. Estos
lograron desarrollar un sistema que reemplazó las órgano-arcillas -las bio-arcillas-, que fueron
complementadas con un proceso de fotocatálisis:
En visitas a las plantas de empaque, con el Dr. Gustavo Curutchet [que trabaja con
microorganismos en el 3iA], vimos que se podían sacar microorganismos que habían podido
crecer en esos piletones de efluentes a pH muy ácido y reproducirlos para poner esos
microorganismos adsorbidos en la arcilla y entonces usar ese nuevo sistema, que
denominamos bio-arcilla, en lugar de usar la órgano-arcilla para retener el fungicida. Las bio-
arcillas nos permitieron retener con más éxito los fungicidas que se aplican y planear otro
tratamiento de remediación. Las bio-arcillas se aplicaron con fotocatálisis, tema de
experiencia del Dr. Roberto Candal [del 3iA]. Entonces vimos que si hacíamos el
tratamiento con bio-arcilla y lo que quedaba lo tratábamos por fotocatálisis, lográbamos
completamente liberar esa bio-arcilla y destruir el fungicida […] lo que hacíamos era,
primero generar los microorganismos, adsorberlos en la arcilla y después de un tiempo de
equilibrio se retiene parte de los fungicidas y sobreviene la aplicación de fotocatálisis. […]
Científicamente logramos nuestro objetivo, y económicamente a nivel de planta piloto
también es viable (Comunicación con Torres, 03/07/2017).
que iba a ser así. Hay empresas que no se comprometen mucho” (Comunicación con De
Micheli, 15/09/2017).
Sobre las dificultades más grandes, se concentraron en las cuestiones administrativas 11 y los
lentos tiempos burocráticos. Por ejemplo, un equipo que fue instalado en Alloys, tardó alrededor
de seis meses en ingresar al país, mientras que su costo seguía subiendo. El retraso generó
consecuentes demoras en el avance del proyecto, ya que una vez ingresado el equipo había que
instalarlo. Tampoco estaban claros los procedimientos al efectuar compras del exterior. Las
personas designadas como administrativos por parte de ANPCyT-FONARSEC no duraban
mucho tiempo en sus cargos, cambiando con frecuencia, debiendo los investigadores poner al
tanto a los nuevos administrativos de la situación en la que se encontraban y los documentos que
ya habían sido presentados en ese momento en particular.
Otra complicación fue la falta de coordinación inter-institucional entre las autoridades del
FONARSEC y empleados del CONICET en cuanto a la coordinación de cuestiones
administrativas. Por ejemplo, en los FONARSEC se podía hacer uso de becas en conjunto con el
CONICET. Sin embargo, la falta de coordinación entre estas instituciones derivó en que una
becaria –que había llegado de otra provincia y se había instalado- no pudiera cobrar su beca por
cuatro meses, ya que el CONICET y el FONARSEC no se ponían de acuerdo en quien debía
efectuar el pago. Con respecto a este tipo de dificultades, Torres comentó que a pesar de que “la
experiencia fue buenísima” y “Se compraron equipos que quedaron en los institutos”, “la parte
administrativa fue un desastre”. El problema, según la investigadora, fue la falta de personal
encargado de la administración:
[…] al principio todo estaba mal, había que repetirlo. Y eso implicó mucha energía, […]
hubiéramos podido avanzar de otra manera, sin tantas trabas administrativas […]
verdaderamente fue mucho el esfuerzo y la energía. Yo vivía en función del proyecto
FONARSEC. […] fue muy difícil, porque no estamos los científicos acostumbrados a hacer
todo ese trabajo administrativo […]. Verdaderamente yo dejé casi de lado toda la parte
científica (Comunicación con Torres, 03/07/2017).
Sin embargo, para las empresas la dificultad estuvo en el plano técnico y comercial. Según De
Micheli “La etapa de comercialización fue floja pero todavía no está terminada […] lo que le
queda a Alloys es si usamos nanotecnología en la parte de cables o en otra, pero todavía no
tenemos éxito”, aunque “eso no quiere decir que no hayamos adquirido conocimientos”
(Comunicación con De Micheli, 15/09/2017).
En opinión Torres, el proyecto alcanzó los objetivos propuestos y, por tanto, fue exitoso:
Nuestro centro es un centro de tecnología. Entonces tratamos de visualizar todo como para
que tenga aplicación y que la puedan usar nuestras empresas argentinas. Sobre todo, lo que
11 Esto refiere a aquellas cuestiones que atañen a la ejecución de los gastos, que contemplan recursos humanos
propios y adicionales, consultoría y servicios, becas, viajes y viáticos, materiales e insumos, bienes de capital,
infraestructura y otros (FS Nano, 2010).
más nos preocupa es darle valor agregado a estos minerales […] es un mineral que se agota,
y es un recurso que habría, de alguna manera, protegerlo un poquito más con valor
agregado. Y que le rendiría no solamente al dueño sino al país también (Comunicación con
Torres, 03/07/2017).
En contraste, para Alloys el éxito no es tan palpable porque aún no ha podido recuperar su
inversión monetaria en el proyecto, ni ha logrado desarrollar un producto pasible de ser
comercializado en lo inmediato:
Mi socio dice que perdimos 2 millones de pesos […] pusimos e instalamos la planta piloto
pero todavía no está activa. […]. Lo que haría la próxima vez sería estar más seguro de que
los productos que se están gestionando tengan más posibilidades serias de comercializarse.
Pero igual nadie está seguro de que lo va a poder comercializar […] a veces se llega a
situaciones en que al final no se pudo aplicar la tecnología. No es que siempre anda todo
bien […] De todos modos, hay que reconocer un fracaso porque a veces uno piensa que
todo es maravilloso y no es tan maravilloso (Comunicación con De Micheli, 15/09/2017).
4. NanoAR
El proyecto “Desarrollo de nanoarcillas modificadas y productos innovadores a partir de arcillas
nacionales” –conocido como NanoAR– involucró dos centros de investigación de la Universidad
Nacional de Mar del Plata (UNMdP) y varias empresas en el CAPP. Los dos centros pertenecen
al Instituto de Investigaciones en Ciencia y Tecnología de Materiales (INTEMA), dependiente de
la UNMdP y CONICET, el Grupo de Materiales Compuestos de Matriz Polimérica (CoMP) y el
Grupo de Polímeros Nanoestructurados (PolNano). Por la parte privada, participaron cinco
empresas, Gihon Laboratorios Químicos SRL, Yacimientos Petrolíferos Fiscales (YPF), Albano
Cozzuol SA, Acsur SA y Electroquímica DEM SRL. La doctora en Ciencias de los Materiales,
Vera Álvarez perteneciente al CoMP de INTEMA, se encargó de la dirección del proyecto. El
presupuesto adjudicado por la ANPCyT fue de poco menos de 4 millones de dólares con una
contraparte de 1 millón y medio de dólares para cuatro años de trabajo, dando inicio hacia mayo
de 2012 y finalizando en mayo de 2016. Se trata de uno de los tres proyectos seleccionados por
los bancos y por la ANPCyT/MINCyT como los “más exitosos” de los ocho proyectos
financiados en el área de nanotecnología.12
El objetivo general del proyecto fue el desarrollo de productos innovadores a partir de
materiales basados en matrices poliméricas, mediante el agregado de nanoarcillas modificadas. El
12 Para estos organismos un proyecto es “exitoso” siempre y cuando llegue a un prototipo final.
uso de polímeros modificados con nanoarcillas podría mejorar las propiedades mecánicas, de
barrera, la resistencia al fuego o a la abrasión, entre otras, de los materiales. La modificación
química de las arcillas es vital debido a que las mismas, tal cual son obtenidas, no son
compatibles con la mayoría de las matrices poliméricas utilizadas en diversas aplicaciones
(Lombera, 2015). Por consiguiente, el proyecto se dividió en cuatro objetivos específicos: el
desarrollo de las nanoarcillas modificadas químicamente, la dispersión de las nanoarcillas en
polímeros termoplásticos y precursores de polímeros termorrígidos, el desarrollo de productos
finales a partir de polímeros modificados con nanoarcillas y la consolidación de un espacio de
vinculación para el desarrollo de proyectos tecnológicos entre el sector industrial y el ámbito
académico (Álvarez et al., 2012). En otras palabras, se buscó darle valor agregado a la arcilla al
dispersarla, una vez modificada, en polímeros plásticos con el propósito de generar materiales
compuestos que sirvan para el desarrollo de espumas de polietileno, útiles para armar envases
térmicos para el traslado y conservación de productos farmacéuticos, y tubos plásticos para la
conducción de petróleo (Comunicación con Álvarez, 12/07/2017).
Los dos grupos del INTEMA, al momento de conformar el CAPP, poseían experiencias previas
en la realización de proyectos en conjunto con el sector productivo. De esta manera, si bien el
FONARSEC contemplaba culminar con los prototipos de los productos -ya que se financiaba
hasta la etapa pre-productiva-, una de las metas del CAPP fue alcanzar la etapa de producción
industrial. La conformación del CAPP, traccionada mayoritariamente por el INTEMA, siguió
criterios de experiencias previas entre los grupos de investigación y algunas empresas.
Gihon Laboratorios Químicos, fundada en 1991, es una empresa especializada en la
producción y desarrollo de compuestos químicos de síntesis orgánica compleja, organometálica e
inorgánica, cuyas moléculas generadas tienen aplicaciones en el campo farmoquímico, médico,
veterinario y agroquímico, entre otros. Su planta productiva y sus laboratorios de control de
calidad e I+D se encuentran en el Parque Industrial General Savio de Mar del Plata, provincia de
Buenos Aires. Gihon cuenta con un personal de alrededor de 40 personas que incluye científicos,
técnicos y operarios altamente calificados.
El director del Área de Investigación y Desarrollo de Gihon, el doctor en Ciencias Químicas
Alberto Chevalier, en una conferencia del congreso Nanomercosur 2017, explicó que Gihon es
una “empresa química o una empresa de síntesis de productos farmoquímicos que exporta más
del 70% de sus productos a más de 100 países”. Todos los productos que vende Gihon son
desarrollos propios y “eso está basado principalmente en que nuestra empresa […] tiene un
fuerte componente de profesionales”. Así, un tercio del personal de Gihon “es gente con título
de grado y/o posgrado y alguna especialización en algo y conforma un equipo interdisciplinario”,
conformando “el corazón, el motor de la empresa, que es nuestro laboratorio de I+D”, que es de
donde salen sus productos. Además, la empresa tiene varios proyectos de vinculación tecnológica
público-privado con distintas universidades en curso:
Nos gusta mucho la vinculación público-privada. […]. Nos gusta llevar el conocimiento y
transformarlo en un producto porque creo que al final la investigación científica debe tener
algún impacto en la sociedad y las empresas tenemos la responsabilidad de vehiculizar ese
Sobre su relación con el sector académico, Chavalier, que es profesor de la UNdMP, señaló
que “es fluida desde hace mucho tiempo y conozco mucha gente en el ámbito académico porque
trabajamos con ellos”. Los laboratorios de I+D de Gihon están “bien equipados”, por lo que
“vienen de las universidades a hacer prácticos o a ver equipos que no están en la universidad y a
ver nuestras plantas piloto”. Con estos antecedentes, la relación “entre la empresa y la academia
fue fluida porque yo tengo como un pie en cada lado”. El CoMP del INTEMA los invitó a
participar en el NanoAR y Gihon aceptó “porque hay moléculas que nosotros sintetizamos que
estaban involucradas en el proyecto […]. Básicamente lo que se hace es encapsular algún
producto, reforzar algún material con algún producto químico” (Comunicación con Chevalier,
6/03/2018).
Otra de las empresas participantes del CAPP fue YPF, que al igual que Gihon, contaba con
experiencias previas de trabajos con el INTEMA. YPF es una empresa argentina de energía
dedicada a la exploración, explotación, destilación, distribución y producción de energía eléctrica,
gas, petróleo y derivados de los hidrocarburos y venta de combustibles, lubricantes, fertilizantes,
plásticos y otros productos relacionados a la industria. Fue fundada en 1922 como empresa
estatal, privatizada en 1992 y años más tarde adquirida por la española Repsol, en un contexto de
desguace estatal que caracterizó la década de 1990. En 2012 fue convertido en ley un proyecto
para expropiar el 51 % del capital accionario de YPF, que desde entonces posee el Estado
argentino.
En el NanoAR, “la idea era desarrollar modificaciones sobre las nanoarcillas”, dado que “las
nanoarcillas modificadas tienen propiedades distintas a las nanoarcillas comunes sin modificar” y
“uno siempre busca cambiar las propiedades para que algo sea mejor”. YPF “quería utilizar estas
nanoarcillas para aditivar a los termorrígidos, a los polímeros que se utilizan para hacer los
tubulares para el transporte de petróleo, mejorando su vida útil” (Conferencia de Chevalier en
Nanomercosur, 26/09/2017). De tener éxito, se “podía generar una durabilidad del caño de más
del 50% de la vida útil”, lo que implica un ahorro de costos:
Nos pareció un proyecto que, además de ser muy interesante y tener matices
nanotecnológicos, tenía a nuestro parecer un impacto social y económico beneficioso para el
país porque el 51% de YPF es del Estado. […]. Ese proyecto concluyó exitosamente en
generar un producto reforzado con nanoarcillas modificadas para producir un material que
sea mejor contra el agua, contra el oxígeno, que eso hace que el caño en su vida útil dure 50-
60% más del tiempo (Comunicación con Chevalier, 6/03/2018).
Otra empresa que integró el CAPP es Electroquímica DEM, una PyME cuya actividad
consiste en la elaboración y distribución de productos químicos a industrias y consumidores
destinados al lavado, la higiene y la desinfección institucional y del hogar –además de elaborar
sus propios envases-. Fue fundada en 1976 y se encuentra en Mar del Plata (Electroquímica
DEM, 2018).
Por otra parte, una empresa que no integró formalmente el CAPP, pero que participó en el
proyecto informalmente fue Minarmco, minera dedicada a la explotación de arcilla bentonita,
ubicada en la provincia de Neuquén. Minarmco se encargó de proveer este recurso para que los
integrantes del CAPP pudieran realizar los estudios y análisis necesarios. Según la directora del
CAPP, a través de Minarmco tuvieron contacto con Albano Cozzuol y Acsur, “ya que no
habíamos tenido relación previa con estas dos empresas” (Comunicación con Álvarez,
12/07/2017).
Acsur produce preformas de PET, destinadas a las industrias de bebidas, aceites comestibles y
productos de limpieza y su planta industrial se encuentra en el Parque Industrial de Río Grande,
en Tierra del Fuego (Acsur, 2021). Por último, Albano Cozzuol, industria de plástico y
metalúrgica, cuenta con varias plantas productivas ubicadas en las localidades de La Plata y
General Pacheco, en la provincia de Buenos Aires y en Río Grande, Tierra del Fuego (Albano
Cozzuol, 2018).
Se buscó al fabricante de la arcilla que era Minarmco, después estaba como uno de los
destinatarios finales YPF y estaba Albano Cozzuol y DEM, que son posibles destinatarios de
esta tecnología porque algunos hacen autopartes […] poner refuerzos en las partes plásticas
de los autos o de los camiones hace que esas partes sean más livianas, más resistentes. Y
DEM que hace unos productos más aislantes […]. Y estaba Gihon que era el que hacía todo
el proceso. Gihon agarraba lo que se había investigado en el CoMP, lo escalaba, que es
nuestra especialidad, pasar de un producto de laboratorio a una planta piloto y luego a un
procedimiento, a un protocolo industrial […] (Comunicación con Chevalier, 6/03/2018).
Sin embargo, “eso no ocurrió así”. Minarmco cambió de directorio y renunció al CAPP,
aunque “nunca se negó a proveer la arcilla”. Las demás empresas, “a no ser YPF, no participaron
casi nunca”. Según Chevalier, el proyecto “fue llevado adelante por el CoMP y Gihon” y “la
participación de YPF fue activa en las reuniones y en el seguimiento del proyecto, pero YPF
estaba en el Consorcio para dar las especificaciones del producto que querían”. Las demás
empresas no colaboraron: “Es más, no les conozco la cara. […] Quizás aceptaron estar en el
Consorcio, pero sin ningún tipo de compromiso” (Comunicación con Chevalier, 6/03/2018).
Desde YPF explicaron que su interés en el NanoAR se concentró en la optimización de su
nivel productivo de hidrocarburos, añadiendo que poseían una relación con el INTEMA de
alrededor de 20 años. Las petroleras, explicó, “tenemos campos maduros y campos no
convencionales”. Los campos maduros consisten en hacer una perforación exploratoria y
encontrar petróleo. Después “se hace una perforación para delimitar la zona donde está el
yacimiento y después viene la etapa de desarrollo”, que es “perforando muchos pozos” y
haciendo estudios para saber el valor de reserva:
Para mejorar la performance de este tipo de material, “entra el mundo de los nanomateriales”.
Se eligió la nanoarcilla porque “uno de los mecanismos de falla que tiene ese tipo de plástico es la
hidrolisis”. Es decir, “el agua entra dentro de la matriz polimérica y empieza a lixiviar las sales
que tiene la matriz polimérica y deja la fibra expuesta”. Para impermeabilizarlo se utilizan las
arcillas. Para poner las arcillas en la matriz polimérica “se debe hacer al estilo nano”, lo que va a
permitir “materiales que se unen cada vez con más fuerza”, “mayor resistencia mecánica”, lo que
permite “trabajar con mayor facilidad”. Entonces, YPF integró el NanoAR para desarrollar ese
material y obtener “productos que no existen en el mercado mundial”, fabricándolo en
Argentina. Ahora bien, con el proyecto terminado y el material desarrollado, hacia fines de 2017
YPF estaba buscando socios industriales para hacer las pruebas en campo con el material nuevo,
pero “el problema es que hay un parate de la industria muy fuerte” y “no hay mucho volumen de
compra y por el momento no podemos invertir en el producto” (Comunicación con Da Silva,
08/09/2017).
Respecto a los resultados, aunque los prototipos de los productos están desarrollados, todavía no
se llegó a su comercialización. Chevalier explicó que Gihon se centró “en los termorrígidos para
tubulares porque es un mercado muy grande” y “pensamos que tendría un impacto muy
importante en el gasto público porque poder tener caños que duren 50% más del tiempo, que si
duran 20 años pasan a durar 30 años, es un ahorro de decenas de millones de dólares”, pero
desde YPF “dicen que necesitan hacer el desarrollo de los caños en campo y que no tienen
plata”:
Los protocolos que tiene la universidad para comprar son tan burocráticos que terminan
teniendo tantas complicaciones y una compra administrativamente puede durar meses […].
Al atraso se suma la inflación creciente […] como en estos proyectos increíblemente hay que
cotizar en pesos, entonces estamos en una camisa de fuerza (Comunicación con Chevalier,
6/03/2018).
En este punto agregó que, en el NanoAR, al ser un proyecto grande, “una variación de uno o
dos pesos en el dólar es un montón de plata”, por lo que “tenés que andar pidiendo
reconsideraciones, que te hagan refuerzo”. En su opinión, los temas administrativos de compras
fueron lo más complicado:
[Cuando] le dieron el control total del dinero a las universidades, terminó de arruinarse todo.
[…] [La universidad y la empresa] ponemos gastos de administración, de viáticos, para
movernos y después la universidad me dice que no paga viáticos a empresas privadas. Pero
la plata es nuestra. ‘No, pero entró a las arcas de la universidad’. Pero la plata fue para el
proyecto. […] Ahí empezamos con los problemas […] las empresas no quieren esas
demoras porque ponen plata en los proyectos. […] Después el proyecto se demora porque
las universidades no pueden transferir 10.000 pesos […] lo único que está pasando con este
sistema es que, si esto sigue así, en vez de incentivar a las empresas a que trabajen con la
parte pública, es todo lo contrario (Comunicación con Chevalier, 6/03/2018).
5. Discusión
En un escenario donde las políticas de promoción a la nanotecnología siguieron una lógica
basada en la oferta de conocimientos –a través de políticas horizontales-, concentradas
mayormente en la generación de recursos de financiamiento para actividades de I+D, los
FONARSEC reúnen características de políticas orientadas a misiones enraizadas en problemas
de relevancia socioeconómica para Argentina. Ambos casos presentados, enfocados en el
desarrollo de nuevos productos mediante el uso de nanoarcillas, se propusieron metas para
potenciar el desarrollo productivo nacional.
En la siguiente tabla se pueden apreciar las características destacables de los dos casos de
estudio desarrollados y sus resultados, incorporando las variables más importantes como
fortalezas y debilidades:
13La etapa de comercialización no fue parte de la evaluación de ANPCyT-MINCyT ni del BM, porque los
FONARSEC fueron diseñados como instrumento que cubría hasta la etapa pre-comercial, dejando afuera la
posibilidad de recuperar la cuantiosa inversión estatal.
otros ministerios deberían encargarse de ello. Pese a ello, la directora del FONARSEC señaló
que el “fracaso” de los proyectos estuvo en el escalado de los productos, “porque las empresas
vinculadas no tienen capital suficiente para la continuidad, para escalar el producto”
(Comunicación con Mac Donald, 22/03/2018).
Contrariamente a esta visión, en los países centrales el Estado financia el desarrollo de nuevas
tecnologías y toma la iniciativa en el impulso de nuevos mercados, acompañando todo el proceso
con inversión ingente, a riesgo y de largo plazo, que sea capaz de promover las innovaciones
tecnológicas radicales (Mazzucato, 2013; Ruttan 2008) –en este caso, la nanotecnología-,
incluyendo especialmente la etapa de comercialización (Mazzucato, 2013, p.19).
Como vimos, los FONARSEC contaron con una reducida participación empresarial. En
referencia a este punto, Mac Donald comentó que la participación de empresas nacionales en
procesos de innovación en general es baja, pero en este caso, el problema se vio magnificado por
la escasez de empresas trabajando con nanotecnología. Entonces, a la convocatoria “llegó el
sector científico primero” y “salieron a cazar empresas” y, como consecuencia, “las empresas que
se presentaron fueron aquellas a las que les vendieron alegremente el proyecto y que podrían
llegar a tener algún interés en utilizar algún insumo de tecnología nano” (Comunicación con Mac
Donald, 15/06/2017).
En este punto se pone en evidencia un rasgo que atraviesa a la economía argentina y que
dificulta la absorción de los desarrollos científico-tecnológicos por el sector productivo,
caracterizado como una matriz productiva conformada por sectores de baja intensidad
tecnológica que, por lo general, no generan demandas tecnológicas, y una escasa inversión en
I+D del empresariado argentino. Este escenario se replica también en la nanotecnología. Así,
según Mac Donald, lo que generó el FONARSEC fue un aprendizaje en cuanto a experiencias de
trabajo consorciadas entre el sector público y el privado, como “primer esbozo de vinculación
real entre el sector empresario y el sector de conocimiento”, generando impactos a nivel de
“casos testigos, casos exitosos, así como puntuales”, si bien todavía no se cuenta con “productos
escalados” (Comunicación con Mac Donald, 15/06/2017).
Si bien el NanoAR, elegido como uno de los proyectos más exitosos, tuvo un fuerte
involucramiento empresarial de Gihon y logró el desarrollo del prototipo de los caños reforzados
con nanoarcillas, el objetivo de introducir desarrollos tecnológicos en el mercado y recuperar la
inversión estatal no se logró, al menos hacia fines de 2017. Aun así, pese a las dificultades
operativas y de gestión en que estuvo inserto, el FONARSEC puede ser considerado como el
primer paso hacia la creación de un bolsón de eficiencia, en términos de Evans (1995), que
generó impactos a nivel de casos testigos. En base a la evidencia empírica de este artículo, se
puede sostener que los FONARSEC obtuvieron mejores resultados en aquellos casos en los que
hubo un fuerte involucramiento empresarial y donde las empresas definieron objetivos en base a
sus necesidades productivas. En otras palabras, los proyectos que reunieron mayor cantidad de
características mission oriented fueron los que mejores resultados obtuvieron. En este sentido debe
tenerse en cuenta que, si bien mayormente, las políticas que promovieron la nanotecnología en
Argentina lo hicieron a través de iniciativas horizontales dirigidas a fortalecer la infraestructura y
las capacidades científico-tecnológicas, el FONARSEC, al buscar la vinculación de actores
públicos y privados para el desarrollo de sectores, tecnologías y mercados, según objetivos
estratégicos estatales, buscó romper la lógica académica dominante basada en la oferta de
conocimientos.
Asimismo, el FONARSEC debe ser entendido como parte de un proceso de evolución de las
políticas de CyT y de aprendizaje institucional. Su objetivo general, como iniciativa novedosa en
materia de política científico-tecnológica, fue incentivar la vinculación entre el sector público de
investigación y el sector productivo. Se trata de un objetivo ambicioso, si se tiene en cuenta que
ya desde la década de 1960 y 1970 los exponentes del Programa de Estudios sobre el
Pensamiento Latinoamericano en Ciencia, Tecnología y Desarrollo (PLACTED) llamaron la
atención sobre la desvinculación entre la “infraestructura científico-técnica” y la “estructura
productiva”, en palabras de Sabato (2004), problema estructural que persiste en la actualidad en
Argentina. Considerando esta dificultad histórica, mediante el financiamiento de algunos
proyectos que promovieron la conformación de alianzas público-privadas, no era de esperar que
el FONARSEC resolviera un problema de esta magnitud, por lo que, el principal logro del
instrumento fue comenzar a abonar el terreno en materia de vinculación público-privada,
generando procesos de aprendizaje en este sentido.
En síntesis, esta primera experiencia en la conformación de alianzas público-privadas presentó
serias deficiencias operativas y de gestión, visibles principalmente en el plano administrativo y
burocrático. Existieron eslabones que no fueron considerados en el diseño del instrumento,
relativos a la gestión de los proyectos, como los tiempos que demandan la compra de
equipamiento científico-tecnológico y el impacto que produce en éstos los procesos de
devaluación e inflación que caracterizaron la economía argentina. Enfocarse en estas deficiencias
podría generar mejoras importantes en este instrumento de política. Sin embargo, los
FONARSEC posibilitaron avances de magnitud en términos de acumulación de capacidades y
aprendizaje traducidas en la creación de plataformas tecnológicas en base a las cuales se impulsó
la formación de recursos humanos calificados, la adquisición de equipamiento científico-
tecnológico, el afianzamiento de los vínculos y el trabajo entre el sector científico-tecnológico y
el sector privado, la obtención de prototipos y la instalación de plantas piloto industriales.
Ahora bien, hablar de procesos de aprendizaje supone la continuidad de las políticas públicas
y la estabilidad de las instituciones. Sin embargo, mientras que lo recomendable sería el
lanzamiento de Fondos Sectoriales de “segunda generación”, que capitalizaran los aprendizajes,
en los hechos el FONARSEC estuvo paralizado durante el gobierno de Mauricio Macri (2015-
2019). El gobierno de Alberto Fernández reposicionó las políticas para el desarrollo científico y
tecnológico como área estratégica, aunque la pandemia ocasionada por el virus SARS-CoV-2 y la
declaración de emergencia sanitaria alteró las metas gubernamentales durante 2020 y puso en
primera línea de las políticas públicas al sector de salud humana.
Referencias
Acsur (2021). Breve historia de Acsur S.A. http://www.acsur.com.ar/Historia. (Consulta: 13
febrero 2021).
Albano Cozzuol (2018). Quienes somos. http://www.acozzuol.com.ar/quienes_somos.php.
(Consulta 16 febrero 2018).
Álvarez, V., Hoppe, C., Montemartini, P. y Rodriguez, E. (2012). Desarrollo de nanoarcillas
modificadas y productos innovadores a partir de arcillas nacionales. Revista SAM, 2: 56-63.
Ficha técnica:
Título: Cultural Crowdfunding: Platform Capitalism, Labour and
Globalization
Año de edición: 2019.
Editor: Vincent Rouzé
Editorial: University of Westminster Press [Versión E-Book]
Ciudad de edición: Londres
Págs: 163
1 Rouzé, V. (ed.) (2019) Cultural Crowdfunding: Platform Capitalism, Labour and Globalization. London: University of
Westminster Press. DOI: https://doi.org/10.16997/book38. Disponible en:
https://www.uwestminsterpress.co.uk/site/books/e/10.16997/book38/
2 Becaria posdoctoral Conicet, en el Instituto Patagónico de Estudios de Humanidades y Ciencias Sociales (Ipehcs),
Especialista en Gestión Cultural y Políticas Culturales (Universidad Nacional de San Martín). Contacto:
victoriarusconi@gmail.com
1. Introducción
En un contexto marcado por la plataformización de una gran variedad de actividades productivas
a nivel mundial (Zukerfeld, 2020), encontramos publicaciones que abordan casos como los de
Rappi, Uber, Airbnb, TaskRabbit, entre otras plataformas que ofrecen los servicios más diversos.
Sin embargo, no son tantos los autores que se preguntan sobre cómo opera esta tendencia en el
campo cultural y artístico. En este libro, Vincent Rouzé 4 junto a otros autores5 propone un
recorrido que busca abordar las plataformas de crowdfunding que nuclean proyectos culturales y
artísticos desde una perspectiva crítica, en línea con los autores que señalan relaciones de
desigualdad entre los llamados prosumidores y las plataformas (Fuchs, 2012; Andrejevic, 2013;
Allmer, Sevignani y Prodnik, 2015; entre otros).
De manera simplificada, podríamos decir que las plataformas de crowdfunding son espacios
en donde proyectos de distinto tipo son financiados de manera colectiva. Los “creadores de
proyecto” suben la información sobre el mismo, generalmente en formato audiovisual, y el
monto al que tienen que llegar para poder llevarlo a cabo. Además, es usual encontrar distintos
tipos de recompensas o premios en función de los montos que se quieran/puedan aportar. Esta
no es la única forma en que funcionan este tipo de plataformas, pero es una de las más
difundidas. Ahora bien, estos sitios, siguiendo con la definición de Srnicek (2018), se presentan
como intermediarios que permiten que los proyectos puedan realizarse. Como reza en su página
una de las plataformas más conocidas “La misión de Kickstarter es ayudar a dar vida a proyectos
creativos.”6 Es sobre ésta, entre otras ideas que componen y dan fundamento a este universo,
que el libro discute.
Rouzé se propone, a partir de un análisis arqueológico (siguiendo a Foucault, 1972) de las
plataformas de crowdfunding, estudiarlas como objetos-discurso desde una perspectiva integral
que contemple no solo la forma en la que se originaron y en la que se estructuran en términos
organizativos, sino también el entramado de actores que participan en su funcionamiento, los
discursos que habilitan (especialmente aquellos en torno a la noción de lo “alternativo”), la forma
en la que reconfiguran la noción de trabajo, el modelo de negocios sobre el que se estructuran y
su rol tanto dentro de los países centrales como de los periféricos. La hipótesis que subyace al
abordaje de estos temas “...es que el desarrollo de estas plataformas, y los discursos que las
acompañan, son un indicador de una ideología capitalista marcada por la lógica de los
‘ecosistemas’, la creación de valor a partir del trabajo por proyectos [‘project-based’], y la
tercerización [outsourcing] de tareas, la cual busca ocultar las formas de trabajo [labour] y el
aparato social y financiero que impulsa estas plataformas” (p.18 eBook). En este sentido, las
preguntas que se constituyen como puntos de partida del libro son: “¿posibilita realmente el
discurso retórico del “empoderamiento” y la participación, y los nuevos servicios que se ofrecen,
la liberación individual? O, ¿están estas nuevas formas de alienación al servicio de un “neo”-
6). El artículo 4 fue escrito en coautoría con Jacob Matthews, y el 5 corresponde a Matthews, Stéphane Constantini y
Alix Bénistant. Es por este motivo, que a lo largo de este escrito, y para facilitar la lectura, nos referimos
principalmente a “Rouzé” o a “Rouzé y equipo” como sujeto/s de la escritura.
6 Fuente: https://www.kickstarter.com/about?ref=global-footer
que ponen en evidencia los matices y tensiones que en ellas operan. La hipótesis inicial es que las
plataformas de crowdfunding son dispositivos o aparatos del terreno económico, social, político
y legal que, a partir de 2010, se consolidan como nuevos actores intermediarios de la economía
cultural integrados en la misma lógica capitalista que se da por fuera del crowdfunding. Como se
verá más adelante, esta característica entra constantemente en tensión con los discursos que
operan en torno a ellas, a través de los cuales se construye la idea de que estas plataformas se
sostienen en una lógica colaborativa, participativa y comunitaria motivada por la obtención de un
beneficio común. Para desarticular el modo en el que operan estos discursos, Rouzé analiza
cómo funcionan estos aparatos en tanto herramientas que permiten obtener recursos para llevar
adelante diferentes proyectos. Veamos de qué se trata esto.
La novedad que incorporan las plataformas de CF en el circuito cultural es que instalan un
nuevo modelo: el de la intermediación. Esta característica opera en dos sentidos: por un lado,
permite pensarlas como una interfaz entre diferentes actores para garantizar el acceso a
información, contenido o servicios puestos a disposición por un tercero; por otra parte,
funcionan como un modo de convergencia industrial que organiza y jerarquiza los contenidos en
vistas de su presentación. De este modo, estas plataformas se posicionan como los nuevos
intermediarios en el ecosistema económico ya existente. Así, la intermediación digital posibilita
que se borren los límites entre producción y consumo bajo la idea de la “experiencia creativa” del
prosumidor. Esto permite que se disipe la noción de trabajo como relación social e invisibiliza las
relaciones laborales que en ellas subyacen, lo que permite, claro está, una precarización en las
condiciones de trabajo que rodean al funcionamiento de estas plataformas.
Para poder sistematizar qué tienen en común y qué diferencia a las plataformas de
crowdfunding entre sí, Rouzé pone en discusión la clasificación tradicional que suele aparecer
tanto en la bibliografía como en las descripciones de las propias plataformas (de recompensa, de
inversión, de préstamo y de donación). Según su análisis, estas categorías presentan tres
problemas centrales a la hora de pensar una arqueología de estos dispositivos de intermediación:
borra diferencias estructurales que puede haber dentro de una categoría, no logra abordar la
especificidad de cada plataforma, y no considera las plataformas “internas” del sector público o
privado. Entonces, propone una categorización alternativa basada principalmente en el tipo de
contenidos que ofrecen, la forma en la que se organizan, los actores que intervienen en ellas, y
que atienden a las estrategias y particularidades de las plataformas estudiadas. Según plantea
Rouzé, pensarlas de este modo permite abordarlas con mayor precisión, especialmente en el
campo de la comunicación y las industrias culturales. De este modo, redefine la categorización y
propone agrupar estas plataformas en generalistas, de nicho, locales, combinadas e integradas.
Algo que quizás se puede señalar respecto de esta clasificación es que no se contempla, en
principio, la diferencia entre aquellas plataformas con fines de lucro de las que no lo tienen, así
como tampoco propone una distinción que tenga en cuenta los proyectos colaborativos.
Además, si bien todo el análisis de este libro parte de datos cuantitativos y cualitativos
relacionados con plataformas específicamente culturales, no parece haber una reflexión
exhaustiva en torno a cuál es la especificidad de este tipo de interfaces orientadas a la promoción
de proyectos del ámbito del arte y la cultura. Más allá de la presencia de actores propios del
campo cultural y de la discusión que pueda darse en torno a la creatividad o a cómo aparece
representado el trabajo del artista en estas plataformas, cuestiones sobre las que reflexionaremos
más adelante, cabe preguntarse si hay rasgos estructurales propios que permitan diferenciarlas de
Otro elemento que cobra un papel importante en este tipo de plataformas, y que forma parte del
análisis que propone el libro, refiere a la formación que requieren quienes habitan estos espacios
para poder llevar a cabo su actividad, especialmente en el caso de quienes son creadores de
proyectos. Algo de esto ya fue mencionado más arriba, pero nos resulta interesante retomarlo ya
que juega un rol significativo en el éxito o no de los proyectos que se publican en este tipo de
plataformas, a la vez que forma parte del discurso que allí opera.
Hay varias cuestiones sobre las que nos interesa detenernos. En primer lugar, la creencia de que
las plataformas de crowdfunding habilitan el desarrollo de cualquier proyecto artístico sin importar su calidad.
Esto es algo que aparece en la voz de algunos de los actores entrevistados, quienes refieren que
tuvieron varios intentos infructuosos de publicar, por ejemplo, sus escritos a través de alguna
editorial por los altos estándares que éstas demandan, y encontraron en este tipo de plataformas
una forma más accesible de llevarlo a cabo. Sin embargo, como referimos más arriba, el éxito de
los proyectos lejos está de garantizarse por el solo hecho de estar en la plataforma. Aun así, este
tipo de discursos tienen una incidencia relevante, operando a nivel subjetivo y configurando
formas de estar y de transitar por el sitio, que refuerzan la creencia de que cualquiera puede
desarrollar su proyecto. En términos objetivos, esto incide en las personas que eligen estos
espacios para publicar y en el tránsito de usuarios que generan con la labor que realizan para
difundir sus proyectos, multiplicando así los ingresos económicos de este tipo de sitios,
independientemente del éxito o no de los proyectos.
En segundo lugar, esta idea de que no es necesario un saber experto (o presentar un
“producto de calidad”) tensiona con la idea de que para poder llegar a realizar los proyectos se vuelve
necesario desarrollar determinados conocimientos y know-how, por fuera de aquellos vinculados a la disciplina
artística de cada creador. Este tipo de plataformas presentan, en este sentido, ciertos lineamientos
que deben ser llevados a cabo para poder concretar un proyecto. Estos se vinculan sobre todo a
la capacidad de cada uno de los creadores de generar un producto atractivo y convocante, para
que esto atraiga a posibles donantes e inversores. Una serie de saberes son requeridos para que
esto funcione: poder elaborar materiales audiovisuales del proyecto, más allá de la naturaleza y
contenido del mismo; poder crear contenidos atractivos para difundir en distintos espacios
(imágenes, textos, otros videos, etc.); tener la capacidad de generar redes de contactos para llegar
a más gente; manejar distintas redes sociales y mantener una presencia activa en función de
sostener esas redes que mencionamos. Llevar a cabo esto implica, entonces, no solo tener
conocimientos vinculados a la producción audiovisual, el diseño gráfico, el manejo de sitios de
redes sociales, sino también disponer del tiempo para hacerlo. Así, quienes no tengan estas
capacidades se ven obligados, en el mejor de los escenarios, a tercerizarlas. Quienes no pueden
darse ese lujo, deben conformarse con aquello que pueden llegar a conseguir con los saberes que
tengan en estas áreas, o apoyarse en sus redes de contactos para generar lazos que amplíen los
participantes del proyecto en función de un abordaje más interdisciplinar. Esto último se vincula
directamente con otro tema que aparece mencionado en el libro en varios pasajes, referido a la
figura de un tipo particular de emprendedor. En este caso, se define el perfil que encarnan los
actores (tanto creadores como administradores) aquí involucrados como “emprendedores
polimorfos” o “al límite” (ubicados al límite/frontera de distintos mundos en tensión) (p. 89, Ebook). En
efecto, se señala que tanto el trabajo de creadores como el de administradores consiste en
sintetizar actores y lógicas múltiples (muchas veces contradictorias), en orden de optimizar la
extracción de valor económico de la cual depende su subsistencia.
En tercer lugar, en el libro se señala la existencia de programas pedagógicos en plataformas de CF,
acompañados de un discurso casi evangelizador que tiene como misión esparcir ideas novedosas entre comunidades y
grupos sociales aún reacios a estas “nuevas formas”. Específicamente, se menciona el desarrollo de
centros educativos propios, training centres, en las grandes plataformas como Kickstarter e
Indiegogo. Estos discursos que configuran la misión pedagógica y que deben pasarse de uno a
otro, llegando a las pequeñas masas que cada proyecto pueda llegar a conseguir, destaca los
valores de ayuda mutua y una imagen generosa de este tipo de plataformas, y entra en tensión
con las dificultades para conseguir fondos para financiar los proyectos. Sin embargo, este
discurso es lo suficientemente fuerte como para solapar este último aspecto. Aquí, como se
mencionó en el primer apartado, cumplen un rol central los administradores como encargados de
reproducir el discurso de la plataforma y buscar la manera de que los proyectos puedan
concretarse (en tanto ellos también se benefician económicamente de esto). Pero, como también
señala Rouzé, los creadores no estarían exentos de esto, dado que su éxito también va a depender
de esa reproducción ideológica. Esto da lugar a una serie de preguntas sobre el rol que cumplen
los administrados en tanto reproductores ideológicos como parte de su misión pedagógica y del
acompañamiento psicológico que realizan a los creadores. En este sentido, ¿moldean los
administrados a los creadores?, ¿en qué medida?, ¿existe una relación asimétrica entre ellos o, por
el contrario, operan todos ellos del mismo modo como productores de formas culturales e
ideológicas dentro de y para las plataformas?, ¿o es su relación asimétrica, en el sentido de que la
producción ideológica de los administradores sirve para “formar y agitar” a los creadores? (p.
107, eBook) Aquí podemos sumar los siguientes interrogantes: ¿cómo se genera el discurso para
transformar a los trabajadores culturales en emprendedores?, ¿de qué manera quedan
invisibilizadas bajo este discurso las relaciones laborales?, ¿cómo se piensan y verbalizan allí las
tensiones económicas?, entre otras.
no se basa en una estandarización de los proyectos (no solo en cuanto a su formulación sino
también al modo en el que se financian), sino que busca “contribuir a una transferencia
financiera desde los centros económicos hacia los márgenes, las favelas, con la intención de
construir un país más diverso” (p. 140, eBook) con un espíritu basado en lo comunitario.
De todos modos, los autores señalan que estos no dejan de ser casos aislados, y que también
se puede plantear una hipótesis contraria a partir de la cual las plataformas de los países
periféricos no harían más que reproducir las lógicas planteadas por los países centrales,
profundizadas incluso debido a la ausencia de regulaciones laborales que conllevan a una
uberización de las relaciones de producción. Al respecto, los autores ven como un agravante el
hecho de que normalmente sean actores exógenos (capitales extranjeros o plataformas de los
países centrales que “absorben” a las locales) los que imponen la formación que indica el modo
en el que los creadores deberán moldear sus proyectos, así como los modos de obtener los
fondos para llevarlos adelante. El hecho de que actores extranjeros, tanto económicos como
políticos, tengan a su cargo tanto la formación como los modos de financiamiento permite,
según los autores, que se utilicen las plataformas de crowdfunding como herramientas para
difundir “producciones ideológicas” relacionadas con la orientación del flujo financiero, políticas
sociales y culturales, así como formas de organización del trabajo.. Este “aporte” suele
presentarse como una forma de dotar a los países subdesarrollados de mejores herramientas para
el desarrollo de sus proyectos, y los actores exógenos suelen presentarse como aquellos
encargados de garantizar la conexión entre diferentes actores privados, públicos y de la sociedad
civil (tanto locales como extranjeros). Esta lógica no solamente restringe la autonomía de los
actores endógenos, sino que muchas veces, según los autores, termina siendo funcional a un
sistema a través del cual el flujo económico continúa orientándose desde los países pobres hacia
los países ricos.
Si bien en el “Sur Global” también están presentes (aunque reconfigurados) los modos de
producción del sistema capitalista, los autores señalan que en el discurso de los actores de estos
países aparece una mayor conciencia respecto de la precarización laboral y de las trabas que
implica el financiamiento de proyectos a través del CF. En diferentes testimonios recogidos en
países africanos, los entrevistados manifiestan que aún no están dadas las condiciones
(especialmente económicas y de desarrollo local) para que el financiamiento cultural se desplace a
este tipo de plataformas, a la vez que expresan las dificultades que implica alcanzar ese know how
del que hablábamos en el apartado anterior (lo que conlleva, a su vez, muchísimas horas extra de
trabajo no remunerado). En muchos de estos países aún no han emergido plataformas
endógenas de crowdfunding cultural y el financiamiento de los proyectos queda relegado a
actores de los países centrales, que muchas veces reúnen los fondos en sus propios territorios,
incluyendo el aporte de comunidades diaspóricas. Los autores atribuyen esto a diferentes
motivos, pero señalan dos como los más importantes: por un lado, la baja presencia de internet y
de herramientas técnicas en muchos países del Sur Global; por otra parte, los bajos niveles de
bancarización de las poblaciones locales. En este sentido, la emergencia de aparatos endógenos
suele ser lenta, ya que muchas veces las formaciones impartidas en estos países son muy
elementales, orientadas en gran parte a desarrollar algunas herramientas básicas y a generar
credibilidad en los posibles aportantes.
La informalidad de la economía a la hora de pensar estos modelos de financiamiento parece
ser un factor ineludible del análisis. Al respecto, los autores plantean el siguiente interrogante:
¿este tipo de plataformas contribuyen a la formalización de la economía o profundizan la
informalidad? Si bien el libro no es concluyente en este sentido, se esboza una posible respuesta:
“Desde nuestra perspectiva, parece más bien una manera específica de desarrollar y legitimar
servicios que son una parte integral de la economía formal. (...) Lo que se persigue no es tanto
una formalización de la economía sino una adaptación a su carácter informal para volverlo
productivo (al menos en términos económicos)” (p. 127, eBook).
Como hemos mencionado anteriormente, el auge de las plataformas de crowdfunding
resultan funcionales a ciertas políticas públicas liberales en Latinoamérica orientadas a relajar el
financiamiento de la cultura por parte del Estado y depositar la posibilidad de su desarrollo en el
esfuerzo individual del emprendedurismo y la economía “creativa”. Sumado a esto, desde la
esfera pública en ocasiones se prioriza el uso de plataformas exógenas en detrimento de las
locales, aunque, según exponen los autores, en algunos países también se están desarrollando
programas locales endógenos, desde los gobiernos, que garanticen estos modos de
financiamiento. Si bien el libro no lo desarrolla en profundidad, es interesante pensar de qué
modo ciertos estímulos impositivos pueden contribuir al análisis de estas cuestiones. ¿Quiénes se
constituyen como agentes principales del financiamiento cultural?, ¿qué tipo de producciones
favorecen?, ¿cuánto interviene la regulación impositiva impulsada por los gobiernos en la
generación de un sistema en el que la producción de manifestaciones culturales depende de la
contribución de actores privados (muchas veces concentrados en grandes empresas)?
6. Para cerrar
A lo largo de este escrito nos hemos ocupado de recuperar algunos de los ejes y discusiones que
a nuestro entender resultan más atractivos de este libro, sin dejar por eso de marcar aquellos
elementos que exigen mayores respuestas e indagaciones. Aun así, nos parece destacable aquello
que el libro habilita a pensar y a preguntarse, sobre todo vinculado a lo que sucede en nuestra
región.
Son muchos los elementos que esta lectura ofrece para problematizar la cultura y su
plataformización a través del CF. En este sentido, conocer cómo funcionan este tipo de
plataformas, cuál es su entramado de actores (endógenos y exógenos), cuáles son los discursos
que habilitan (y los que subyacen a ellas) y cómo es la organización del trabajo que se genera en
torno a ellas, nos sirve para problematizar distintos aspectos de la(s) cultura(s), su financiamiento
y el lugar que ocupa (o deja de ocupar) el Estado. Asimismo, el libro introduce la cuestión de la
democratización (o no) que posibilitan estas plataformas, y nos invita a reflexionar sobre el nivel
de la recepción: ¿acaso la existencia de estas plataformas posibilita que más personas accedan a
una mayor cantidad de manifestaciones culturales?, ¿quiénes son los contribuyentes que
posibilitan el desarrollo de los proyectos que allí se promocionan?, ¿quiénes serán los
destinatarios de las creaciones culturales que estos proyectos generen?
Queda por seguir indagando qué de todo esto nos sirve para pensar en regulaciones que
recuperen las particularidades de cada región, apoyen las producciones locales y pongan un freno
a la normalización y la estandarización que imponen los centros de poder. Este libro configura
un gran punto de partida para hacerlo.
Referencias
Allmer, T., Sevignani, S., & Prodnik, J. A. (2015). Mapping approaches to user participation and
digital labour: A critical perspective. Reconsidering Value and Labour in the Digital Age, 153.
Andrejevic, M. (2013). Estranged free labor. Digital labor. The internet as playground and factory (Scholz,
T., pp. 149–164). Routledge.
Foucault, M. (1972). La arqueología del saber (A. Garzón del Camino, Trad.). Editorial Siglo XXI
Fuchs, C. (2012). Class and exploitation on the Internet. In Digital labor: The Internet as playground
and factory (Scholz, T., pp. 211–224). Routledge.
Srnicek, N. (2018). Capitalismo de plataformas (A. Giacometti, Trad.). Caja Negra.
Zukerfeld, M. (2020). Bits, plataformas y autómatas. Las tendencias del trabajo en el capitalismo
informacional. Revista Latinoamericana de Antropología del Trabajo, 4(7).
Resumen. Este texto define y caracteriza la computación en la nube. Asimismo historiza brevemente su
devenir en Argentina y los principales debates que ha suscitado. Se trata de un texto destinado a
contextualizar e introducir las propuestas realtivas a la nube híbrida en Argentina que se ofrecen a
continuación.
Al igual que otros términos como Big Data o Inteligencia Artificial, la Computación en la Nube
implica y a la vez aglutina numerosas características, aristas y problemáticas.
Yendo a lo concreto, la Computación en la Nube se puede definir como un sistema para
almacenar, producir, analizar y distribuir datos, información, aplicaciones y servicios (Mosco,
2014), con la particularidad de que estos procesos ya no tendrían lugar solo en los dispositivos o
servidores locales, sino que tienden cada vez más a ser realizados a distancia. En este sentido se
habla de una enorme reserva de recursos virtualizados de todo tipo donde el hardware y el
software son proporcionados como un servicio a través de Internet. Cabe destacar que su
despliegue involucra a un conjunto de actores, desde los proveedores de servicios de nube (PSN)
y sus socios, las empresas que deseen implementar este tipo de soluciones, el Estado y sus
organismos y la enorme masa de usuarios y empresas que día a día utilizan estos servicios quizás
no del todo conscientes, como por ejemplo cuando ingresan a un sitio web o meramente envían
un email (Maquiera Alonzo, 2021).
Entrando a sus particularidades y aristas, la Computación en la Nube lejos de ser uniforme,
comprende cuatro modelos de despliegue y tres tipos de servicio, todos ellos combinables.
En torno a los primeros, se puede encontrar un modelo “público”, donde se habilita un
servidor compartido por múltiples clientes, un modelo “privado” avanzando en torno a un
servidor enteramente dedicado para un cliente, un modelo “híbrido” donde se contratan ambos
tipos de servidores antes nombrados distribuyendo el cliente entre uno y otro según sean sus
requerimientos y un modelo “comunitario” donde se habilita un servidor compartido por
distintos clientes para llevar adelante distintas tareas específicas. Cabe destacar que esta
1Intgrante del Comité editorial de Hipertextos. Licenciado y Profesor de Sociología (FSOC-UBA), Doctorando
en Ciencias Sociales (FSOC-UBA) y Diplomado Superior en Gobernanza de Internet (UDESA-UFRGS).
Becario doctoral del CONICET. Docente Facultad de Ciencias Sociales, miembro del Equipo Sociedad,
Internet y Cultura del Instituto de Investigaciones Gino Germani (IIGG). Contacto: martin.gendler@gmail.com
clasificación lejos debe de ser asociada con la propiedad de los servidores que conforman la
“nube”. Una empresa privada como Google puede desplegar los cuatro modelos sin que todos
sean necesariamente privados. En contraposición, los modelos de nube desplegados desde el
Estado no son necesariamente públicos.
En torno a los tipos de servicio, estos refieren principalmente a los recursos de software y
hardware que se ponen a disposición. En primer lugar, cabe destacar a la Infraestructura como
Servicio (IaaS) donde solo se “alquila” la capacidad de procesamiento y almacenamiento de
servidores alojados de forma remota junto a otros elementos como máquinas virtuales, firewalls
y sistemas operativos siendo sus mayores exponentes Amazon Web Services o Microsoft Azure. En
segundo lugar, la Plataforma como Servicio (PaaS) implica la puesta a disposición de un software
específico, ya armado o disponible para ser creado desde cero, donde se puedan desarrollar
aplicaciones diversas, bases de datos, herramientas de desarrollo, entre otras siendo uno de sus
mayores exponentes Google App Engine. Finalmente cabe destacar el Software como Servicio
(SaaS), quizás el más conocido y utilizado por los usuarios, ya que implica utilizar aplicaciones ya
configuradas proporcionadas por el proveedor desde distintos tipos de dispositivos siendo uno
de los ejemplos más claros toda la suite de Google Drive o Microsoft Office 3652.
Estos tipos de servicio, si bien tienen características distintivas, también implican un
diferencial control de los recursos contratados. Un informe del Banco Interamericano de
Desarrollo (2020) alertaba en torno a esto, siendo el IaaS el que mayor control le permite
desplegar a los administradores locales (aproximadamente un 50%), siguiendo el PaaS
(aproximadamente un 30%) mientras que el SaaS implica un control sumamente mínimo (10%),
lo que permite evidenciar que en todos los casos el PSN tiene y mantiene un papel fundamental
más allá del modelo. Esto también permite configurar un particular panorama al entender que
tan solo cuatro empresas implican actualmente el 67% de la cuota de computación en la nube a
nivel mundial (Maquiera Alonzo, 2021), siendo Amazon la empresa claramente preponderante
con un 32%3.
Ahora bien, la Computación en la Nube no es una modalidad nueva. Sus primeras
investigaciones tempranas datan de la década de 1970, ligeramente abandonada al masificarse los
ordenadores personales, pero sin embargo siendo impulsada nuevamente a fines de los 90s y
principalmente desplegada por Amazon a partir del 2002 y Google en el 2006. Tras la crisis de
2008 y sus efectos, marcados principalmente por dar paso a la economía de datos y el capitalismo
de plataformas (Srnicek, 2018), la computación en la nube también recibió un fuerte envión
declarando las principales empresas que esta sería la “evolución de la Web 2.0”. Esto también
caló hondo en los distintos Estados, los cuales velozmente lo incorporaron como práctica
preponderante para implementar sus planes de Gobierno Electrónico, Acceso a la Información
Pública, entre otros, siendo los EEUU el pionero en 2010 y siguiéndole la Unión Europea en
2012. De esta manera, poco a poco las distintas naciones empezaron a implementar como
prioridad un modelo en el cual, si bien efectivamente se lograban optimizar procesos y reducir
costos, de todos modos, empezaba a entreverse una fuerte problemática: la mayoría de los
recursos se encontraban en servidores fuera de las fronteras nacionales lo que implicaba en la
práctica nuevos desafíos tanto a la privacidad de los datos de los ciudadanos como de la
2 Dentro de este modelo hay uno incluso hasta más específico, el Email como Servicio (EaaM) cuyos mayores
exponentes podrían ser Gmail, Hotmail o Yahoo!.
3 Microsoft con un 20%, Google con un 9% y Alibaba con un 6% completan la ecuación.
soberanía de los Estados. Situación la cual se agudizaba aún más al ser los organismos estatales
muchos de los principales contratantes de servicios de nube.
En Argentina en particular, la Computación en la Nube empezó a ser contemplada
tímidamente en el Decreto 378 del 2005 que aprobó los lineamientos estratégicos del Plan
Nacional de Gobierno Electrónico especialmente en torno a los procesos de digitalización de la
Administración Pública Nacional (APN). A esto podemos sumarle la creación de ARSAT en
2006 como un intento del Estado en torno a incrementar su participación en diversos temas
vinculados. Sin embargo, la cuestión permanecería mayormente en boxes hasta el año 2015 en el
que la Jefatura de Gabinete a través de la Disposición 1/2015 avanzó en torno a la clasificación
de información y sistemas de información en la APN, principalmente centrándose en tópicos
como la protección de los datos, registros y derechos de propiedad intelectual, y también en
torno a la confidencialidad, integridad, disponibilidad, autenticidad, legalidad y auditabilidad de la
información que podría ser alojada tanto en servidores de los mismos organismos como también
en opciones de servicios de nube. Esta medida se conjugó el mismo año con la Disposición
18/2015 de la Dirección Nacional de Datos Personales (DNDP), la cual pasó a considerar el
almacenamiento en la nube como una transferencia internacional de datos a la vez que señalaba
una serie de características para su protección y auditabilidad. Al año siguiente la misma DNDP
por intermedio de su Disposición 60/2016 profundizó en esto elaborando distintos parámetros
generales para la contratación de un proveedor de servicios de nube.
El mismo año, 2016, la Oficina Nacional de Tecnologías de la Información (ONTI) comenzó
a tomar cartas en el asunto, impulsando un relevamiento en función de evaluar la posibilidad de
ir transfiriendo datos de la APN hacia una Nube Privada de ARSAT. Esto fue complementado
en 2017 con el estudio de experiencias de otros países como los EEUU, la Unión Europea, el
Reino Unido y otros países de Latinoamérica publicando en 2018 un Decálogo Tecnológico. En
este se decidió adoptar una política de cloud first4 para la APN, abriendo la posibilidad de utilizar
todos los modelos de nube, pero dando preferencia al modelo “híbrido” a la vez de avanzar en la
clasificación de los proveedores de nube. Finalmente, en 2019 se crearía un “Marco Acuerdo”
respecto del Uso de Nube en Gobierno (ONTI, 2019) donde se establecía las pautas de
contratación de estos servicios por parte de la APN. En pocas palabras, se debían contratar tanto
modelos “públicos” como “privados” para congeniar así un modelo “híbrido”, mayormente
utilizando IaaS. La contratación de nube “pública” debía apuntar a los ambientes de desarrollo,
backups y el repertorio de datos para acceso a la información pública, mientras que el modelo
“privado” se apuntaba para apps críticas, plataformas de email y el repertorio de información
sensible. Asimismo, también se publicó la Guía de Contratación de Servicios de Nube en
conjunto con lineamientos específicos respecto de la contratación de Iaas, Paas y SaaS.
Avanzando hacia la actualidad, las acciones de gobierno para disminuir las consecuencias de la
pandemia tuvieron como uno de sus principales efectos un aumento de la conectividad del 39% 5
junto a un incremento del uso de las principales plataformas para sostener muchas de las esferas
de la vida otrora mayormente presenciales. En otras palabras, esto puede traducirse en un
fenomenal incremento del volumen de datos generado y en circulación, mayormente hacia fuera
de las fronteras nacionales. Este panorama llevó al gobierno argentino no solo a declarar las
4 Cloud First es como se conoce a la política respecto de evaluar como primera alternativa a los servicios de
computación en la nube al momento de requerir o renovar servicios tecnológicos (BID, 2020).
5 Véase https://www.ambito.com/negocios/tecnologia/efecto-pandemia-la-conectividad-se-disparo-un-39-
argentina-2020-n5164637
telecomunicaciones como servicio público y esencial sino también al despliegue del Plan
Conectar 2020-2023 en función de mejorar las condiciones de conectividad, revitalizar la
Televisión Digital Abierta y avanzar en torno a poner en valor el Centro Nacional de Datos.
Respecto de esto último, a inicios de 2021 se lanzó una Consulta Pública sobre la Nube
Híbrida de Gobierno6, convocando a distintos sectores interesados a enviar aportes y
recomendaciones en función de establecer parámetros, normativas y futuros pasos a seguir en
una lógica muy similar a las desplegadas por las iniciativas de la Gobernanza de Internet. La
convocatoria presentaba como uno de sus principales focos el intentar consolidar el rol de
ARSAT en los servicios de computación en la nube reemplazando el Cloud First por una nueva
fórmula: “ARSAT First”. Esto apuntaba principalmente a la APN, en la cual solo un 15% de sus
organismos utiliza servicios de nube actualmente, pero también a futuro para todos los
ciudadanos y empresas. Cabe destacar que en la consulta se pretendía evaluar una posible hoja de
ruta donde, como primera etapa, se contemplaba la vinculación con un PSN, solicitando al
respecto recomendaciones en torno al tratamiento de datos, su administración para evitar
prácticas de lock-in7, inversiones y los términos del posible acuerdo. Asimismo, se anticipaba que
“pasar a la Nube ya no es una cuestión de "sí", sino más bien de "cómo" y "cuándo"”. La consulta cerró
finalmente el 27 de abril, siendo recibidos 23 aportes provenientes del sector privado, académico,
público y de la sociedad civil8.
6 Véase http://servicios.infoleg.gob.ar/infolegInternet/anexos/345000-349999/347722/res19.pdf
7 El Lock-in consiste en una condición de dependencia respecto de un PSN en sentido de implicar serias dificultades,
enormes sumas monetarias o directamente la imposibilidad de cambiar a otros proveedores luego de ser contratado.
Esto puede generarse por cláusulas contractuales como también por el formato del código técnico en que los datos,
plataformas y/o softwares son moldeados originalmente por el PSN (BID, 2020).
8 Véase https://desafiospublicos.argentina.gob.ar/noticias/finalizo-la-consulta-publica-nube-hibrida-en-gobierno
Cabe señalar que la mayoría de los aportes provienen del sector privado (12), seguido por el sector académico (4).
9 Véase http://www.cvi.com.ar/nube_hibrida_nacional.pdf
10 Véase https://nhg2021.sutty.nl/?fbclid=IwAR3fjl9w9_lQ9B7rUU6SGU0gTVZ-
W9lFMuEU3H1OUdo4D2L3MSo6tXErYyw
Invitamos así a adentrarse en este interesante y necesario debate, donde no solo el “cómo” y
“cuándo” de la implementación de la Computación en la Nube es fundamental sino, como se
podrá apreciar a continuación, también otro tipo de aristas, focos y problemáticas vinculadas.
Referencias
Banco Interamericano de Desarrollo “BID”. (2020). Computación en la Nube. Contribución al
Desarrollo de ecosistemas digitales en países del Cono Sur. Washington D.C: IDB.
https://publications.iadb.org/publications/spanish/document/Computacion-en-la-nube-
Contribucion-al-desarrollo-de-ecosistemas-digitales-en-paises-del-Cono-Sur.pdf
Maquiera Alonzo, J. (2021, 4 de mayo). “¿Qué es la nube, dónde está y porqué debería
importarnos?”, Amenaza Roboto. https://amenazaroboto.com/cloud-computing-001-que-y-
donde-esta-la-nube
Mosco, V. (2014). To the Cloud: Big Data in a Turbulent World. CO: Paradigm Publishers.
Oficina Nacional de Tecnologías de la Información “ONTI” (2019). Uso de Nube en Gobierno:
Marco Acuerdo. Recuperado de:
https://www.argentina.gob.ar/sites/default/files/onti/onti/77_uso_de_nube_en_ambiente
_de_gobierno_acuerdo_marco.pdf
Oficina Nacional de Tecnologías de la Información “ONTI” (2021). Consulta Pública: Nube
Híbrida en Gobierno/ARSAT. http://servicios.infoleg.gob.ar/infolegInternet/anexos/345000-
349999/347722/res19.pdf
Srnicek, N. (2018). Capitalismo de Plataformas. Buenos Aires: Caja Negra.
Cómo citar: Monk, M.; Schapachnik, F.; Uchitel, S.; Vannini, P.; Zukerfeld, M.; Díaz, D.; Dunayevich, J.;
Lagostena, J. y Passerini, N. (2021) Nube híbrida nacional: soberana, libre, interoperable y con desarrollo
local. Revista Hipertextos, 9 (15), 201-205. DOI: https://doi.org/10.24215/23143924e036
1 gcoop - FACTTIC
2 Fundación Sadosky & ICC UBA-CONICET
3 Director Instituto UBA/CONICET de Ciencias de la Computación
4 gcoop - UNPAZ
5 Conicet - e-TCS/Centro CTS/Umai
6 Lic en Ciencias de la Computación, UBA. Esp en Gestión de la Tecnología y la Innovación, UNSAM
7 Lic. en Ciencias de la Computación
8 Ing. en Informática, docente universitario
9 Ingeniero en Sistemas de Información, docente universitario. Director de Seguridad de la Información en AFIP
país se desprende de grados de libertad para adoptar las políticas tecnológicas que le resulten
convenientes, restricción que a su vez impacta en cómo despliega el aspecto tecnológico de sus
políticas, que es cada vez de mayor preeminencia.
Consideramos que la nube híbrida nacional puede y debe ser desarrollada en base a
tecnologías libres, interoperables, que aseguren independencia al Estado de cualquier
proveedor de software o infraestructura de cómputo.
Existen en el país personas e instituciones públicas y privadas con los conocimientos que
permiten desarrollar la nube híbrida nacional generando trabajo y desarrollo local. En base a
tecnologías libres y con personal local, el Estado puede asegurar el cumplimiento tanto de las
normativas como de los más altos estándares en cuanto a la seguridad de la información
y el resguardo de los datos personales de la ciudadanía.
Como señala la convocatoria la nube pública debe evitarse el vendor lock-in, es decir, las
ataduras a uno o varios proveedores, asegurando mediante estándares abiertos la
interoperabilidad con otras infraestructuras públicas o privadas.
Las siguientes secciones discuten distintos aspectos de las posibilidades que consideramos que
se abren si la nube híbrida nacional se desarrolla bajo los principios de soberanía, software libre e
interoperabilidad.
Visión
Conceptualizamos a la nube híbrida de Gobierno en base a algunos principios ordenadores y de
organización.
● Soberanía tecnológica.
● Software libre.
● Interoperabilidad.
Principios de organización:
Soberanía tecnológica
Es importante destacar que hoy en día la implementación de casi la totalidad de las políticas
públicas requiere algún soporte informático. Desde el análisis de grandes datos de salud en el
contexto de la pandemia de covid, hasta de las políticas de desarrollo social como la AUH. Este
nivel de informatización de la gestión del Estado sólo va a crecer en los próximos años, a un
ritmo cada vez más acelerado.
La tecnología de nube aparece en el centro de cualquier implementación tecnológica de hoy
en día. Es por eso que el Estado debe asegurarse su control legal, intelectual y operativo. Una
nube basada en tecnologías libres permite que el Estado conozca todos los detalles de la
tecnología que emplea y le da la posibilidad de tomar sus propias decisiones tecnológicas.
nacionales de infraestructura, los sindicatos, organizaciones del mundo del trabajo y sus
trabajadores.
Seguridad de la información
En un modelo de computación en en la nube, los usuarios del servicio entregan sus datos y
delegan diferentes formas de cómputo en el proveedor de la plataforma, que se responsabiliza
por garantizar la confidencialidad, integridad y disponibilidad de los datos y computaciones. El
Estado, al brindar o promover la existencia de un servicio de Nube Híbrida, tiene la obligación
irrenunciable de velar porque el servicio provisto cumpla con estas cualidades. Estas
responsabilidades sólo pueden cumplimentarse en tanto el Estado reserve para sí la capacidad de
controlar cada uno de los componentes que intervengan para la provisión de los servicios.
Generación de empleo
La nube híbrida nacional puede tener impactos virtuosos en la cantidad y calidad del empleo
argentino al menos mediante dos mecanismos. El primero se asocia a la creación directa de
empleos y consiste en reemplazar parte del masivo trabajo que realizan las plataformas
extranjeras y privadas; plataformas que, en muchos casos, no respetan las condiciones de trabajo
estipuladas por los marcos legales nacionales ni ofrecen remuneraciones justas.
El segundo mecanismo refiere a que, de manera indirecta, la nube híbrida de gobierno puede
impulsar el crecimiento de las firmas del sector SSI argentino y así incrementar la cantidad y
calidad del empleo en el sector. De hecho, pese a su sostenido crecimiento y su capacidad para
generar trabajo y agregar valor, el sector se encuentra aún poco integrado con el Estado. La nube
híbrida es, por ello, una excelente oportunidad para demandar desarrollos y servicios del sector
SSI que a su vez, generen más empleo local e, incluso, para hacerlo priorizando a las empresas
que garanticen condiciones de trabajo y remuneraciones justas para para sus trabajadores y
trabajadoras.
Ahorro de divisas
Una de las ventajas del modelo de nube híbrida propuesto es que se reduce sustancialmente la
erogación de divisas o incluso en algunos casos se puede hasta evitar. Esto encuentra su
fundamento en el hecho de que:
● Si lo hacemos con herramientas open source o de código abierto, muchas veces se puede
evitar tener que recurrir a soluciones pagas provistas por proveedores extranjeros bajo la
modalidad de licencias.
● Dado que el hardware es ofrecido por ARSAT, y por consiguiente, adquirido en gran
escala, el costo es significativamente más bajo.
consumir recursos sólo cuando se necesita, en lugar de hacerlo todo el tiempo. Esto a fin
de cuentas se traduce en una optimización en la administración de dichos recursos.
● Un modelo de software como servicio (SaaS) permite generar sobre la base de una
plataforma común una cartera de herramientas articuladas entre sí que pueden utilizarse
para diversos fines en toda la organización: Recursos Humanos, Presupuesto,
Patrimonio, etc. Así, se evita recurrir a soluciones externas y se optimiza el desarrollo de
sistemas brindando herramientas que pueden utilizarse en todo el Estado Nacional.
Cómo citar: Morales, S. y Natansohn, G. (2021) Cuando la nube no es simplemente una metáfora. Revista
Hipertextos, 9 (15), 207-210. DOI: https://doi.org/10.24215/23143924e037
En las páginas que siguen, proponemos analizar una iniciativa lanzada recientemente por el
gobierno argentino, respecto a la creación de una Nube Pública en Gobierno.
La expresión de “nube” en realidad es una metáfora muy difunda, que alude a un lugar donde
se almacena la información que luego se recupera a través de Internet (ejemplos comunes son
Google Drive, OneDrive de Microsoft o Icloud de Apple, aunque es mucho más que eso: todas
las interacciones que tenemos con Internet se almacenan, las cosas que compartimos, los
consumos, lo correos electrónicos, etc.). Pero muchas personas no se imaginan qué sería ese
espacio: la nube. Es un conjunto (miles y hasta millones) de computadoras o lotes de
almacenamiento, con gran capacidad. Estas granjas de servidores, como han sido llamadas, han
dado lugar a la idea de cómputo en la nube, que es un concepto actual. En general, las empresas
u organizaciones tradicionalmente han desarrollado sus sistemas de computación y alojado los
datos que generan en sus propias computadoras o servidores. Por ejemplo, compañías
aseguradoras, o bancos, gobiernos, etc. Pero eso requiere una gran inversión en tecnología,
mantenimiento y en software. Por eso ahora, actualmente y cada vez más, están adoptando lo
que se llama cómputo en la nube, es decir “tercerizando” en cierto modo esa tarea. Las
principales proveedoras de este tipo de servicios son Microsoft, Amazon y Google.
Lo que está haciendo el gobierno argentino con esta iniciativa es crear una nube (y los
servicios asociados) para el sector de gobierno, para que, por ejemplo, en lugar de almacenar los
datos en nubes de empresas de tecnología con sede en territorio extranjero, se haga en el país.
Una cuestión que hay que tener en cuenta para entender la propuesta del gobierno es el marco
en que se inscribe esta iniciativa, el Plan Conectar 2020-2023, que tiene 4 ejes: el desarrollo y
construcción del satélite ARSAT-SG1, la actualización y ampliación de la Red Federal de Fibra
Óptica, la actualización de equipamiento para la Televisión Digital Abierta, y la ampliación del
Centro Nacional de Datos de ARSAT. Este último (ubicado en la provincia de Buenos Aires)
está asociado a los servicios de “nube” (almacenamiento y servicios de cómputo), con lo cual se
pretende “tener soberanía política sobre nuestros datos”, según la propia definición del gobierno.
Por lo cual, se espera que los datos generados en nuestro país, en lugar de quedar almacenados
en servidores de empresas de países extranjeros, queden en nuestro país, en el Centro Nacional
de Datos.
A los efectos de involucrar en esta iniciativa a diversos actores sociales, el gobierno abrió una
Consulta Pública para conocer y receptar propuestas representativas que expresen diferentes
intereses.
Entendemos que, como nunca, los conocimientos científico-tecnológicos deben ponerse a
disposición de la ciudadanía para que, de manera informada, las personas podamos participar en
la toma de decisiones, sea individual u organizadamente, en nuestras prácticas cotidianas o en las
políticas públicas. Es decir, no se puede dejar solamente en manos del mercado tecnológico o los
grupos de expertos informáticos la dirección que toma la sociedad en estas cuestiones, porque
afectan cada vez más nuestras vidas, nuestras democracias y nuestros derechos. Es por ello que
desde la universidad pública hemos generado una serie de conversaciones sobre la iniciativa de la
nube híbrida en gobierno, y hemos elaborado un documento de análisis y propuestas que se
puede consultar en línea, tratando de hacer un aporte al diseño de esta política pública.
Así, durante los días 29, 30 y 31 de Marzo, a través del Ciclo de Conversaciones en Red V,
organizado por GATEC (Grupo de Investigación Apropiación de Tecnologías digitales y
Comunicación-UNC) y GIG@ (Grupo de Pesquisa em Género, tecnologias digitais e cultura-
UFBA, Brasil), nos propusimos generar un escenario de debate en torno a este tema.
Denominamos a este Ciclo de Conversaciones como “Soberanía tecnológica ¿que implica y cómo alcanzarla?
Debates en torno a la creación de la Nube Pública Nacional”, y por ello una buena parte de las
discusiones se dieron alrededor de esta idea. Como fruto de esos días de intercambio de
opiniones, produjimos un documento elaborado por 18 académicos y activistas que participaron
del Ciclo, que contó con la adhesión de 18 instituciones académicas y más de 100 firmas
individuales, y fue elevado como propuesta de este grupo de trabajo ante la Secretaría de
Innovación Pública. El documento completo puede leerse en: https://nhg2021.sutty.nl//
A lo largo de esas jornadas, debatimos diferentes aspectos respecto de la propuesta del
gobierno, partiendo de la base que la misma es una iniciativa necesaria y que trasciende los
territorios nacionales, por lo que se enmarca en un asunto de importancia geopolítica regional.
Resulta valioso que el Estado argentino haya instalado este tema en la agenda pública y lo haya
puesto a consideración de la sociedad a través de consulta pública. Este proyecto puede servir de
impulso y referencia para el resto de los países de la región, cuando las condiciones políticas
avalen la deseada integración y cooperación regional en términos más justos y solidarios
En este sentido, en el documento que produjimos, postulamos que “la idea de soberanía
tecnológica del proyecto de ARSAT es una condición necesaria pero insuficiente para abordar
los múltiples desafíos que las tecnologías digitales plantean”. Si bien se reconoce que hay
diversidad de planos en los cuales es preciso tener un horizonte de soberanía, desde este espacio
de trabajo entendemos que se trata de reconocer “la capacidad del Estado de decidir sobre la
adquisición, creación y uso de tecnologías que mejor se adecúen a los intereses nacionales”. Esta
capacidad se expresa en las políticas públicas.
Asimismo, consideramos que es preciso comprender la complejidad de fenómenos o
dimensiones que atraviesan una política orientada a la soberanía, en este caso tecnológica, dado
Los textos serán evaluados por dos pares anónimos externos –por lo que se solicita que se
omitan las referencias que permitan identificar al autor más allá de la primera página-.
Los trabajos deben estar escritos en un procesador de textos (en .doc, .rtf, .odt) y han de
prepararse de acuerdo a las siguientes normas:
1. Formato general del texto: descargue la plantilla o siga las instrucciones que allí
figuran en el siguiente link:
https://revistas.unlp.edu.ar/hipertextos/libraryFiles/downloadPublic/72
2. Forma de citado APA Séptima edición
Las contribuciones que no respeten estas normas serán devueltas a los autores.
editor@revistahipertextos.org
Los autores de las contribuciones que sean aceptadas para su publicación deberán, en su
momento, completar un formulario de cesión de derechos.
Objetivos y alcances
Hipertextos tiene como objetivos:
Invitar a participar, convergiendo o divergiendo, a todos aquellos que, desde distintas miradas, se
sientan convocados por estas temáticas en particular y por el debate intelectual en general.
Temáticas sugeridas
Trabajo y Tecnologías digitales. Las transformaciones en el mundo del trabajo: las mutaciones
en el mundo laboral asociadas a la difusión de las tecnologías digitales. Trabajo
informacional, trabajo inmaterial, digital labour, trabajo mediado por plataformas (gig
labour), automatización y prosumerización. La tensión entre el ocio y la explotación
(playbour).
Política, políticas públicas y tecnologías digitales. Políticas públicas en torno de las tecnologías
digitales, políticas de acceso e inclusión digital. Derechos humanos y TD. Políticas en
torno del uso y producción de software, incluyendo software libre. Digitalización de la
gestión estatal, e-government, cambios en los modos de hacer política, ciberactivisimo,
modalidades de democracia directa, voto electrónico.
Control y tecnologías digitales. Ponencias sobre la llamada Sociedad de Control, desde sus
aspectos teóricos hasta estudios de caso. La masificación de las cámaras de vigilancia, los
debates sobre la privacidad, la Internet de las Cosas, las bases de datos y otros
fenómenos asociados al incremento de las posibilidades de control social digitalizado.
Deseo y subjetividad. Construcción social del deseo, el placer y el goce en entornos digitales.
Las aplicaciones de citas (love apps). El consumismo romántico en el capitalismo
cognitivo. La mercantilización de los afectos y las alternativas.
editor@revistahipertextos.org
Web
https://revistas.unlp.edu.ar/hipertextos
https://www.facebook.com/RevistaHipertextos/
https://instagram.com/hipertextos_revista