Divulgación y producción de la Ciencia y los problemas neoliberales.

Adiós a las cosas: el smartphone se  devora el mundo

Julián Varsavsky,  Licenciado en Ciencias de la Comunicación (UBA), fotógrafo y documentalista, escribe en Página 12

El ensayista Nicolás Mavrakis analiza No-cosas, nuevo libro de Byung-Chul Han

En su nuevo ensayo, el filósofo surcoreano hace una crítica radical del smartphone y ve una disolución del mundo en “no-cosas”: del orden terreno al orden digital y la pérdida del ser desde la mirada heideggeriana.

El escritor y ensayista Nicolás Mavrakis es autor de Byung-Chul Han y lo político (Prometeo, 2021) donde recorre el pensamiento del famoso filósofo surcoreano. Lleva años estudiando los vínculos entre la cultura humanística y la tecnología digital en publicaciones como Una pregunta sobre internet (Letra Sudaca, 2017), Houellebecq, una experiencia sensible (Galerna, 2016) y #Findelperiodismo y otras autopsias en la morgue digital (Ediciones CEC, 2011).

--Según Byung-Chul Han, el mundo se vacía de cosas para llenarse de información: se descorporiza perdiendo la referencialidad y la facticidad. Los signos digitales, cada vez más, ya no representan a un objeto real. Y nos desmaterializamos como personas en dígitos: el “otro” va desapareciendo también. ¿Desde la perspectiva heideggeriana de Han avanzaríamos hacia una mayor pérdida del Ser?

--Sin dudas, el avance del “emplazamiento técnico” profundiza el olvido del ser. Nos reduce a la mera verdad del “ente”, cuya función en este “emplazamiento técnico” hoy liderado por Silicon Valley es demandar y consumir objetos, al punto tal que el hombre mismo se reduce a un objeto entre otros. Han menciona en este sentido la cuestión de la autoexplotación: “Ahora uno se explota a sí mismo y cree que está realizándose”. En No-cosas, estas premisas se afinan en una crítica precisa a algo que Heidegger intuyó pero no llegó a ver: el hecho de que, como escribe Han, “el mundo se torna cada vez más intangible”, lo cual no tiene tanto que ver con la melancolía por la materialidad de las cosas, sino con un eficiente traslado hacia la vida cotidiana de la lógica actual del capital. Este desarraigo del capital frente a toda acción económicamente productiva en beneficio de la pura financiarización especulativa lo vemos en marcha entre palabras vaporosas como “los mercados” o “las inversiones extranjeras”. Estamos hablando de ciclos financieros, no de ciclos productivos. Silicon Valley es un ejemplo de cómo se pueden crear las más grandes fortunas a partir de la especulación improductiva con “no-cosas” como los datos. Pero en este punto hay que recordar lo que Heidegger decía a través de Hölderlin: “Donde está el peligro, crece también lo que salva”. En la medida en que seamos conscientes de lo que pasa, es más probable que podamos reaccionar. Pero, ¿queremos reaccionar?

--El filósofo dice que las energías libidinales se apartan de las cosas para ir hacia las no-cosas: “nos hemos vuelto todos infómanos”, fetichistas de la información y no de las cosas. ¿Qué es un infómano?

--El “infómano” es la versión última del narcisista, cada vez más dependiente de lo que le da certezas afirmativas sobre el valor de sus opiniones, sus consumos y sus hábitos, expuestos a cada instante y sin sospechas de negatividad. Han repite una y otra vez que lo único que las redes sociales nos retribuyen a cambio del usufructo voraz de nuestros datos es narcisismo. Los “Me gusta”, los “corazones”, los “compartidos” y los “vistos” que intercambiamos no son más que narcisismo distribuido por usuarios que, al mismo tiempo, son cada vez más segmentados, filtrados y moldeados por la lógica narcisista de las redes. El círculo de confirmación mutua y celebratoria que nos repite que somos las mejores versiones posibles de nosotros mismos cierra a la perfección. Hay vidas, incluyendo carreras profesionales súbitas y exitosas, atadas a la reputación que se construye con el narcisismo digital.

--Sería el caso del derrumbe de la multinacional WeWork con el megalómano de Adam Neumann.

--Es un buen ejemplo. Tal vez Han no es tan popular en Twitter por señalar estas farsas. El punto es que el “fetichismo de la información y los datos” no es una conducta que se nos imponga por las malas, sino por las buenas.

--Han hace casi un llamado a aferrarnos al “orden terreno” compuesto por cosas físico-analógicas. Opina que lo firme y duradero estabiliza la vida, pero está siendo sustituido por el orden digital: cada vez más percibimos el mundo a través de pantallas y no tocamos las cosas. La mayor parte de la comunicación pasa por allí. El mundo va perdiendo solidez y “se torna cada vez más intangible, nublado y espectral... El smartphone irrealiza el mundo”. ¿Por qué lo alarma tanto a Han el que los dispositivos se estén devorando el mundo?

--Acá podríamos dar vuelta la pregunta: ¿por qué no nos alarma tanto a nosotros que los dispositivos se estén devorando al mundo? Hay una zona en la argumentación de Han a la que se puede atacar por buenas razones. Porque son ideas que nos enfrentan al hecho de que nuestra propia identidad, a pesar de lo que muchas veces nos gustaría creer, es menos maleable, mutable y transformable que lo que pensamos, y por eso no podemos evitar ser cómplices conscientes del sistema. Ahora bien, cuando Han habla acerca de dispositivos como el teléfono inteligente, lo que se cuestiona es nuestra complacencia irrestricta a un sistema de explotación que nos riega con narcisismo. Si creemos que Han sólo está contra los teléfonos, nos queda la caricatura de un pesimismo anacrónico que, además, convalida nuestra propia fantasía autocomplaciente acerca del libre dominio que creemos tener sobre los objetos técnicos del siglo XXI. Pero Han no está contra los teléfonos inteligentes por lo que son, sino por lo que hacen y representan. Lo dice con claridad: el teléfono profundiza el cautiverio en un sistema que sólo nos da libertad para optar entre elecciones preestablecidas y consumos, pero empantana toda acción concreta. Gran parte de lo que consideramos “activismo político” no es más que una inútil “indignación digital”. Pero Han dice algo más: lo único “inteligente” del teléfono inteligente es que gracias a la complacencia narcisista con la que nos nutre cada interacción digital, este “capitalismo del Me gusta” no tiene que temer ninguna resistencia. Es la permisividad del “capitalismo del Me gusta” lo que anula cualquier confrontación. Fastidia un poco el hecho de que Han lo diga sin vueltas porque esto es un ataque directo a nuestro narcisismo, de repente asediado por el hecho de que aunque Silicon Valley nos haga creer que somos emperadores, estamos desnudos.

--Para Han, nos estamos “mudando” a la infósfera, donde no necesitamos las manos: el hombre del futuro “ni siquiera se dará cuenta de que no usa las manos”. Los trabajos físicos tienden a hacerlos máquinas y robots. Empuñamos el mouse o apretamos un botón y todo arranca. Aunque esas interfaces tienden a desaparecer ante los comandos de voz. Dice el filósofo que Heidegger parece haber intuido que el ser humano no tendría manos y que en lugar de trabajar, se inclinaría a jugar. El análisis de la mano por Heidegger puede usarse hoy como defensa del orden terreno frente al digital. Aquel pensador distinguía la mano de los dedos: en el uso de la máquina de escribir solo intervenían las yemas y esto “retira al hombre de la esfera esencial de la mano”. Plantea que es la mano la que nos abre el mundo circundante. La mano que toma la cosa, la experimenta más originalmente que la mera visualización. Martillar es lo que mejor nos descubre el martillo: la mano es la que tiene acceso a la esfera original del ser. Y la existencia humana hace pie en tierra: el pie para Heidegger representa la estabilidad del suelo que conecta al hombre con la tierra que le da sostén. Las manos y los pies nos ligan al orden terreno. Concluye Han: “El hombre sin manos del futuro es también un hombre sin pies. Abandona flotando la tierra hacia la nube digital”. ¿Qué es “el hombre sin manos que teclea”?

--Esto vuelve a la cuestión de cómo Han retoma ideas de Heidegger acerca de la técnica. Un punto importante es qué significan las “cosas” para Heidegger. En el contexto de Ser y tiempo, las “cosas”, en tanto que instrumentos, establecen la mundanidad del mundo: nos muestran que hay ciertos fines y efectos posibles, y el modo en que los empleamos definen tal o cual proyecto. Es por esto que el modo en que el hombre, como Dasein, decide qué hacer con estos instrumentos, define su sentido en términos de “efectividad de la existencia”. Pensemos en una “cosa” conocida como la noche. La noche ya no existe. Silicon Valley la está aboliendo con el “scrolling” hipnótico en redes sociales y el “binge watching” (las maratones de series). Para los trabajadores de la seguridad informática, hace un buen rato que no existe tal cosa como la noche porque internet nunca se apaga. Como sea, lo que Heidegger dice es que la relación inicial del hombre con el sentido del ser se da a partir de su alcance de las cosas, ¿pero qué pasa si las cosas se disuelven en bytes? Heidegger intuía que la “tierra”, aquello propio que fundamenta un arraigo inalienable, también quedaría dentro de la esfera de la “maquinación” y su mundo de puras ganancias y beneficios. A partir de ahí, si hoy usamos las manos, los dedos, la mirada o el pensamiento para controlar los dispositivos, no son más que tecnicismos. De lo que se trata es del desarraigo de todas las instancias conocidas de lo humano. Por supuesto, uno lee esto y no puede menos que pensar en el chasquido del guante de Thanos, el personaje de Marvel, pulverizando a la humanidad. Y esto puede ayudar a encasillar a Han como un oscuro nihilista. Sin embargo, él no describe algo que va a pasar, sino algo que está pasando. Esto es lo inquietante.

--Han concluye que “nos encaminamos hacia una era trans y poshumana de información. La digitalización es un paso consecuente en el camino hacia la anulación de lo humano”. Y habla de una pérdida del mundo. No sé si estamos ante la “pérdida del ser” en lo que respecta al humano. Se lo puede ver como evolución, cambio del ser, mutación no biológica sino tecnológica, buscada y consciente: la consolidación del cyborg. Vivimos rodeados de tecnología, los dispositivos se nos adosan al cuerpo y van entrando en la piel. También la percepción ha cambiado y nadie puede detener eso.

--¿Las redes no riegan nuestro narcisismo con reconocimientos virtuales en la medida en que contamos todo el tiempo lo que sentimos? ¿Y lo que sentimos no es casi siempre lo opuesto del pensar? Y si nuestro narcisismo es recompensado por sentir en lugar de pensar, ¿no tiene mucho sentido que en las redes haya una total ausencia de negatividad? Apenas asoma la negatividad, se la bloquea, silencia, deja de seguir o se la “cancela”. Y sin negatividad, dice Han, no hay lenguaje ni entendimiento. Como buen romántico, Han no propone qué hacer frente a la época, sino que simplemente se opone al “deber ser” de la época. No es poco. Y es, además, una posición crítica astuta: evade una discusión con el único filósofo contemporáneo al que nunca menciona en sus libros, el alemán Peter Sloterdijk. Sloterdijk explica que la esencia del hombre no ha sido nunca otra cosa que la técnica, y por eso oponerse a los gigantescos saltos tecnológicos no significa proteger al hombre de nada, sino negar lo que es: esa artificiosidad que llamamos “transhumanismo”.

--Para Han, el “Phono sapiens descubre la comunicación como su campo de juego. Es más Homo ludens que Homo faber”. ¿Qué significa esto?

--Han dice que el Phono sapiens, un hombre ligado en cuerpo y alma a su teléfono inteligente, deja de “actuar” ante el mundo y abandona el estado de Homo faber para convertirse en un Homo ludens, que es algo así como un hombre que, tal como ocurre en un juego, se limita a seguir reglas establecidas por otro para cumplir objetivos ajenos. ¿Y a cambio de qué? De gratificación narcisista. Han habla de un futuro cercano hecho de renta básica universal y juegos de video. La verdad, no creo que sea algo tan lejano de los planes de Mark Zuckerberg a partir de su presentación de Meta.

--Han parece renegar del smartphone: creo que ni tiene uno. Esa suerte de nostalgia analógica parece algo ingenua y conservadora. Para la acción política se necesita el smartphone: imaginemos el feminismo sin la ayuda práctica de redes sociales para las movilizaciones. El smartphone es una tecnología como las demás: su sentido está abierto, no viene dado. Renunciar a él sería renunciar a la política. Es evidente que se está convirtiendo en un opio, que potencia la fragmentación perceptiva y la pérdida de sentido, que nos tiene trabajando gratis para nuevos señores feudales digitales alimentando el big data, que diluye la “era de la verdad” dando paso a la sociedad posfactual de la fakenews, que es un campo de trabajo móvil y un informante que nos monitorea: nos sentimos libres y nos delatamos en un confesionario móvil. Es una herramienta de la derecha mundial, pero no podemos cedérsela en exclusividad. No está completo el diagnóstico si lo consideramos solo eso, puro veneno. Un arma puede servir para oprimir o liberar.

--Es un error pensar que el sentido de la tecnología está abierto y no viene dado. De hecho, el sentido de la tecnología sí viene dado, no está abierto y no es otro que la expansión del mundo en el que tal sentido es posible. Es lo que Heidegger llamaba “la esencia de la técnica”. Los usos de un teléfono pueden variar, pero su esencia no está abierta a discusión. Con menos filosofía y más pragmatismo: estamos hablando de la expansión de la lógica existencial del neoliberalismo. Lo mejor que podemos hacer es conocer esa esencia de la técnica para alcanzar una relación más “serena”. Aun así, tampoco creo que el smartphone haya ayudado a la emancipación de nada ni nadie. Toda adquisición de derechos es fruto del trabajo de la política, es decir, de los mecanismos y las convicciones de la política y de la sociedad que la interpela. Tuitear en favor de la vida o contra los incendios forestales nunca le salvó la vida a nadie ni apagó una sola hoja en llamas. En internet no hay ninguna libertad ni algún orden constitucional que garantice nada. Estas ilusiones son el subproducto de un negocio y de un modelo de vigilancia, nada más. Aun así, no se trata de apagar nuestros módems y tirar los teléfonos. Han no llama a pensar desde la negación sino desde la negatividad, es decir, desde cierto entendimiento crítico que pueda relampaguear en nuestra mente mientras madrugamos repartiendo “corazoncitos” en Instagram creyendo que nada tiene mayor sentido.

La desigualdad automatizada

Sofía Scasserra, Economista, especialista en economía digital, comercio, desarrollo y empleo. Se desempeña como docente e investigadora del Instituto del Mundo del Trabajo (Universidad Nacional de Tres de Febrero, UNTREF). Es asesora del movimiento sindical internacional y del Senado argentino e investigadora en el Transnational Institute. Escribe en Nueva sociedad (NUSO Nº 294 / JULIO - AGOSTO 2021)

La inteligencia artificial plantea nuevos problemas y desafíos respecto de la industrialización del Sur global, que se enfrenta a renovadas formas de colonialismo. Lejos de reducir las desigualdades, las normas para la economía digital que están siendo negociadas en la Organización Mundial del Comercio podrían agravar las brechas existentes. 

Décadas atrás, Alan Turing ya se preguntaba si la inteligencia artificial era realmente inteligencia (A. Turing: «Computing Machinery and Intelligence» en Mind vol. LIX No 236, 10/1950.). De aquellos experimentos más filosóficos que matemáticos quedó, sobre todo, la duda sobre si las tareas automatizadas son más eficaces que aquellas que hacemos «manualmente». En los años recientes, con el desarrollo de las telecomunicaciones primero, y de la cibernética después, comenzó a ser posible recoger, procesar y sistematizar una enorme cantidad de datos (big data) mediante sistemas de algoritmos. Nacía así lo que hoy conocemos como inteligencia artificial: algoritmos que mediante enormes cantidades de información pueden emular comportamientos humanos y optimizar tareas. 

A menudo se expresan sentimientos de temor respecto de qué pasará cuando estos sistemas «reemplacen» a los seres humanos (Kai Beckmann: «Will Computers Eventually be Smarter than Humans? The Future Transformation» en Merck, 24/5/2020.). Lo cierto es que siempre hemos encontrado formas tecnológicas de realizar las tareas de manera más eficiente: el transporte nos hace llegar más rápido, la industria textil produce más y mejores vestimentas, las máquinas levantan la cosecha a mayor velocidad, etc. ¿Y la inteligencia artificial? Procesa información. Pero ¿es realmente «inteligencia»? Lo distintivo de los seres humanos no es solo su capacidad de procesar y absorber información; es también su capacidad de equivocarse, de crear, de aprender, de ser únicos, de ser diversos, de ver las cosas desde otro ángulo. Artificial, seguro, pero ¿inteligencia? El machine learning nos muestra que la evolución de esta tecnología puede emular a nuestro cerebro, pero aún falta mucho camino por recorrer (Machine learning o aprendizaje automático refiere a sistemas que aprenden solos sobre la base de la información que reciben.). De hecho, la inteligencia artificial encuentra su mayor debilidad y sus mayores críticas en su poca capacidad de juzgar en diversos contextos, en su estandarización de los resultados, en su homogeneización de todos sin distinguir diversidades. Esto hace pensar en la inteligencia artificial como en una mera tecnología (aunque sumamente poderosa), que tiene una capacidad inimaginable de procesar información y, sobre esa base, trazar una línea hacia el futuro, teniendo únicamente en cuenta las variables o contextos que hayamos incluido en el conjunto de datos que la alimentan. Dicho de otro modo: la creatividad, la imaginación y la crítica sobre su propio accionar quedan a un lado, y difícilmente pueda emular la inteligencia humana. No solo eso: la programación es realizada por seres humanos con limitaciones y preconceptos que los llevan a diseñar una inteligencia artificial sesgada. Así, las críticas respecto a la discriminación, los sesgos, los juicios sin contexto y otras falencias que presenta son tantas que nos hacen pensar si no son máquinas de generar exclusión artificial.

Desigualdad y exclusión

Ya están bien documentados los problemas de exclusión y desigualdad social que genera la incorporación de inteligencia artificial en diversos ámbitos (Safiya Noble: Algorithms of Oppression: How Search Engines Reinforce Racism, NYU Press, Nueva York, 2018.). Se han detectado algoritmos que estigmatizan a las personas de color (V. el sitio web de Algoritmic Justice League [Liga de Justicia Algorítmica], www.ajl.org/.), que otorgan menos crédito a mujeres por el solo hecho de ser mujeres ( «Apple’s ‘Sexist’ Credit Card Investigated by us Regulator» en BBC News, 11/11/2019.) o que directamente imposibilitan el acceso a empleos por diversos motivos (Jeffrey Dastin: «Amazon Scraps Secret ai Recruiting Tool that Showed Bias against Women» en Reuters, 10/10/2018.). El problema de fondo no es solo la base de datos sobre la que está construido el sistema de inteligencia artificial, sino más bien, y sobre todo, la decisión sobre quién da las órdenes y define la acción del equipo programador. La poca diversidad sexual, racial, étnica y cultural que existe entre quienes diseñan y producen la tecnología es un problema, pero no el único (El sitio Data usa señala que casi 92% de quienes programan en EEUU son hombres. V. estadísticas en https://datausa.io/profile/soc/computer-control-programmers-operators#demographics.). Si los algoritmos deciden sobre las personas, sobre su libertad, sobre su empleo, sobre su capacidad de acceder a seguros, servicios médicos y otras cuestiones fundamentales de la vida, es menester tener la posibilidad de regularlos. 

Parece lógico, pero para entender por qué esto es tan difícil, hay que mirar hacia las instituciones que establecen las reglas del juego de la economía mundial, principalmente la Organización Mundial de Comercio (omc).

Los derechos de propiedad intelectual fueron, son y serán un tema de controversia global. No existen argumentos más fuertes que «generar ingresos adicionales para reinvertir» ( «5 Reasons Why Investors Love Intellectual Property» en EU StartUps, 8/1/2018.) para defender su existencia. Los argumentos en contra se sostienen en evidencia empírica que muestra que la humanidad estaría mejor sin ellos. Sin más, desde fines de 2020, países y organizaciones sociales reclaman en la omc la extinción de las normas de propiedad intelectual para las vacunas contra el covid-19 para así poder garantizar el acceso, la fabricación y la distribución para toda la humanidad, salvando vidas a cambio de que unas pocas empresas farmacéuticas dejen de obtener ganancias extraordinarias («Oxfam Response to WTO TRIPS Waiver for covid-19 Vaccines Being Blocked again by Rich Countries - a massive missed opportunity to speed up and scale up the production of lifesaving vaccines worldwide» en Relief Web, 11/3/2021, https://reliefweb.int/report/world/oxfam-response-wto-trips-waiver-covid-19-vaccines-being-blocked-again-rich-countries.). La idea de que si no existieran normas de propiedad no habría innovación es falsa: esas normas tienen apenas algo más de 25 años de existencia en la omc, y siempre hubo innovación a lo largo de la historia de la humanidad. Estas normas no solo limitan el acceso a las vacunas, sino además la posibilidad de acceder a los códigos fuente de la inteligencia artificial que se programa en el mundo: amparadas por un velo de secretismo y poder, las empresas deciden sobre la vida de las personas sin que estas puedan saber cuáles fueron los criterios de selección y los datos contemplados o si fueron activamente discriminadas o no. La sistematización de desigualdades dentro de las sociedades está a la orden del día.

Viejas disputas, nuevas formas de subdesarrollo

El lema «Retirar la escalera al desarrollo» que esgrimía en la portada de uno de sus libros el economista surcoreano Ha-Joon Chang sigue vigente como nunca, pero adquiere una nueva dimensión: la cibernética (Ha-Joon Chang: Retirar la escalera. La estrategia del desarrollo en perspectiva histórica, Libros de la Catarata, Madrid, 2004.). Lo cierto es que, frente a la acumulación de datos casi inadvertida por el Sur global, Estados Unidos funciona como una aspiradora que absorbió en grandes volúmenes la materia prima para la inteligencia artificial y pudo así desarrollar sistemas que hoy son inigualables. Aun si un país se planteara hoy la posibilidad de generar un Google local, no lograría el mismo éxito debido a la escasez de datos y, en muchos lugares, de recursos humanos capacitados. Más aún, no tendría sentido hacerlo. Indudablemente, la escala llevó a la eficiencia en lo que podría considerarse una especie de monopolio natural. Sería muy oneroso para un país encauzar una estrategia de ese tipo y el resultado sería incierto. La competencia con los gigantes tecnológicos carece de sentido en una economía que ya los ha coronado como reyes y señores. El colonialismo digital es hoy una realidad inapelable (Ulises Mejías y Nick Couldry: «Colonialismo de datos: repensando la relación de los datos masivos con el sujeto contemporáneo» en Virtualis. Revista de Cultura Digital vol. 10 No 18, 2019.). Únicamente China, con su big data creada puertas adentro gracias a sus más de 1.300 millones de usuarios y productores de datos, pudo desarrollar una inteligencia artificial que hoy juega la batalla de igual a igual con el capitalismo estadounidense. La disputa entre ganadores y perdedores de esa batalla queda solo entre esos dos jugadores de la economía mundial. 

Lo cierto es que las ganancias gigantescas que generan estas empresas al subsumir a las empresas industriales tradicionales y ofrecerles todo tipo de servicios que optimicen sus negocios, mediante inteligencia artificial programada y diseñada por los ingenieros de Silicon Valley, muestran que los sueños de desarrollo e industrialización digital serán difíciles de alcanzar, pero no imposibles. Efectivamente, la competencia no tiene sentido, pero ¿y la complementariedad? Se pueden crear nuevos servicios a escala nacional con un proyecto de soberanía de datos que sirva para mejorar la administración pública, construir cadenas regionales de valor y trabajar desde universidades y empresas desarrollos locales de inteligencia artificial para atender las necesidades nacionales. ¿Tiene sentido para Google desarrollar sistemas que reconozcan calidades de yerba mate o de cosechas de frutas y verduras? ¿Son iguales los sistemas que detectan enfermedades a través de imágenes médicas en Europa y en América Latina? ¿Son del todo replicables los resultados, considerando nuestras características alimenticias, climáticas, étnicas, etc.? Probablemente sea deseable desarrollar inteligencia artificial local, no solo para mejorar lo que la inteligencia artificial tiene para ofrecer, sino también, y sobre todo, para lograr la industrialización digital y superar la dependencia tecnológica.

Pero, como suele suceder, el ganador quiere llevarse todo. Una vez más, lo que se cocina en la omc genera desigualdades en distintos niveles. Ya hace algunos años circula en esa organización lo que se conoce como «agenda de comercio electrónico», algo que se trata de hacer pasar por un asunto comercial de compra y venta por internet. Pero al leer sus cláusulas, rápidamente se vislumbra que poco tiene que ver con eso y que se vincula sobre todo con la desregulación de la economía digital del futuro. Las normas son muchas y los proyectos presentados provienen de diversos países (V. por ejemplo, la propuesta europea: «Joint Statement on Electronic Commerce: EU Proposal for WTO Disciplines and Commitments Relating to Electronic Commerce», www.europeansources.info/record/joint-statement-on-electronic-commerce-eu-proposal-for-wto-disciplines-and-commitments-relating-to-electronic-commerce/.), pero podríamos resumir la agenda en algunas pocas cláusulas que son comunes a todos (o casi todos) los proyectos:
(a) Transferencia transfronteriza de datos, que garantiza que aquella institución que recolecte datos de un país a través de plataformas diversas pueda llevarlos a través de las fronteras sin ningún tipo de impedimento. Esos datos no pueden ser reclamados a futuro ni puede exigirse su repatriación. Un verdadero extractivismo digital.

(b) Prohibición de exigencias de localización y procesamiento. El verdadero negocio de los datos es almacenarlos, manteniendo la soberanía y la capacidad regulatoria sobre ellos, y procesarlos, actividad en la que radica la mayor fuente de ingresos. Efectivamente, no es la materia prima lo que da ganancias extraordinarias, sino su procesamiento e industrialización. Estas normas básicamente establecen que los Estados no pueden imponer requerimientos a las empresas para que algunas de estas dos actividades se realicen necesariamente dentro de su territorio. Así, tiran por la borda el sueño de la soberanía tecnológica y la industrialización digital.

(c) No divulgación del código fuente. Si las empresas de tecnología brindan servicios digitales en un país, queda prohibido solicitar que se divulgue el código fuente de la inteligencia artificial ligada a esos servicios. No obstante, en diversos acuerdos en el marco de la omc se vienen incluyendo más excepciones, porque los propios países desarrollados necesitan muchas veces auditar los algoritmos en cuestión, a fin de detectar fallas en los sistemas: desde un modelo de automóvil que presenta desperfectos, pasando por una máquina de casinos que nunca da un ganador, hasta un algoritmo de evaluación docente, todos casos en los que muchas veces el Estado quiere reservarse la potestad de auditoría. Con la inminente llegada del 5g y la internet de las cosas, estos casos de fallos que pueden provocar juicios y demandas por daños a los consumidores estarán a la orden del día. Las empresas lo saben, y el lobby fenomenal que han realizado para protegerse, no solo mediante normas de propiedad intelectual sino también mediante la futura agenda de economía digital, muestra que no están dispuestas a ceder espacio y que su ganancia bien puede estar cimentada en la vulneración de los derechos de las personas (Para más información sobre este tema, v. Sanya Reid Smith: «Some Preliminary Implications of wto Source Code Proposal», Third World Network, trabajo presentado en la 11a Conferencia Ministerial de la OMC, Buenos Aires, 10 a 13 de diciembre de 2017.).

(d) Exención de impuestos aduaneros por venta de servicios digitales. A medida que el mundo se vaya digitalizando más y más, los servicios contratados y consumidos por un país podrán provenir (de hecho ya lo hacen) de cualquier lugar del mundo. En términos técnicos, se trata de una importación de servicios. Las reglas comerciales que se encuentran en negociación quieren imponer un arancel cero para esas importaciones, lo que empeora las condiciones para los desarrolladores locales que deben competir con grandes transnacionales. Esto ya se encuentra vigente en la omc a través de una moratoria que se renueva año tras año y exime a las empresas prestadoras del pago de impuestos. En las negociaciones en curso, se busca fijar esta exención de una vez y para siempre.

(e) Obligatoriedad del principio de neutralidad de la web. Esta cláusula busca que los Estados no puedan regular los contenidos ni a las empresas que operan en sus mercados digitales. Si bien limitar el contenido puede llevar a abusos por parte de las autoridades, también es cierto que países como China se han desarrollado controlando y limitando los jugadores que operan en su economía digital. 

No son estas las únicas disposiciones que se están negociando: también hay normas respecto a la aceptabilidad de firmas digitales, autorización del envío masivo de correos no deseados, normativas liberalizadoras en materia de compras y licitaciones públicas, limitaciones a la protección de datos, desvinculación de las empresas en su responsabilidad como intermediarias de los contenidos que se publican en internet y limitaciones a la solicitud de autorización previa para operar en un mercado, entre otras. Estas normas generan un marco de «no regulación» que limita la capacidad de los Estados de impulsar una estrategia soberana de industrialización digital, que incluya la generación de inteligencia artificial. Este aparato regulatorio potencia así el extractivismo digital desmedido desde el Sur hacia el Norte global, al permitirle a este último tomar datos sin pagar por ellos, eliminar la posibilidad de que el primero los procese y cuente con ellos para el diseño de mejores políticas públicas, y limitar también la capacidad de auditar la inteligencia artificial que se genere, aun si afecta a la población en aspectos tan diversos como la seguridad, la democracia, el empleo y los derechos. En un mundo que recién empieza a comprender cómo nos impacta esta tecnología, desregularla y limitar la capacidad de accionar de los Estados no parece ser la mejor opción.

Si se habla de tirar la escalera, la agenda que se negocia en la omc busca dejar afuera del desarrollo de los sistemas automatizados del futuro a la mayoría de los países del mundo, que quedan limitados a ser meros consumidores o usuarios de los servicios, y así toda la ganancia permanece en manos de unos pocos.

Más desigualdades: el derecho epistémico escondido

Lo cierto es que las normas de propiedad intelectual prohíben conocer los criterios y formas con que está programada la inteligencia artificial que utilizamos a diario. Pero ese no es el único saber valioso en esta tecnología. El procesamiento de datos extrae conclusiones sobre nuestras conductas con el objetivo de anticiparlas. Esa anticipación es lo que Shoshana Zuboff denominó el «excedente conductual»: al anticipar conductas, las empresas de tecnología también pueden eventualmente influir en ellas (.S. Zuboff: La era del capitalismo de la vigilancia, Paidós, Buenos Aires, 2020.) Esto se vio en casos como el de Cambridge Analytica o, como se documenta en el mismo libro de Zuboff, el del videojuego Pokemon Go. ¿Qué saben de nosotros? ¿Qué saben de mí que yo misma no sé? La sistematización de información y el análisis de patrones conductuales llevan a un conocimiento desmesurado de algunas conductas humanas, un conocimiento que genera una desigualdad epistémica entre aquello que sabemos de nosotros mismos y aquello que saben de nosotros.

Esta desigualdad puede replicarse en el plano macroeconómico. Efectivamente, los servicios digitales conocen necesidades, movimientos, gustos, costumbres y tantas cosas más de los ciudadanos de un país. Toda esta información podría utilizarse para planificar políticas públicas y diseñar sistemas de inteligencia artificial que mejoren los servicios públicos y hagan un Estado más eficiente. En un mundo de big data, parece no haber suficientes datos para mejorar los Estados. Ya se pudo ver cómo Google compartió información sobre la movilidad de las personas durante la pandemia de covid-19, indicando el índice de actividad y circulación de los países. Información como esa puede ser sumamente valiosa para controlar la pandemia en un territorio, y está en manos de corporaciones. 

La desigualdad epistémica es cada vez mayor, y los sistemas de inteligencia artificial contribuyen a ello arrojando conclusiones sobre nuestras vidas, gustos y costumbres que llevan a pensar en la vigilancia constante y a lo que nos enfrentamos a futuro si no comenzamos una estrategia de desarrollo de inteligencia artificial nacional.

Procesos creativos y derecho a ser humano

La inteligencia artificial interviene cada vez más en nuestras actividades cotidianas: traducciones, averiguaciones, redacción de un simple mail, búsqueda de empleo, tránsito por las calles, etc. Pasa inadvertida, la hemos naturalizado. Pero lo cierto es que muchos de los sistemas que la utilizan observan nuestras conductas y, en muchos casos, buscan estandarizarlas. Por ejemplo, están bien documentadas injusticias cometidas por los sistemas de evaluación docente en eeuu, donde se establecía un puntaje esperado para los alumnos en las evaluaciones anuales estandarizadas, y si estos no llegaban a ese estándar, se le adjudicaba un puntaje bajo al docente a cargo, lo que ponía en riesgo su empleo; o en Gran Bretaña, donde un algoritmo juzgaba las «anomalías» en las trayectorias escolares de los estudiantes y limitaba en consecuencia su acceso a la educación superior («Houston Teachers File Federal Lawsuit Over Evaluation System» en Houston Public Media, 1/5/2014. Sobre el caso de Gran Bretaña, v. «A-Levels: ‘Dreams Ruined by an Algorithm’» en BBC News, 13/8/2020.). La realidad es que la vigilancia para captar datos y su consecuente procesamiento para emitir juicios de valor sobre la ciudadanía puede tener un efecto muy nocivo en la sociedad: el miedo a equivocarse. 

Se logró instalar la idea de que existe una inteligencia artificial que piensa, es imparcial, juzga con información completa y conoce «la verdad». Una especie de ojo que todo lo ve y que atenta contra nuestro derecho a ser humanos, defectuosos, únicos y libres. Y es que la actividad de nuestra inteligencia es mucho más compleja que «procesar datos». La propia capacidad creativa del ser humano opera por prueba y error. Se trata de equivocarse y volver a empezar(La inteligencia artificial, a través del machine learning, logra aprender de sus errores, y es difícil saber hasta dónde puede llegar su capacidad de innovación y aprendizaje. Un ejemplo de esto es la tecnología gpt-3, recientemente superada por una tecnología similar en China. Esta tecnología logra imitar la lógica y la escritura humanas casi a la perfección, dado que puede procesar 1.750 millones de parámetros. Para más información, v. Cristian Rus: «China desvela el modelo de aprendizaje profundo más grande de la historia: 10 veces mayor que gpt-3 de Open AI» en Xakata, 3/6/2021. Aun así, la inteligencia artificial sigue encontrando dificultades para «pensar fuera de la caja». Abundan ejemplos divertidos de esta situación: por ejemplo, el caso de un automóvil de Tesla que detectaba múltiples semáforos en la calle porque circulaba detrás de un camión que transportaba, precisamente, semáforos. Puede verse el video en:  https://twitter.com/fsd_in_6m/status/1400207129479352323.). De animarse a combinar lo que no pensamos posible. De entender el contexto y por ende captar la ironía, el chiste o el código social al que nos referimos. 

El ser humano goza de la capacidad creativa y de la inventiva para superar sus errores. Eso nos ha convertido en una máquina imparable de innovación y superación. Es justamente en nuestras debilidades donde encontramos nuestras mayores fortalezas. ¿Es deseable un ser humano que no se equivoque, que actúe de manera automática y cuasi perfecta? ¿No estaríamos destruyendo nuestra propia capacidad de crear, de pensar fuera de la caja? 

Cometer errores nos hace humanos, pero también nos hace descubrir nuevas y maravillosas formas de sortear problemas. Prueba y error, le dicen. La realidad es que los trabajadores y las trabajadoras llevamos en nuestro interior un know how sobre nuestra actividad laboral que eleva la productividad de las empresas, y ese conocimiento se construye a partir de los problemas que enfrentamos y las potenciales soluciones. Sobre todo en el Sur global, resolver inconvenientes cotidianos con recursos escasos es la realidad de cientos de miles de trabajadores. La hipervigilancia genera miedo. Miedo a la invención, porque existe miedo a equivocarse y quedar expuesto. Miedo a que nuestro comportamiento sea juzgado, a no estar a la altura de lo que se espera de nosotros. 

Empezar a utilizar tecnologías más amigables es fundamental para todos, como ciudadanos y trabajadores. También lo es garantizar el derecho a la desconexión digital, limitar las ganancias extraordinarias y el poder absoluto que les hemos dado a estas megacorporaciones tecnológicas y garantizar que no haya una hipervigilancia masiva en el futuro que lleve a limitar nuestra capacidad de innovación y nuestra libertad de ser humanos libres, políticos, activistas, cultural y socialmente diversos.

Allí donde el derecho no llega

La inteligencia artificial tiene el poder de prescribir realidades y de cambiar nuestros comportamientos, al igual que lo hacen las leyes. La única diferencia es que son leyes que no están escritas en ningún lugar y que desconocemos. Le hemos otorgado a esta tecnología un poder inigualable: el poder de ordenar nuestras vidas y sociedades. El miedo a ser juzgados por un sistema que emite una valoración sobre la base de la inteligencia artificial programada por vaya uno a saber quién tiene un potencial enorme para «enfriar» nuestro comportamiento.

No solo eso, sino que la propia inteligencia artificial no puede ser juzgada, parece no estar alcanzada por las legislaciones nacionales. No puede ser auditada. Atenta contra la competencia, ya que no hay manera de saber si un algoritmo fue copiado por otra empresa más poderosa. Atenta contra los derechos laborales, ya que no podemos saber si estos se tuvieron en cuenta al diseñar los sistemas de asignación de tareas y otros procesos automatizados en ámbitos de trabajo, y de hecho los efectos que producen en algunos casos son realmente dañinos. Atenta contra el derecho a la información, ya que ordena la que consumimos a partir de criterios de lucro, agrupándonos en burbujas informativas que llevan a sociedades más encerradas. 

No participamos. Nadie llamó a la sociedad civil a la mesa del desarrollo y diseño de una tecnología que regula de facto nuestras sociedades. Pero tampoco, y sobre todo, no nos llamaron a participar en la formulación de las normas que regulan esta tecnología. El producto es, como era de esperarse, una tecnología autoritaria y monopólica que envía órdenes desde países lejanos y a la que obedecemos de manera complaciente.

Manos a la obra

Pero no todo es sombrío. Existe una manera de recuperar aquello que entregamos, y la solución es fundamentalmente poner manos a la obra. América Latina supo ser cuna de tecnologías diseñadas con otros propósitos y objetivos. Basta mirar las tecnologías agrícolas andinas y cómo ponían el eje en la sustentabilidad de la vida(John Murra: Formaciones económicas y políticas del mundo andino, IEP, Lima, 1975.): se cultivaban granos con sistemas de terrazas y otras técnicas que promovían que los suelos se fertilizaran, lo que permitía que hubiera comida todo el año para alimentar a la población. Con la llegada de los conquistadores, esos sistemas cayeron en desuso y la prioridad se puso en generar saldos exportables; así comenzó el proceso de desertificación del suelo que seguimos sufriendo hasta el día de hoy. Esto nos enseña que se pueden desarrollar tecnologías con otras lógicas y objetivos. Que un mismo problema puede ser resuelto de diversas maneras. Es necesario, entonces, recuperar los objetivos de inclusión, sustentabilidad y desarrollo. La inteligencia artificial que se desarrolle para favorecer servicios públicos y hacerlos más eficientes no puede tener únicamente una lógica de lucro, sino que hace falta ver la diversidad de objetivos posibles y adecuar las tecnologías a aquellos fines que fijemos como sociedad. Solo hace falta soñarlo, planificarlo y facilitarlo.

Como principio general, ninguna inteligencia artificial debería decidir sobre las vidas humanas, su libertad, su futuro, trayectorias laborales y derechos. Pero más aún, debemos comenzar a mirar las externalidades que se generan a partir de la inteligencia artificial, fijándonos el objetivo de desarrollo e industrialización digital con empleo decente para todos. América Latina posee un big data propio, valioso y único. Necesita detener el extractivismo digital para mantener la materia prima, y ponerse manos a la obra en su procesamiento, a fin de desarrollar una inteligencia artificial que refleje los códigos, costumbres, cultura y contexto de la región. 

No firmar los acuerdos de economía digital en los tratados de libre comercio y en la omc es un buen primer paso a fin de dejar margen de maniobra a los Estados. Pero no es suficiente. Hay que comenzar a transitar un camino en el que probablemente sea el «Estado emprendedor» quien pueda propiciar una nueva ingeniería digital, junto con centros universitarios y empresas locales (V. Mariana Mazzucato: El Estado emprendedor. Mitos del sector público frente al privado, RBA, Barcelona, 2019. Mazzucato explica cómo el Estado ha sido y sigue siendo el motor de la innovación global y cómo las empresas se sirven de los grandes riesgos que toma el Estado para luego privatizar las ganancias y estatizar las pérdidas, lo que a su vez lleva a que este sea visto como ineficiente y débil.). También regular. Allí donde se discuten los derechos laborales, civiles, ciudadanos y democráticos, debe existir una intervención más fuerte del Estado, a fin de eliminar el estado de excepción que rige en el diseño e implementación de inteligencia artificial. Dejar esto regulado por meros «códigos de ética» (Un buen ejemplo son los lineamientos de la Comisión Europea; pero si bien estas guías son útiles, no son suficientes. Grupo Independiente de Expertos de Alto Nivel sobre Inteligencia Artificial: «Directrices éticas para una ia fiable», Comisión Europea, Bruselas, 2019, disponible en https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.) que presuponen la buena fe empresaria puede resultar muy costoso para las futuras generaciones.

Es posible. Raúl Prebisch nos quiso mostrar cómo el debilitamiento de los términos de intercambio nos llevaba al subdesarrollo. Probablemente, aprovechar las nuevas ventajas comparativas que se generan a diario en sectores que apenas están comenzando a nacer sea el camino posible para un sueño de industrialización digital latinoamericano y soberano. Se trata también de soberanía tecnológica y cultural. Necesitamos el desarrollo, y para eso necesitamos, como punto de partida, la información: saber de nosotros mismos más de lo que ellos saben de nosotros.

Bonos sobre blockchain, el Exchange de Twitter

y el Metaverso que crece

Gonzalo Martínez Mosquera, especialista en Redes autónomas descentralizadas y Blckchain egresado de la Universidad Torcuato Di Tella en Argentina, escribe para “El Economista”

Probablemente uno de los casos de uso más importantes para la DLT (“Tecnología de Registros Descentralizados” por sus siglas en inglés) sea la coordinación de distintos actores que operan en la emisión y compra venta de activos financieros.

Cuando uno empieza a meterse en los detalles de lo que implica dicha operatoria se encuentra con varios pasos que intentan hacer el “settlement” para que la propiedad del activo cambie de manos oficialmente y para que todos los registros tengan la misma información. Esas demoras generan que cuando alguien compra, por ejemplo, un bono, la propiedad del mismo solo se transfiera definitivamente en 48 horas, o lo que se conoce en el rubro como “T+2”.

La blockchain soluciona esta demora dado que el activo que se transfiere no se encuentra registrado en varios archivos de cada uno de los actores, sino que solo existe una representación digital que “vive” en la aquella red. Esto hace que se puedan realizar transacciones instantáneamente, lo cual a su vez aumenta mucho la liquidez disponible en el mercado por no necesitar tener fondos inmovilizados.

Un operador suizo llamado “SIX's Digital Exchange” asegura estar emitiendo el primer bono en un entorno regulado utilizando la tecnología blockchain. Ese activo financiero, que es manejado por Credit Suisse, UBS y el Zürcher Kantonalbank, fue emitido en dos partes, una sobre tecnología blockchain por 100 millones de francos suizos (aproximadamente US$ 108 millones) y la otra por 50 millones de francos usando las vías tradicionales.

Será interesante ver qué aceptabilidad tiene en el mercado, pero muy probablemente sea aquel un formato que llegó para quedarse. Otro que emitió un bono sobre tecnología blockchain es El Salvador, en parte para financiar la construcción de una “Ciudad Bitcoin” y en parte para comprar invertir en esa moneda digital.

El total emitido será de mil millones de dólares (un “billion”, diría un americano) y su tenencia será reflejada en la “Blockstream's Liquid Sidechain” que, como su nombre en inglés lo indica, es una red que funciona sobre la cadena de bloques de Bitcoin lo cual le permitiría respaldarse en el seguridad de Bitcoin pero con transacciones mucho más rápidas y económicas que las conseguidas en la red principal.

Esa ciudad usaría energía proveniente de un volcán cercano que, además, se destinaría al minado de la moneda digital más conocida. Los ingresos así obtenidos servirán para pagar los intereses del bono emitido. 

Samson Mow, Chief Security Officer de Blockstream, espera que la inversión tenga un retorno de 146%. Para ello supone que Bitcoin tendrá un precio de US$ 1.000.000 dentro de 10 años. No comments.

Quien pareciera querer ponerle un freno al acercamiento de El Salvador con Bitcoin es el Fondo Monetario Internacional. En una declaración publicada la semana pasada advirtió que dicho país no debería declarar esa moneda como curso legal dada su enorme volatilidad. La misma podría generar, según el organismo, riesgos para los usuarios y para la integridad del sistema financiero por las contingencias respecto a las obligaciones fiscales que podría ocasionar.

Donde no podrá meterse el FMI es en el exchange descentralizado de Bitcoin que pretende desarrollar Jack Dorsey, el co-fundador y CEO de Square y Twitter. Así lo declararon en un White Paper emitido recientemente en el cual se describe al exchange tbDEX, cuyas características diferirían de los tradicionales exchanges descentralizados. En el caso de la plataforma que pretende lanzar Dorsey, los usuarios deberían pasar un análisis KYC (“Conozca Su Cliente”, según sus siglas en inglés) y, por lo tanto, las interacciones no serían anónimas. Este formato ayudaría a cumplir con las regulaciones de cada país en el que opere.

Será interesante ver la velocidad y los costos que tendrá ese DEX. Es en esas cuestiones donde Bitcoin enfrenta una mayor amenaza de parte de otras criptomonedas como instrumento de pago y reserva de valor. En una entrevista reciente para el podcast “Unchained”, Jose Fernandez da Ponte, el Vicepresidente y Gerente General de PayPal para Blockchain, Criptos y Monedas Digitales, mencionó cuatro redes que están mirando desde esa empresa de pagos: Ethereum, Solana, Polkadot y Algorand. Son esas, en mi impresión, las cuatro que llevan las de ganar en la carrera por convertirse en la red más utilizada en los distintos usos que se le den a la nueva tecnología.

En esa grabación Fernandez da Ponte explico cómo es la interacción de Paypal con Paxos, el cual le provee de custodia y liquidez para que se puedan comprar criptomonedas a través de la plataforma de pago. Son muchos los argentinos los que tienen sus dolares en PayPal y estarían más que interesados en poder comprar activos digitales que les permita acceder a sus ahorros a través de ese mecanismo.

Uno de esos usos tal vez sea el del Metaverso, un mundo virtual paralelo en el cual Facebook pareciera querer meterse a fondo, al punto tal de haber cambiado su nombre por el de “Meta”. Para dar una idea del crecimiento que está teniendo ese ecosistema se puede mencionar la inversión de US$ 2,5 millones que el fondo de inversión canadiense llamado Tokens.com hizo sobre la plataforma Decentraland. Compró 116 parcelas de tierra virtual por un total de 618.000 Mana, la moneda digital nativa de esa plataforma. A mediados de octubre ese fondo ya había comprado el 50% del grupo Metaverse, que como su nombre lo indica centra sus operaciones en este nuevo mundo virtual.

Pero más allá de que podamos intentar crear un mundo virtual paralelo, el mundo “real” y sus reguladores no van a desaparecer. Así lo sintieron los usuarios cripto de la India cuando el gobierno anunció la semana pasada que pretende prohibir a la mayoría de las criptomonedas privadas. Si uno mira el precio de Bitcoin, la noticia no pareciera haber impactado en su cotización y claro, a pesar de las prohibiciones el de las criptos es un mundo que no para de crecer.

Asi lo muestra, por ejemplo, Citigroup que anunció la contratación de 100 empleados dedicados enteramente al ecosistema Blockchain. Además promovió a Puneet Singhvi como director de Activos Digitales para clientes institucionales en un acercamiento del gigante financiero al ecosistema.

Ya sea que todo termine en Bitcoin y sus transacciones o que las redes que está mirando PayPal sean la que terminen dominando el mercado, sea que sólo nos quedemos con en entornos hiperregulados o que terminemos con vidas paralelas en una red sin dueños, lo cierto es que el ecosistema cripto no nos dejará de sorprender y que nadie tendrá razones para aburrirse.

A la hora de leer Ciencia

Jairo A. Rozo C., Ph.D., Coordinador del Laboratorio de Psicología Ivan Pavlov
Fundación Universitaria Los Libertadores, Colombia, escribe en el Blog del Instituto Salamanca.

Las revistas científicas para publicación de artículos y los libros son las fuentes primarias que difunden el conocimiento científico y tecnológico en nuestro mundo.

No hay duda de que las revistas seriadas cumplen un papel fundamental en la divulgación del conocimiento, desde que surgieron en el siglo XVII.

Los artículos publicados en revistas de prestigio, son considerados como el “norte” en la brújula del avance científico, pues nos indican con mayor rapidez hacia dónde se mueven las investigaciones y cuáles son los temas preponderantes que arrojan resultados teóricos y aplicados.

A nivel mundial hay, generalmente, algunas instituciones detrás de la financiación, edición y distribución de las revistas científicas; como son las instituciones universitarias, las asociaciones o sociedades científicas y las compañías editoriales privadas.

Las más antiguas han sido las sociedades científicas (como por ejemplo The Royal Chemical Society), que se han preocupado por hacer circular la información especializada y, con el paso de los años, algunas de ellas han ganado un gran prestigio a nivel mundial. Pero también las instituciones universitarias han creado sus empresas editoriales especializadas para la publicación de artículos (como Chicago University Press, Cambridge University Press), que con el paso de los años se han consolidado como “faros” que iluminan el conocimiento en el mundo occidental.

Editoriales privadas de revistas científicas

En los últimos años, las empresas editoriales privadas han visto en la distribución del conocimiento científico de punta, una rentable empresa de la cual ya hacen parte.

Desgraciadamente, esto solo sucede en los países del llamado primer mundo. La globalización —“curiosamente”— aún no ha hecho que esto mismo suceda en los países del “tercer mundo”.

En Latinoamérica la distribución de conocimiento está concentrada y manejada por instituciones universitarias y asociaciones científicas. Que a su vez cuentan con obvios problemas de orden económico (debido a la baja inversión en investigación básica en estos países); que implican los aumentos en los costos para el suscriptor, lo que dificulta aún más su distribución masiva.

Obviamente, para las editoriales privadas no es rentable sostener revistas que no se mueven dentro del ámbito de la ciencia, la tecnología punta y la medicina (cosa que generalmente hacen los países desarrollados); por lo tanto, es difícil encontrar la financiación privada del proceso en los países “en vías de desarrollo”.


 Ahora bien, si nos trasladamos al espectro de las ciencias humanas y sociales, la cuestión es aún más difícil y, en momentos, desalentadora. El proceso para desarrollar y mantener revistas científicas en estas áreas, se debe a esfuerzos titánicos de ciertas instituciones o personas sobresalientes en sus actividades académicas en toda Latinoamérica.

Pero la publicación de artículos, el mercado del conocimiento científico y su distribución masiva evoluciona. Por ejemplo, la psicología se aprovecha la tecnología ofrecida por Internet. Esta arroja nuevas perspectivas para eliminar gastos y abreviar la producción y distribución de las revistas científicas: estas son las revistas electrónicas o virtuales.

Revistas científicas electrónicas

Una de las estrategias para evadir las dificultades económicas, que impiden el sostenimiento de las revistas científicas en su formato de papel, ha sido precisamente la ventana que ha abierto Internet con las revistas electrónicas.

Las revistas electrónicas surgen en la década de los 80. Pero es desde los 90, cuando realmente empiezan a tener un lugar destacado. Punto que en este siglo es cada vez más importante, por ser un medio excelente para la publicación de artículos y difusión del conocimiento.

Es necesario diferenciar las revistas electrónicas de las ediciones electrónicas. Las segundas corresponden a una muy usual estrategia actual de las tradicionales revistas en papel. Para no quedarse aisladas de las posibilidades que ofrece Internet de intercomunicación rápida, masiva y barata; las antiguas revistas en los diferentes campos del conocimiento sobre todo las anglosajonas, pero cada vez más común en las publicaciones iberoamericanas; han decidido crear ediciones virtuales paralelas a sus ediciones en papel, donde ofrecen gran cantidad de información sobre sus artículos publicados y algunas de ellas. También se brinda el acceso directo a varios o todos sus artículos en formato digital.

Pero las revistas electrónicas, a diferencia de las ediciones electrónicas,  han sido creadas exclusivamente para difundirse por medio de Internet y en formato digital únicamente.

El formato electrónico ofrece nuevas posibilidades que superan a la edición tradicional, que por ejemplo, no está condicionada a restricciones geográficas. La edición tradicional ve disminuir sus lectores a medida que aumenta la distancia entre el productor y el cliente. Esto debido a que los costos también aumentan proporcionalmente. Un precio elevado para un tiraje pequeño y dificultades en la distribución, pueden hacer que la edición tradicional implique muchos problemas económicos y logísticos; más en países donde las subvenciones y apoyos a la investigación y su difusión, son muy limitados.

Ventajas de la edición digital

Una de las principales ventajas de las revistas científicas electrónicas y la publicación de sus artículos es a nivel económico. La edición digital permite difundir a un mayor número de  investigadores y profesionales los progresos alcanzados en el campo de trabajo con muy bajos costos de producción. A su vez, este aumento de visibilidad influye en un aumento en la productividad de los investigadores. Dando a conocer mucho más lo que se está desarrollando en la región.

Por otro lado, la edición electrónica ofrece otro tipo de ventajas. Ejemplo, su realización es muy flexible en cuanto al tamaño del artículo. Ya que no está restringida al papel y a una cantidad determinada de páginas para la publicación de artículos. Permite un mejor control sobre los procesos editoriales. Su mayor flexibilidad está en la posibilidad de ampliar o modificar un artículo, una vez este ha sido publicado. Ya que no depende de una edición física, no hay problemas de costos por una modificación posterior.

En cuanto a la distribución, esta se facilita exponencialmente. Todo lector puede acceder al último número en cualquier momento. No hay que limitarse a un número determinado de tiraje. Hay una fluida distribución en la red, no implica gastos de envío. Se puede desarrollar medios de publicidad y difusión utilizando la misma red, así como, convertirse en un portal de publicidad para organizaciones y productos afines.

Otra de las grandes ventajas, es que normalmente se accede  al e-mail de los autores. Esto facilita la publicación de artículos y el contacto directo con los lectores, la localización de los especialistas, la construcción de comunidad científica virtual, el debate y la colaboración, así como, futuras alianzas para nuevas investigaciones.

Desventajas de la edición digital

Sin embargo, no todo son ventajas. Por un lado, está la duda sobre la capacidad de conservación del material valioso en la red a través del tiempo. Como lo hacen en la actualidad nuestras bibliotecas. Por otro, están los grandes y rápidos cambios, producto del desarrollo tecnológico (herramientas de programación, lenguajes y programas nuevos, etc.); que alteran a las comunidades académicas, acostumbradas a medios y situaciones más estables en el tiempo. Precisamente esto, nos da una pista sobre la más terrible desventaja que debe vencer la revista electrónica: la comunidad científica es muy conservadora.

La comunidad académica no valora en igualdad de condiciones la publicación de artículos impresa en papel y la electrónica. Precisamente por su talante conservador, prefiere la primera, ya que la valoración del estatus de los miembros de la comunidad, está determinado por la cantidad y, sobre todo, calidad de los artículos producidos. Esta calidad se suele medir dependiendo del estatus o valor que tenga la revista que ha publicado el artículo. Y la valoración de la revista está determinada en gran medida por su nombre, antigüedad. También por la calidad de los pares que revisan el material que se publica. Es muy probable, por lo tanto, que la comunidad actual infravalore las publicaciones electrónicas por un tiempo.

Sin embargo, las revistas científicas electrónicas tienen en sus hombros la posibilidad de convertirse en medios de difusión de conocimiento con excelente calidad. Porque aunque las ventajas que las cobijan son bastantes y cada vez ganan más espacio en medio de la realidad científica; es necesario que aumenten su estatus como publicaciones de igual calidad que las tradicionales. Esto es particularmente importante para nuestra región, porque son una alternativa interesante de comunicación y difusión del conocimiento a través de la publicación de artículos que Iberoamérica produce para Iberoamérica.

El papel de los editores en las revistas científicas

El papel que el editor de las revistas juega en el mundo científico es fundamental. Por un lado, es quien primordialmente cumple la función de selección del material que va a ser publicado. Esto, por lo tanto, le imprime un gran poder en la difusión del conocimiento. De una u otra forma, está en sus manos decidir qué tipo de estudios, investigaciones o revisiones se darán a conocer al mundo científico. De hecho, su trabajo es el que finalmente filtra cuáles son las tendencias científicas. En la medida en que estas se vuelven más visibles y otras no.

Por lo tanto, el editor tiene un gran poder en sus manos, pero a la vez una gran responsabilidad sobre sus hombros.

Funciones del editor

Para garantizar que se cumplen los criterios de calidad  y las políticas de la publicación de artículos que maneja, el editor debe estar a cargo de varios frentes. Debe recibir el artículo de parte del escritor/autor, seleccionar el material, hacer valoraciones críticas al mismo. Responde por la corrección de estilo, de forma y de idioma (incluso de traducción cuando se requiera) en los manuscritos. De tal manera, que se garantice la claridad en el material presentado en la revista. Obviamente, para poder cumplir todas estas funciones, el editor puede servirse de la asesoría de personal idóneo en cada campo particular.

Como filtro y básicamente como orientador académico, el editor debe contar con el apoyo de un Comité Editorial muy fuerte. Este comité estará conformado por pares científicos en los diferentes campos de la disciplina (o de los tópicos específicos que maneja la publicación en sí) y con el reconocimiento de la comunidad científica internacional. Esto es muy importante, pues garantiza que el lector pueda evaluar la revista como una publicación de excelente calidad, ya que los artículos publicados han sido revisados y aprobados por reconocidas figuras en el área particular.

La evaluación de artículos en las revistas científicas

El comité de revistas científicas está formado, generalmente, por personalidades de gran reconocimiento en su área de trabajo. Aparte de las actividades típicas que el comité que desarrolla, como la definición de políticas, objetivos, posicionamiento, ampliación de visibilidad, etc., también eventualmente, algunos de sus miembros, actúan como evaluadores de los manuscritos que son enviados para la publicación de artículos en la revista.

Sin embargo, existen especialistas que son contactados por las revistas específicamente para esta tarea —que se conoce como evaluación por pares o revisión de expertos— y son los que conforman el Comité de Lectura o Revisión. Si el artículo en cuestión supera la prueba de evaluación, entonces se considera que el conocimiento expuesto ha superado la crítica rigurosa de especialistas en el área. Esto determina un nivel de calidad y originalidad suficiente como para ser publicado.

Con lo anterior, el conocimiento expuesto en el artículo se vuelve visible a la comunidad científica. Además, tiene el valor añadido, de que por el solo hecho de ser publicado, se percibe como un artículo de calidad que ha pasado las pruebas necesarias para ser expuesto.

Para asegurar que la revisión por pares esté “libre de valores”, se busca hacer una cuidadosa selección de especialistas en el campo. Los expertos a su vez han pasado ya, por todas las etapas que implica conseguir la publicación de sus artículos en diferentes medios de circulación internacional.

Revisión ciega

Otro medio que asegura imparcialidad en las evaluaciones, es la “revisión ciega”. Este método implica que los revisores no conocen el nombre de los autores de los artículos que están revisando y, a su vez, los autores no conocen los nombres de los revisores, ya que su puente de unión es el editor. Sin embargo, generalmente el anonimato es unidireccional, es decir, los autores no saben quién verifica su material, pero el revisor si conoce de quién es. Otras revistas, no obstante, utilizan la verificación abierta, con conocimiento bidireccional. Sin embargo, donde generalmente hay más de un experto comprobando el mismo texto, e incluso tres, cuando hay un fuerte desacuerdo entre los dos primeros.

Los resultados de la evaluación pueden dar lugar a diferentes posibilidades. Por ejemplo, entre la polaridad expuesta por la aceptación total del manuscrito y el rechazo total del mismo, puede aceptarse con recomendaciones puntuales, en cuanto a contenido, forma o metodología. El autor decide si asume las recomendaciones, y es el editor quien al final toma la decisión de la publicación o no del manuscrito.

Revisión pública

Ahora, con el desafío de las revistas electrónicas, puede que se desarrollen importantes cambios en la evaluación de los artículos. Por ejemplo, la sugerencia que anteriormente citábamos del químico cuántico español,  Juan Miguel Campanario, quien solicitaba que las revistas publicaran en Internet los artículos rechazados para revisión pública. Al parecer, actualmente algunas revistas de Física, tienen una lista electrónica abierta de artículos rechazados, que el público puede visitar, leer e incluso comentar.

El resultado es, que se evalúa el nivel de visita a cada artículo, así como el desarrollo de discusión alrededor de él, lo cual permite revalorar su publicación oficial en medios tradicionales de papel de amplia circulación nacional o internacional. Esta interesante práctica, aún no se ha extendido fuera de la física a otras áreas de investigación. Sin embargo, deja prever un amplio desarrollo en las técnicas de evaluación del conocimiento científico para el futuro.

Por otro lado, la rapidez ofrecida por Internet, puede ser un interesante contrapeso al acostumbrado tiempo de demora de los revisores para emitir sus fallos, que traen como consecuencia, lentitud en el proceso de impresión, publicación de artículos y de distribución de las revistas.

Problemas en la evaluación por pares en las revistas científicas

El actual sistema de evaluación por pares o iguales, como todo sistema, adolece de fallas, y diferentes autores han resaltado de manera crítica la necesidad de cambiar algunos aspectos del mismo.

Por ejemplo, como expone en un interesante artículo el Dr. Buela-Casal (2003), es necesario afinar el sistema de evaluación de la calidad y selección  de los artículos enviados a las revistas científicas, en general, y de la psicología como área de investigación, en particular.

Por un lado, estarían los sesgos del director o editor. Por otro, la objetividad de los revisores y, finalmente, los criterios en los cuales se basa la evaluación del artículo.

Todo director de una revista demarca una serie de sesgos al ejercer su función. Por ejemplo, puede potenciar la publicación de artículos de sus temas de interés en detrimento de otras áreas de igual importancia, pero que para el director, en particular, no son tan atractivas. Además, el director influye al ser él quien elige o aconseja cuáles pueden ser los revisores de la revista. También decide a qué revisores encargar la evaluación, y no todos mantienen el mismo nivel a la hora de ser estrictos en la aplicación de los criterios de evaluación.

Por otro lado, no debemos olvidar, que aunque los revisores no conozcan quiénes son los autores del artículo, los directores sí. Son estos quienes finalmente toman la decisión de si se publica o no el artículo. Esto con base en los resultados de las evaluaciones, el área sobre la cual aporta y un posible “efecto tornado de citas”, si el autor o autores son altamente citados dentro de la comunidad científica (punto sobre el que volveremos más adelante).

El sesgo de correlaciones positivas

Finalmente, existe un importante sesgo que muy pocas veces se hace explícito. Este es la fuerte tendencia a publicar artículos que encuentran efectos o correlaciones positivas y dejar a un lado los que no, aunque sean metodológicamente correctos.

Si echamos una mirada a los revisores y su pretendida objetividad, también podemos encontrar —de la mano de Buela-Casal— una serie de sesgos que claman por una modificación del actual sistema de evaluación de manuscritos.

Primero que todo,  los revisores no han sido, ni están cualificados especialmente para su papel como revisores. Generalmente, se les elige por su capacidad, reconocimiento, nivel de especialización sobre un tema, amistad con el director, etc. Pero el hecho de que un revisor sea un experto y un excelente investigador en un área, no le cualifica automáticamente como revisor. Un problema añadido en la cualificación del revisor, es que su trabajo no es remunerado, sino que se ejerce de forma “filantrópica”.

Los revisores no son necesariamente más cualificados ni más conocidos que los autores a los cuales revisan. De hecho, los revisores no son mejores investigadores por el hecho de ser revisores, pues sus artículos sometidos a evaluación también son rechazados.

Los revisores aprenden por “experiencia” su papel. No han sido cualificados para el mismo y, como tal, los criterios de revisión que suelen utilizar no son tan claros ni específicos como se desearía. Por esta razón terminan dependiendo de la persona, más que de la verificación. Asimismo, el siguiente problema es que al no haber unos criterios comunes que salven la subjetividad. Los resultados de dos evaluaciones sobre un mismo material pueden ser totalmente contradictorios.

Sesgo de actualidad

Por otro lado, todo revisor puede obedecer a sesgos, si los resultados de los artículos que evalúa no correlacionan con su visión teórica o la visión actual sobre el tema; esto decapita la posibilidad de difusión de trabajos totalmente innovadores.

Finalmente, el Dr. Stemberg (2003, citado por Buela-Casal, 2003), retoma los problemas del anonimato en la evaluación de los revisores.

El doble ciego en la revisión, que es una medida de objetividad. Puede convertirse en un inconveniente, cuando los revisores se escudan en el anonimato para realizar críticas crueles y desproporcionadas. Se enfoca no en el argumento, sino en juicios de valor que ridiculizan y minan la autoestima de los jóvenes investigadores que envían sus artículos por primera vez para su publicación.

Como dice Stemberg:

“… tengo entendido que cuando se trata de revisar artículos, no existe un campo en que los revisores ataquen de forma más cruel que las de algunos psicólogos. De lo que tengo constancia, es que más de una vez en mi carrera profesional, me ha asombrado la crueldad con la que atacan mi propio trabajo y el de otros, generalmente, bajo el manto del anonimato”.
(pág. 29, Buela-Casal, 2003).

Como hemos visto, es necesario desarrollar unos criterios claros de evaluación. Estos deben modificar, complementen y perfeccionar el sistema actual para dar a conocer los trabajos de los investigadores. Esto ayudaría mucho a aumentar la objetividad en el papel de los revisores a la hora de exponer sus evaluaciones.

Criterios mínimos objetivos a la hora de someter artículos

Debe haber un equilibrio entre criterios de forma, como el rigor metodológico, el uso correcto del lenguaje, la claridad expositiva, la adecuación de la bibliografía, etc. También criterios de fondo, como la relevancia del tema o las aportaciones del trabajo, que deben evaluarse de manera no genérica y complementarse con otros criterios, como la validez interna/externa, la utilidad, la implementación y la originalidad o innovación del artículo.

Este es un trabajo para la comunidad científica en general muy importante para el desarrollo de las profesiones y disciplinas. Como lo resalta el Dr. Buela-Casal, no pretende ser una crítica destructiva contra directores de revistas y revisores. El sistema de evaluación, sin duda, no es malo per se, pero es necesario retroalimentarlo por medio de críticas constructivas, que ayuden al desarrollo de un excelente criterio de filtro, que permita que los mejores artículos se difundan rápidamente, mejorando la calidad de nuestro quehacer.

La evaluación de las revistas científicas

Hemos explicado el sistema de evaluación que utilizan las revistas para aceptar o rechazar los artículos sometidos a estudio. En esta ocasión, vamos a referirnos al sistema de evaluación y clasificación de las revistas mismas.

Tradicionalmente, las revistas han sido evaluadas según algunos índices bibliométricos, entre los cuales, los más conocidos son el factor de impacto y el factor de prestigio. Con ellos se logra obtener un buen indicador del nivel de difusión de un artículo dentro de la comunidad científica. Sin embargo, el problema surge cuando se extrapola, que tales índices son buenos indicadores de calidad del artículo publicado. Esto no tiene por qué ser necesariamente cierto. Además, con base en estos índices de impacto, se ha empezado a evaluar a los investigadores, los centros de investigación, las publicaciones periódicas, las universidades e incluso los países. Se comprende, que un índice cuantitativo pueda tentar a pensar que se obtiene un buen nivel objetivo de análisis de la calidad de los artículos, pero nada más lejos de la realidad. 

Numerosos autores han recalcado el cuidado en la utilización de estos índices de impacto para la evaluación, entre ellos Pelechano (2002), Stemberg (2001) y Buela-Casal (2002, 2003)4. Estos y otros muchos autores desde diferentes perspectivas, advierten de la precaución que hay que tener a la hora de igualar impacto y difusión, con calidad. También a la necesidad de desarrollar otros índices cuantitativos y cualitativos, que sean más justos a la hora de evaluar la calidad de un trabajo investigativo publicado en las diversas revistas, por ejemplo en psicología.

El Factor de Impacto

Se debe ser muy cauto a la hora de interpretar el factor de impacto de un trabajo/artículo. También tener en cuenta las restricciones intrínsecas de los índices, como por ejemplo, que el factor de impacto se basa exclusivamente en las citas de un período de dos años y no tiene en cuenta el prestigio donde se producen tales citas. Eso es un sesgo importante, pero tan importante como aquel, es que los factores de impacto puede ser manipulados, como bien demuestra el Dr. Buela Casal (2002) con los “Diez Mandamientos para incrementar las citas”.

El factor de impacto fue propuesto por Garfield en 1955, y fue utilizado por primera vez  en 1963, para cuantificar las publicaciones en la edición del Science Citation Index (SCI).

Actualmente, el SCI es la publicación más importante del Institute for Scientific Information (ISI). Como contraparte, el factor de prestigio ha sido recientemente desarrollado por una empresa canadiense (Factorprestige) como una alternativa al ISI.

Los dos índices, aunque miden lo mismo, tienen diferencias considerables, como el número de bases de datos o si incluyen o no a las citas procedentes de artículos de revisiones, etc.

Derivaciones propuesta al Factor de Impacto

Buela–Casal (2003), con el fin de subsanar algunos de los problemas ya referidos sobre tales índices, se ha encargado de diseñar y proponer una serie de índices cuantitativos complementarios como:

  1. Factor de Impacto Medio de las Revistas donde se producen las Citas (FIMRC).

  2. El Factor de Impacto Ponderado (FIP).

  3. Factor de Prestigio Medio de las Revistas donde se producen las Citas (FPMRC).

  4. El Factor de Prestigio Ponderado (FPP).

  5. Porcentaje de Interacción Parcial de Citas (PIPC).

  6. El Porcentaje de Interacción Mutua de Citas (PIMC).

Con ello, se cumple el objetivo principal de ponderar el valor de las citas en función del impacto o prestigio de la revista donde se producen las citas. De esta manera que todas las citas no tienen el mismo valor, sino que dependen del prestigio de la publicación de artículos que las produzca.

Con esto, el autor pretende, no solo re-alimentar el debate sobre la calidad de la producción científica, sino mejorar la interpretación de lo que nos dicen los índices de difusión. Además de recordarnos el arduo trabajo que queda por delante para propiciar el desarrollo de medidas cualitativas de calidad, que complementen los índices cuantitativos ya desarrollados.

Son tiempos de revisión e incertidumbre

Lo difícil, pero al mismo tiempo valioso para la ciencia de estos tiempos es que ha dejado de ser un asunto de “científicos”, para devolverle el rol social y lugar de servicio social que debió primar siempre en toda actividad. Lamentablemente la exacerbación de lo individual y de los modelos sociales que en occidente priman, enfatizando el esfuerzo individual y una sobrevaloración de este respecto al trabajo asociado, en equipos y comunitariamente sostenidos por la intención, voluntad y decisión de las comunidades en las cuales y para las cuales la ciencia se produce.

Obviamente que la apertura a un “exterior” no debidamente preparado para entender y relacionarse positivamente con un mundo de “Super especialistas” y de “universos fragmentados” en “especialidades” y ámbitos acotados y muy cerrados de investigación y generación de conocimiento, que muchas veces pierden sus enlaces con la realidad cotidiana de las personas que desarrollan sus vidas en los entornos no académicos o científicos, no se da naturalmente de modo positivo. Sumado a las nuevas tecnologías de la información y la comunicación y la internet que se convierte así en una impresionante herramienta de difusión pero no solo de lo científico sino y también de todo sesgo, pre-juicio, valoración subjetiva que no siempre propicia escenarios donde la ciencia puede relacionarse de la mejor manera con la sociedad y donde los actores se pierden en una vorágine impuesta por un sistema signado por la especulación de intereses privados y públicos, corporativos y especialmente económicos. Casi todo en el neoliberalismo esta sometido y depende, su posibilidad, del capital financiero sin el cual prácticamente nada es pensado.

Las formas y dinámicas de las publicaciones científicas y revistas especializadas o de difusión no están fuera de esto.

¿Como distinguir dónde la ciencia es ciencia y dónde hay otros intereses encubiertos? Si se tuviese a respuesta, la pregunta carecería de sentido. Nadie se salva solo. Que cada quién haga su parte.

Daniel Roberto Távora Mac Cormack

Imágenes:  Sara Tyson comenzó su carrera como ilustradora hace 35 años. Después de completar sus estudios en el Ontario College of Art, trabajó durante muchos años como ilustradora y diseñadora gráfica en revistas nacionales. Este doble papel como profesional aumentó su comprensión de la función de la ilustración en las artes de la comunicación y también la convirtió en una resolutiva de problemas reflexiva. Sus figuras ocupan un espacio muy organizado, con forma, textura, contraste y color que juegan un papel importante en sus conceptos. Sara se inspira en el arte cristiano primitivo y bizantino, así como en la pintura del siglo XX.


Comentarios

Entradas populares de este blog