Por unas humanidades digitales emancipadas

Especialistas de Argentina y Brasil presentaron sus trabajos y sus miradas sobre el futuro de esta área de estudios en Latinoamérica.

02-09-2021

La necesidad de abordar las humanidades digitales en la región desde un enfoque crítico y decolonial fue el eje del primer encuentro del ciclo de conferencias Lo que vendrá: Humanidades digitales, organizado por el Programa de Estudios Latinoamericanos Contemporáneos y Comparados (PELCC) de la UNTREF, el proyecto Archivo y Diagrama de lo Viviente (XIX, XX), Trans.Arch y la sección Archives, Libraries and Digital Scholarship de la Latin American Studies Association (LASA).

Las humanidades digitales son un campo interdisciplinario en expansión que traslada el trabajo tradicional con textos, objetos culturales y otros datos a los medios digitales, ampliando así sus potenciales usos, pero según opinión de los especialistas de Argentina y Brasil invitados a disertar, es fundamental pensarlas desde nuestra región.

La directora de la Maestría en Cruces de Narrativas Culturales de la UNTREF e investigadora del CONICET, Claudia Kozak, planteó que es central derribar las construcciones de sentido común que atraviesan la cultura digital, en donde se desenvuelve esta reciente área de estudios. “Las humanidades digitales son parte de un mundo en el que hay sentidos hegemónicos de la cultura digital. Este es el principal punto de partida para poder pensarlas”, aseguró.

Según ella, uno de los sentidos hegemónicos más instalados es la idea de que si la técnica progresa las sociedades indefectiblemente progresan. “Una cosa muy interesante es que con todo el pensamiento crítico que ha existido desde inicios del siglo XX a la actualidad respecto a esta supuesta equivalencia, al mismo tiempo pareciera que en las sociedades en las que vivimos cada nuevo artefacto, dispositivo o celular promete un nuevo progreso. Esto está muy arraigado”, indicó.

Por otro lado, expuso que hay otra idea muy extendida que equipara el hecho de vivir en una sociedad digital con vivir en un mundo inmaterial. “Pareciera que no vivimos en un mundo de átomos sino de bits, esto instaura la idea de las condiciones materiales de existencia no tienen importancia, ocultando la materialidad digital que es la materialidad del hardware pero también del software”, explicó.

Ahondando en el tema, Kozak apuntó que sin electricidad y sin las granjas de servidores contemporáneos no tendríamos la cultura digital donde vivimos, y que esas materialidades tienen sus implicancias. “Instalan también nuestra manera de pensar la naturaleza y el mundo”, agregó.

Asimismo, se refirió al problema de la datificación y estandarización algorítmica de los consumos “que se disfrazan de personalización”, y del colonialismo epistémico y tecnológico, que instaura la idea de que hay una única tecnología.

La experta enfatizó que es clave pensar en humanidades digitales de manera crítica y decolonial, no solamente desde abordajes instrumentales y yendo mucho más allá de su marca de nacimiento como computación humanística. “Hay que pensar las humanidades digitales con relación a la técnica como institución del mundo, atender a los sentidos que se instalan cuando operamos en este mundo digital, con nuestros archivos y digitalizaciones”, consideró.

Según ella, para poder pensar estas humanidades digitales críticas y decoloniales hay que correrse del lugar de la novedad y pensar mas bien lo nuevo. “Tenemos que salir de la fascinación tecnológica por la innovación misma. La idea es poder genera un régimen de insumisión”, completó.

Por su parte, el investigador del CONICET y de la Universidad de Buenos Aires, Leonardo Funes, se explayó sobre la filología digital y sus desafíos.

“A pocos se les ocurriría conectar de forma espontánea los adelantos informáticos con los estudios medievales, pero contra todo lo esperable esta área de estudios ha sido una de las más relacionadas con los diferentes avances que ha habido en la cultura digital, desde los inicios de la computación hasta el presente”, expresó.

Funes comentó que en el ámbito local esta relación comenzó en los años ochenta, cuando un grupo de investigación en hispanomedievalismo obtuvo financiación del CONICET para desarrollar un proyecto sobre aplicación de los medios informáticos al análisis y edición de crónicas del siglo XIV.

“El objetivo era encontrar algún modo de automatizar las operaciones de cotejo de diferentes versiones y elaborar listados exhaustivos de variantes. Todavía no estaban dadas las condiciones técnicas para alcanzar resultados relevantes, basta pensar que el conjunto de discos rígidos de las máquinas que usábamos en ese momento tenían una capacidad de almacenamiento inferior a un teléfono celular básico de hoy”, contó sobre aquella experiencia de la que fue parte.

A partir de ahí, continúo Funes, los proyectos se articularon en relación con programas internacionales como el Dictionary of Old Spanish Lenguage (DOSL), Bibliography of Old Spanish Texts (BOOST) y Corpus del Español (CORDE), que trajeron, de acuerdo a él, una serie de problemas.

“El primer gran problema que apareció en estos programas de colaboración fue una lengua común, todos colaborábamos escribiendo en inglés o español, y siendo que la técnica y el dinero lo ponían los norteamericanos, había un argumento fuerte parta que todos termináramos escribiendo en inglés. Logramos un bilingüismo que al menos salvo la ropa en aquel momento”, afirmó.

Pero como remarcó, el mayor inconveniente era que no existía un lenguaje computacional compartido, ya que los textos estaban elaborados con programas diferentes como el Easy Writer, el Word Perfect y el Word for Windows. Funes aclaró que la única compatibilidad que tienen estos procesadores son los caracteres que componen el núcleo básico de lo que se llama el código ASCII - American Standard Code for Information Interchange.

“Esto lo que demuestra es que la informática la hicieron los norteamericanos y por lo tanto todo está en función de los intereses de Estados Unidos. Todos tuvimos el problema de cuán distintas serían las humanidades digitales si la computación e internet la hubieran hecho los franceses, por ejemplo, porque tendríamos en el código básico todas las palabras acentuadas que nos podemos imaginar y que ahora no tenemos”, ilustró.

En tanto, la investigadora de la Universidade Federal do Estado do Rio de Janeiro, Beatriz Kushnir, compartió una investigación histórica digital centrada en los gobiernos y personalidades políticas de la Municipalidad de Río de Janeiro. Como relató, ella y su equipo se embarcaron en un mapeo de toda la administración pública de la ciudad carioca desde 1889. “Al hacer este mapeo conseguimos una organicidad del acervo al mismo tiempo que lo publicitamos. Fue necesario leer las publicaciones oficiales, lo cual supuso un gran reto, ya que son publicaciones que sufrieron importantes cambios a lo largo del tiempo para adaptarse a las transformaciones administrativas de la ciudad”, contó. 

También apuntó que lograron construir un Diccionario Biográfico de la Administración Pública Municipal que acercó al público la trayectoria de todos los responsables del ejecutivo municipal desde esa época en adelante, y dijo que para eso se sirvieron de una metodología que involucró tres fases. “Hubo una fase en la que consultamos trabajos académicos disponibles en los archivos online de diferentes universidades, otra fase que comprendió una investigación en la hemeroteca digital de la Biblioteca Nacional de Brasil donde gran parte de los periódicos ya se encuentran en línea, y una tercera fase con documentación propia del Archivo General de la Ciudad de Río de Janeiro”, detalló, dando cuenta de la multiplicidad de fuentes con la que puede trabajar este nuevo campo.

Este ciclo de conferencias es presentada por el director del PELCC, Daniel Link, y realizará su segundo encuentro el martes 14 de septiembre, de 16:00 a 18:00 hs-, a través del canal de YouTube de la UNTREF. Participarán Albert A. Palacios (The University of Texas at Austin), con una ponencia sobre inclusión en las humanidades digitales; Elena Diez del Corral Areta (Universidad de Lausana, Suiza), que hablará sobre corpus digitales del español para la investigación lingüística; Diana Wechsler (directora del Instituto de Investigación en Arte y Cultura Dr. Norberto Griffa de la UNTREF), que expondrá sobre cuánto de giro cultural tiene el giro digital; y Gimena del Rio Riande (Instituto de Investigaciones Bibliográficas y Crítica Textual del CONICET), con una disertación en la que responderá dónde están las humanidades digitales.