deportes CONTACTO videos

Murales para mostrar lo que pasa con los docentes


Llegamos hasta la escuela Secundaria Nº9 del barrio de San Damián y hablamos primero con Yolanda Gauna. Ella nos decía: “Entre todos pensamos que podíamos hacer ya que otro años más estamos complicados con el estado de la Educación Pública y pensamos en pintar un mural invitando a vecinos y a docentes y en esta actividad todos pueden sumar algo. Quizás con una frase un dibujo que expreso lo que también a la familia le pasa, por ejemplo la falta de trabajo, etc.”.
Luego hablamos con Julieta Paz de Udocba Hurlingham y nos dijo lo siguiente: “Estamos con el Frente Unidad Docente y es un proyecto de murales en las escuelas para mostrar la lucha, visibilizar el conflicto y también pedimos justica por Sandra y Rubén, fallecidos en una escuela Pública, salarios dignos y escuela segura”.
Luego Alejandro Figueroa de Suteba agregaba lo siguiente: “Esta es una iniciativa que salió del conjunto de la comunidad educativa del distrito, en unidad de todos los trabajadores del distrito. La idea es visibilizar la situación docente y que la comunidad se exprese en este mural diciendo que es lo que quiere y que le dice a este gobierno en defensa de la escuela pública. Remar-camos la participación de la comunidad, los docentes esta actividad se está desarrollando en todo el distrito, nos gustaría que se sumen los padres, los alumnos. La idea es hacer un mural en cada escuela”.
También hablamos con Susana Rivadera, ella es docente de Hurlingham y nos decía: “Me motiva hacer este mural para hacer visible la unión que estamos teniendo, frente a todas las situaciones que la docencia viene pasando, en todo sentido. Docencia, estudiantes, familia. Se está planteando una desvalorización de la educación desde los medios de comunicación, donde creo que se plantean mentiras. Acá en esta escuela trabajamos docentes de jardín, primaria y secundaria y en el trabajo común se ve la situación general de la sociedad. Yo veo el conflicto, como docente y como cabeza de familia y esta es una forma de visibilizar con el arte, de unirnos para hacer algo. Así como nos unimos para un mural, nos podemos unir para luchar para conservar nuestros derechos, la verdad vienen avasallados uno tras otro”.
Se plantea la tecnología para la educación y se terminaron las notebook para los pibes. Entonces vemos mucha contradicción, pero como hay gente que no está en la educación y no sabe, entonces hay que salir a decir lo que pasa”

.

Declaración sobre la situación del Conicet


“Los países ricos lo son porque dedican dinero
al desarrollo científico-tecnológico, y los países
pobres lo siguen siendo porque no lo hacen.
La ciencia no es cara, cara es la ignorancia.”
Bernardo Houssay

Los abajo firmantes, integrantes del Directorio del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), deseamos expresar públicamente nuestra enorme preocupación por la situación presupuestaria y salarial que está atravesando este organismo. Estamos próximos a finalizar un nuevo año de serias dificultades para el sistema científico-tecnológico nacional, que quedará signado por la incomprensible decisión de suprimir el Ministerio de Ciencia, Tecnología e Innovación Productiva de la
Nación. Con mucha tristeza e impotencia vivenciamos mes a mes un sistemático deterioro en la capacidad institucional de promover la producción, trasmisión y transferencia del conocimiento.

En estos tres años el CONICET ha sufrido un profundo y sostenido deterioro de los salarios de sus trabajadoras y trabajadores y de los estipendios de sus becarias y becarios, muchos de los cuales viven con remuneraciones que se sitúan por debajo de la línea de pobreza. A esto se suman la conocida disminución del número de ingresos a las Carreras del Investigador Científico, las serias dificultades para efectivizar en tiempo y forma los ingresos a la Carrera del Personal de Apoyo y la imposibilidad de
renovar los cargos del plantel técnico-administrativo que constantemente se pierden, en muchos casos por causa de los bajos salarios.
Por otro lado, los fondos para funcionamiento, infraestructura y financiación de la investigación y sus tareas subsidiarias han disminuido drásticamente año a año en valores reales pero también incluso en forma nominal, frente a un complejo proceso inflacionario y devaluatorio que ha minado nuestra capacidad de promover la producción científica, el desarrollo tecnológico y la innovación de los procesos productivos.

La mayoría de las Unidades Ejecutoras terminarán el año con un financiamiento de solo el 40% de lo prometido, y es importante que se sepa que esto no responde a caprichos del Directorio, sino al efecto selectivo que los aumentos de tarifas han tenido en el organismo. Para colmo, el presupuesto 2019 deja al organismo
al borde de la imposibilidad de financiar cualquiera de sus muchos instrumentos de promoción y esto a su vez afectará seriamente la capacidad de trabajo de toda la red institucional del CONICET y de las instituciones asociadas, las cuales también se verán seriamente afectados. Nos hemos visto forzados recientemente a tomar la dolorosa resolución de no otorgar por ahora los subsidios para reuniones científicas que ya
habían sido seleccionadas en la correspondiente convocatoria por falta de
financiamiento, aun a sabiendas del perjuicio que esto producirá en la comunidad, pues es necesario destacar que nuestro país tiene una larga y reconocida tradición de acoger año tras año prestigiosas reuniones nacionales, regionales e internacionales que cumplen la función fundamental de promover la sociabilización de las líneas de trabajo y fomentar la imprescindible cooperación. En particular, hoy tememos no
poder atender otros compromisos asumidos, y en particular poder pagar los subsidios adeudados y ya comprometidos.

El presupuesto 2019 aprobado por el Congreso de la Nación contempla para el CONICET un aumento aproximado del 23% con respecto a lo que se habrá ejecutado este año al 31 de diciembre, mientras que la inflación en el mismo período habrá sido superior al 46%. Sin embargo, a diferencia de lo que sucedía en los últimos años, este presupuesto incluye los futuros acuerdos paritarios y prevé una seria disminución, incluso nominal, de los fondos para funcionamiento, inversión y financiación de proyectos. En definitiva, de no mediar una ampliación presupuestaria, es de esperar
que continúe mermando la capacidad de investigación científica y tecnológica, la razón del ser del CONICET.

Como dijéramos ante la Cámara de Diputados de la Nación en ocasión del
debate previo a la sanción de la ley de presupuesto 2019, entendemos que las políticas públicas de financiación de la ciencia, la tecnología y la innovación deberían fijarse en una perspectiva estratégica, más allá de las urgencias y la inmediatez que caracterizan a la política argentina. Las sociedades contemporáneas no disponen de valor más preciado que el conocimiento a la hora de superar sus problemas, mejorar la calidad
de vida de sus ciudadanas y ciudadanos y proyectar un futuro de prosperidad con justicia y equidad. Argentina tiene una enorme capacidad de producción de conocimiento, creada con el esfuerzo de muchas generaciones, que le ha permitido alcanzar destacados logros, científicos y tecnológicos. Poner en riesgo esa capacidad de transformación sería echar por tierra los sueños de poder superar las grandes falencias estructurales que nos aquejan desde hace siglos.
Hacer de la ciencia y latecnología una política de estado no es solo un postergado sueño de nuestra comunidad, sino ante todo una urgente necesidad de nuestra sociedad, pero eso no se logra declamando y buscando el resultado fácil y rápido, sino con inversiones sostenidas en el tiempo y articulando entre todos los sectores de la sociedad y de los estados aquellas políticas públicas que permitan acordar primero y promover después las acciones que potencien el efecto transformador, tanto cultural cuanto socioeconómico,
del conocimiento. Y como muestra la historia de las naciones hoy prósperas, para ello es necesario aumentar sustancialmente la inversión pública y
estimular fuertemente la inversión privada.
Por todas estas razones nos sumamos a los reclamos, colectivos e individuales que comparten con nosotros la extrema preocupación por la situación de la ciencia, la tecnología y la innovación productiva en nuestro país, sin distinción de simpatías partidarias. Al mismo tiempo nos permitimos apelar a la comprensión del Sr. Presidente de la Nación para que dé solución rápida a estos problemas presupuestarios.

Dora Barrancos
Francisco Tamarit
Miguel Laborde
Roberto Rivarola
Tulio Del Bono

.

Acumulación por desposesión, la doble vara del discurso productivo

Carolina Vespasiano (Agencia CTyS-UNLaM)


El geógrafo e investigador de CONICET Sebastián Gómez Lende cuestiona la idea  de “desarrollo”, que  se mide en términos productivistas y no en términos de bienestar social, y desnuda el vínculo entre Estado y corporaciones para “legitimar” situaciones nocivas para la salud y el ambiente, a raíz de la actividad extractiva.

Derrame de petróleo en Río Negro, metales pesados en los ríos de San Juan, pérdida de biodiversidad en Jujuy, glifosato en las napas, cuencas y en el agua de lluvia del litoral, enfermedades en todo el territorio. Estas son solo algunas de las consecuencias que las producciones extractivas generaron desde su desembarco en los noventa.
Sin embargo, muchos de estos problemas se ocultan tras el “progreso” que implica el extractivismo. ¿Qué tipo de vínculo tienen el Estado y las corporaciones? El geógrafo Sebastián Gómez Lende analiza las estrategias simbólicas y políticas para que el modelo productivo se instale como algo “inevitable y deseable”.
El investigador indica que la “acumulación por desposesión” del extractivismo no podría darse “sin el beneplácito del Estado, por acción u omisión”. En esa línea, sostiene que una de estrategias para solapar el daño es la tergiversación del principio precautorio en materia ambiental, que establece que “si hay duda de que algo es nocivo para la salud, debe prohibirse hasta que se demuestre que no lo es”.

¿Por qué, al día de hoy, el extractivismo minero tiene legitimidad política?
Las desigualdades materiales se traducen en desigualdades de poder en los discursos. Hoy en día, pesa más el discurso de las corporaciones y el Estado que el discurso de los afectados cotidianamente por los impactos de la actividad minera y el extractivismo en general. Hay todo un conjunto de tecnologías sociales que las corporaciones mineras han venido desarrollando para cooptar el imaginario colectivo con la idea de progreso en provincias o áreas del país que siempre se caracterizaron por la pobreza estructural. Entonces, la promesa del desarrollo aparece como punta de lanza del discurso de las mineras donde, en el marco de este sistema neocolonial, la gran corporación trasnacional pasa a ser saludada como el adalid y el promotor del progreso. Porque, supuestamente, gracias a estas empresas, llegó la red de gas natural, llegó el acceso a la energía eléctrica, etcétera, aunque muchas veces los voceros del modelo convenientemente olvidan señalar que ese acceso es muy puntual y limitado, fragmentando en vez de lograr la tan mentada inclusión social. Emerge entonces la contradicción entre la necesidad manifiesta de igualar minería a desarrollo y una realidad empírica que indica exactamente todo lo contrario. Por eso, el concepto de psicosfera propuesto por el intelectual brasileño Milton Santos se refiere al discurso de la modernización inevitable, a ese conjunto de manipulaciones que buscan imponer en el imaginario colectivo la idea de que este proceso no solamente es inevitable, sino que incluso es deseable.

¿Qué implica el desarrollo según este modelo?
Después de la década neoliberal de los noventa y su ciclo de valorización financiera, aparece como un discurso monolítico la idea de impulsar al capital productivo, retornar a la “economía real” y generar una mayor tasa de empleo, con el correlato de salir de la pobreza. A partir de entonces, la cuestión en todo momento apuntó a igualar y homogeneizar discursiva y simbólicamente lo que tiene que ver con el progreso y el desarrollo en toda la región. El pequeño detalle es que la visión que tienen del desarrollo los pueblos originarios y las comunidades locales de las áreas en las que se implanta el modelo minero dista mucho de la visión de desarrollo que tienen las corporaciones y el Estado. El desarrollo se mide en términos productivistas y no en términos de bienestar social. Si miramos por ejemplo el caso de la minería, nos vamos a dar cuenta de que es una actividad con una capacidad de generación de empleo prácticamente despreciable o irrisoria, más aun la rama metalífera. Entonces, en esencia la cuestión se reduce a engañar discursivamente para de esa manera generar la aceptación del modelo.

¿De qué forma se debate públicamente la relación Estado-extractivismo?
Cuando la clase política plantea el debate con respecto al extractivismo -en los pocos casos en que lo abrió-, la discusión siempre tuvo un sesgo economicista y muy reduccionista. Tomemos por ejemplo a los gobiernos neo-desarrollistas, que dijeron defender la soberanía pero la hipotecaron en un sinfín de campos: lo sanitario, lo ambiental, lo productivo, lo social. La discusión pública que plantearon, si es que se la puede considerar tal, tuvo que ver básicamente con el hecho de la captación de parte de la renta exportadora y de cómo esto podría redundar en el equilibrio o no de las cuentas fiscales. A su vez, esto está vinculado a otra problemática más amplia que es la deuda externa. Entonces, en realidad lo que los gobiernos hacen de manera más sutil (en el caso del neo-desarrollismo) o de manera más cruda (en el caso del actual modelo de restauración neoliberal) tiene que ver básicamente con el hecho de generar recursos para satisfacer otro interés hegemónico capitalista que está vinculado al capital financiero, pero el cordón umbilical que une a ambas cuestiones es exactamente el mismo.  Si realmente la discusión pasara por una cuestión vinculada a la soberanía económica, que es donde el Estado neo-desarrollista y las corporaciones siempre pusieron el eje de la discusión, nos encontraríamos con que lo que el Estado captó no alcanzaría a cubrir siquiera una exigua parte de la inversión que se requeriría para -en el mejor de los casos- mitigar un daño que no existiría si no se hubiese implantado el modelo extractivo. Ni hablemos de lo que ocurre durante la actual gestión neoliberal, donde directamente no existe la más mínima voluntad de debatir el modelo: guste o no, se lo impone y punto.

¿Qué consecuencias trae ubicar el debate en lo económico?
Mantener la discusión dentro de esos términos puede ser interpretado como un mecanismo de acumulación por desposesión donde el Estado brinda respaldo jurídico, moral e institucional al modelo y al mismo tiempo socializa el costo empresario de las corporaciones. Captar la renta exportadora sólo sirve, en el mejor de los casos, para generar una suerte de falso efecto derrame que no hace más que convertir a las capas de población más postergadas del país en rehenes del modelo, porque en ese esquema el extractivismo genera devastación pero al mismo tiempo genera condiciones materiales que permitirían, en teoría, lograr un mínimo umbral de subsistencia. Esa contradicción es insoluble y tiene que ver con un progresismo bastante tibio, producto de una combinación de miopía y dogmatismo.

¿Qué distancia hay entre el Estado y las empresas extractivas?
Las distancias ya no son claras. Te diría que ya prácticamente no hay ninguna. El Tratado de Integración Minera con Chile indica, por ejemplo, que la cordillera ya no es ni chilena ni argentina, es un tercer país minero, donde básicamente hay como una especie de cesión voluntaria por parte de ambos Estados del control del territorio y de la fuente básica de los recursos hídricos  (las nacientes de los ríos cordilleranos), que hoy en día están controlados por las compañías mineras formando todo un conglomerado de territorios militarizados, donde el paso para un transeúnte cualquiera o para los habitantes de la zona está vedado sino se cuenta previamente con el permiso de la compañía minera, su personal privado o las fuerzas públicas de seguridad que operan al servicio de la empresa. A su vez, las empresas extractivas también ofician de ministerios de Desarrollo Social paralelos, estableciendo mecanismos de dependencia en los territorios donde operan. Todo esto indica que los fenómenos de acumulación por desposesión del extractivismo no pueden darse sin el beneplácito del Estado, por acción o por omisión. Y este beneplácito rebasa las fronteras ideológico-partidarias. Desde la década de 1990 hasta la actualidad, el extractivismo ha sido política de Estado, independientemente del gobierno de turno. Tanto el neoliberalismo como el neo-desarrollismo y el gobierno actual han apoyado e impulsado el modelo sin ambages, y los pocos cambios que han introducido han sido para ampliar las ventajas con las que cuentan las corporaciones, no para limitarlas.

¿Qué ocurre con las leyes que, en el mismo periodo histórico de los noventa, ampliaron los derechos y el reconocimiento a los pueblos originarios?

Hay una contradicción manifiesta entre el dicho y el hecho. Desde lo discursivo y desde lo jurídico, existe una normativa que, en la práctica, no se cumple. Mejor dicho, hay todo un andamiaje jurídico a nivel país que sólo se cumple en función de a quién beneficia. Cada vez que las comunidades quieren hacer uso de sus derechos, se encuentran con una oposición monolítica por parte del Estado que directamente las sofoca y las anula. ¿Qué ocurre con todas las leyes que impunemente violan las empresas extractivas en general y mineras en particular? Nada. Esto lo vemos en el caso de la actividad hidrocarburífera, en la desposesión de la tierra en el norte del país, en el avasallamiento a las comunidades campesinas y aborígenes. Hay empresas que tienen causas de contrabando por 40 mil millones de dólares, otras que estarían en serios problemas si se aplicara como debiera aplicarse la Ley de Glaciares -Barrick Gold en Veladero, por ejemplo, que además está en una zona de reserva de biosfera, al igual que el proyecto Chinchillas en Jujuy-. La cuestión de la legalidad se ha tornado cada vez más sesgada: cuando se la aplica para favorecer determinados intereses hegemónicos, supone legitimar desde el Estado lo que en otros casos entenderíamos como delito; pero cada vez que una comunidad lucha por subsistir ante los embates del modelo extractivista, se la tilda de “grupos fundamentalistas” que operan al margen de la institucionalidad. 

¿Cómo se legitiman los discursos disidentes?
Hay una cuestión básica que tiene que ver con el hecho de que la experiencia cotidiana de las comunidades pasa a ser avasallada por el Estado, que decide escuchar solamente una campana de lo que es el discurso científico -dejando de lado a los voces críticas- y no considera que las comunidades sean un actor válido o legítimo para opinar de las cuestiones que sufren día a día. Porque el problema aquí es que los discursos disidentes de las comunidades, con sus denuncias de contaminación, aparición de patologías graves y otras problemáticas sanitarias y ambientales vinculadas con el extractivismo, ponen en jaque al discurso hegemónico de las ciencias técnicas corporativizadas sobre la supuesta “seguridad” e “inocuidad” del modelo. Cuando aparecen resistencias como el Basta de fumigar o el No a la Mina, el Estado lleva adelante una estrategia que, en primer lugar, consiste en invisibilizar la realidad. Pero cuando esta realidad ya es ineludible e imposible ocultar, no tiene otra opción que deslegitimar el reclamo porque supuestamente no estaría fundado en el conocimiento científico.

Al evidenciarse esa doble vara en materia de derechos, ¿es el plano jurídico el lugar para librar las luchas ambientales?
Quizás. Pero el gran problema en ese sentido es que las pequeñas victorias que se van logrando, como la prohibición en algunas localidades de fumigar con agrotóxicos a determinada distancia de áreas pobladas, no atacan la raíz del modelo. Es innegable que poner límites de esa índole a las fumigaciones sirve para paliar el aspecto más crudo de la problemática. Pero la cuestión esencial sigue sin respuesta. Recientemente, investigadores de CONICET demostraron que el 80% de las muestras de agua de lluvia tomadas en las provincias de Buenos Aires, Córdoba, Santa Fe y Entre Ríos contiene glifosato y atrazina. Es decir, no importa cuánta distancia se ponga entre las fumigaciones y las zonas pobladas, el problema sigue existiendo. La raíz del problema es la no aplicación del principio precautorio en materia ambiental que establece que “si hay duda de que algo es nocivo para la salud, debe prohibirse hasta que se demuestre que no lo es”. En este caso, se lo está aplicando al revés: se va a usar hasta tanto las comunidades demuestren que sus afecciones y patologías tienen que ver con las fumigaciones. Y esta dinámica perversa se ve en todo el país, en las plantaciones forestales de Misiones, en el Chaco sojero y algodonero, etcétera.

.

Estudiando espermatozoides
en carrera

Nicolás Camargo Lescano (Agencia CTyS-UNLaM)

Investigadores de la UNMdP-CONICET y de la Universidad de Castilla-La Mancha, España, diseñaron un software de acceso libre que mide desplazamiento, velocidad y trayectoria de los espermatozoides. La herramienta, ya disponible, es clave en el campo de la agroindustria y de la medicina reproductiva.

El conteo y la movilidad de espermatozoides son datos esenciales tanto en medicina reproductiva como en la agroindustria. Pero la evaluación de la calidad de semen en humanos y en especies de interés reproductivo –toros, caballos, cabras y otros- precisa de costosos sistemas comerciales, que además no tienen flexibilidad para estudiar muestras distintas.

Con esta problemática de base, un equipo interdisciplinario de la Universidad Nacional de Mar del Plata-CONICET y de la Universidad de Castilla, España, diseñaron el “Sperm Motility Tracker”, un software de acceso libre que es capaz de medir en simultáneo las trayectorias de hasta 120 espermatozoides. El estudio se hace a partir de videos adquiridos mediante un microscopio con contraste de fase.

“Una de las características más importantes de los espermatozoides es la movilidad, estamos hablando de gametas que necesitan moverse para poder fertilizar”, explica Andreina Cesari, investigadora independiente del Instituto de Investigaciones Biológicas (IIB, CONICET – UNMDP) e integrante del proyecto.

Además de medir la movilidad de las gametas, el software también identifica a qué velocidad se desplazan y qué tipo de trayectoria describen, ya sea rectilínea o circular. “Todos esos datos hablan mucho de la fisiología de la célula y de la calidad de una muestra seminal, por ejemplo, para la inseminación artificial”, amplía Cesari.

“Una de las ventajas de este software es su adaptabilidad: es ampliamente parametrizable como para probarlo con diferentes especies, donde las ‘cabecitas’ y ‘colitas’ de los espermatozoides varían según la especie”, destaca Virginia Ballarin, directora del Laboratorio de Procesamiento Digital de Imágenes perteneciente al Instituto de Investigaciones Científicas y Tecnológicas en Electrónica (ICyTE-CONICET) de la UNMdP.

Cesari, por su parte, resalta tanto el armado del software –que ya funciona correctamente- como el trabajo de biólogos y veterinarios para validar la herramienta. “Si alguien llama mañana mismo, les compartimos el código y ya se lo puede utilizar. Es importante que se sepa que fue comparado sistemática y rigurosamente con un software comercial”, apunta la investigadora del CONICET.

Una innovación abierta y libre
Según detallan las investigadoras, la decisión de que el software sea de código abierto estuvo desde el primer momento. “Software libre no significa gratis, sino abierto- aclara Ballarin-. Cualquier institución sin fines de lucro como universidades, laboratorios de investigación u otros que lo necesiten, les otorgamos el código para que puedan utilizarlo y no tengan que pagar. Sólo necesitan el microscopio de contraste, que es lo que se utiliza para analizar la muestra”.

Cesari agrega que, en el campo de la agroindustria y la producción pecuaria –que fue el punto de partida para el desarrollo-, la falta de una herramienta como esta es una limitación muy grande, por los altísimos costos de laboratorios que cuenten con el equipo comercial. “Nos parecía que, de algún modo, desde nuestro lugar de científicos podríamos contribuir con alguna solución. En el ámbito de la biología y la veterinaria, es una limitación muy grande”.

La investigadora espera que, además de ser una herramienta útil en cuestiones de medicina reproductiva, el software pueda llegar a utilizarse en otros ámbitos. “Hay especies, como los zánganos –el macho de las abejas-, o los peces, que largan sus gametas al ambiente. Y esas células son muy sensibles a los cambios de ambiente”, desarrolla la investigadora.

“De esta manera, se podría llegar a utilizar los cambios de movimiento o velocidad en los espermatozoides para detectar la presencia de tóxicos en el agua o en el aire. Pero estas aplicaciones serían más a futuro, y no tan directa como la que el software tiene hoy en día, en el ámbito de la medicina reproductiva”, concluye.

.

Arsénico en el agua, y las claves para una solución olectiva

Carolina Vespasiano y Nicolás Camargo Lescano
(Agencia CTyS-UNLaM)

La Doctora en Química Marta Litter reflexiona sobre las acciones políticas que faltan para mitigar la presencia de este metal altamente tóxico en las aguas de consumo, un problema que afecta potencialmente a cuatro millones de personas en Argentina.

Hace más de un siglo que la presencia de arsénico en el agua se considera un grave problema sanitario a nivel mundial. Beber agua con este tóxico puede producir una enfermedad llamada HACRE (Hidroarcenicismo Crónico Regional Endémico), y sus consecuencias pueden ser letales.

¿Por qué ocurre esto? En una charla con Agencia CTyS-UNLaM, la Doctora en Química Marta Litter identifica los obstáculos y adelanta que el camino para lograr un agua segura debe ser “interdisciplinario desde el aspecto social, médico, sanitario y científico”, y que  requiere de “la participación de las autoridades nacionales y regionales”. 

Casi ninguna zona de Argentina está exenta de este metaloide. Desde la Puna, pasando por la llanura Chaco-Pampeana hasta la región patagónica, ríos y aguas subterráneas contienen arsénico en mayor o menor medida, con lo que alrededor de cuatro millones de personas podrían estar afectadas, especialmente quienes consumen agua de pozo por no contar con agua corriente de red.

Si bien hoy en día existe un abanico de alternativas para tratar el arsénico, nunca se ha logrado erradicar el problema a nivel nacional. De hecho, muchas de las regiones afectadas ni siquiera sospechan del veneno que corre por sus grifos.

Agua que has de beber, agua que has de conocer
La presencia de arsénico en el agua proviene de procesos de sedimentación naturales que comenzaron en la era Cuaternaria. Para avanzar hacia la aplicación de soluciones, Litter sostiene que el primer paso viene de la mano de geólogos e hidrogeólogos que mapeen el territorio completo y determinen las proporciones de arsénico en cada región.

En segundo lugar, es preciso determinar qué valores límite de arsénico pueden tomarse sin comprometer la salud a largo plazo. La OMS determina que el límite se fija en 10 microgramos por litro, pero hay algunas regiones que exceden cientos de veces ese valor en Argentina, alcanzando los 5300 microgramos por litro.

Según Litter, todavía hay discusión sobre este estándar internacional que plantea la OMS.
Algunos referentes académicos lo consideran muy bajo, porque, para medir el arsénico en esos valores, se requiere de tecnología y recursos humanos muy sofisticados.

En este contexto, Litter sugiere que debería fijarse un parámetro nacional, ajustado a las características de la población. Afortunadamente, ya hay estudios epidemiológicos locales en marcha intentando encontrar un valor óptimo que no produzca riesgos de desarrollar HACRE.

Un diálogo necesario
El tercer aspecto –y no menos importante- tiene que ver con la concientización sobre el problema. “Los principales afectados son las poblaciones aisladas o socioeconómicamente vulnerables que no acceden a información ni a soluciones a su alcance”, explica la experta, pero reconoce que “las autoridades también desconocen todo el trabajo que científicos y tecnólogos están haciendo en el país”.

En este sentido, Litter considera que la salida es la articulación a largo plazo, no sólo al interior de las ciencias humanas y naturales, sino entre ellas y el plano social y político.  Para ello, sugiere la conformación de un comité de expertos en el tratamiento de agua a nivel gubernamental (ejecutivo y/o legislativo), y la elaboración de una legislación federal que reglamente acciones políticas concretas.

La tecnología ya está disponible para cada caso en particular. Algunas de las alternativas de remediación son de bajo costo, como las nanopartículas de hierro, pensadas para uso doméstico y comunitario, y otras requieren de mayor infraestructura, como las plantas para remediación de agua instaladas en distintos lugares como Lezama, en Buenos Aires.

“El tema del arsénico tiene que ser una política de Estado”, sostiene la especialista, y reflexiona que, para llegar a ese punto, hay que alertar a la población desde las escuelas, y forjar el compromiso de los científicos, los políticos y las comunidades. ¿Desafío imposible? Lo parece, pero no tanto si el agua comienza a tomarse como lo que es: un derecho humano.

.
 


Entre tizas y tubos de ensayo: educando a futuros científicos

En La ciencia en el aula, investigadores analizan los modos en que las ciencias -especialmente las Exactas y Naturales- se imparten en las aulas escolares y destacan la necesidad de que las escuelas muestren una imagen más interesante y real de la ciencia.

Nicolás Camargo Lescano (Agencia CTyS-UNLaM)- El amor y el compromiso con una vida científica pueden ser inspirados de las más diversas formas. En el caso de Melina Furman, bióloga investigadora del CONICET, la vocación científica se despertó más por autores de divulgación científica como Isaac Asimov, Carl Sagan o Richard Feynman, que por sus profesores de secundaria.

“Tuve una enorme heterogeneidad de profesores, desde la de Biología que nos enseñó a entender los misterios de la vida hasta el de Física que era extremadamente tradicional y solía decir ‘esto es así por definición’”, recuerda Furman, quien también es doctora en Educación por la Columbia University.

En ese universo de enseñanzas clásicas e innovaciones que rompen la norma, Furman y otros investigadores –Diego Golombek, Gabriel Gellon y Elsa Rosenvasser Feher- se metieron de lleno a investigar y a proponer alternativas. El resultado es La ciencia en el aula, cuya primera edición se publicó en 2007 y que en 2018 se renovó con más propuestas y contenidos.

“La gran premisa de esta obra es que las aulas de ciencias reflejen algunos aspectos o dimensiones de la ciencia profesional y que eso ayude a que los estudiantes construyan una idea más cercana sobre lo que es el conocimiento científico”, resume Furman quien, desde hace varios años, investiga sobre cómo generar entornos que potencien el pensamiento curioso, crítico y creativo.

Tenés mucha experiencia en el área de la divulgación científica ¿Cuáles considerás que son las mejores estrategias a la hora de divulgar conocimientos científicos?
Para mí, ayuda mostrar lo apasionante de la ciencia. Cuando uno cuenta un descubrimiento o un avance de la ciencia, ayuda a mostrar la dimensión humana detrás: por qué surgió esas ganas de entender esas cosas nuevas, cuál es el problema que se está tratando de entender. A mi me gusta mucho una frase de Diego Golombek –investigador y divulgador- que dice que la ciencia no está hecha de noticias sino de historias. El modo en que aparecen las notas científicas en los diarios es más como “Científicos de la Universidad de California descubrieron X objeto”. Te cuentan el final, que está muy bien, pero cuando uno, al relatar la ciencia, cuenta todo el proceso previo  -qué querían saber, cómo lo hicieron, donde metieron la pata-, eso ayuda a hacerlo más apasionante.

¿Es necesario otro tipo de formación para los docentes? ¿O el desafío pasa por luchar contra los prejuicios o estereotipos que puedan tener los estudiantes sobre la ciencia?
Lo que pasa es que para luchar contra los estereotipos hay que enseñarles de distinta manera. Hay muchas encuestas sobre cómo ven los chicos de secundaria a la ciencia, si se ven a sí mismos como potenciales científicos. Y lo que se suele observar es que, a medida que entran a la adolescencia, los chicos no quieren saber nada con la ciencia. Y eso es producto de una enseñanza muy transmisiva, muy pasiva y muy enciclopedista donde, en realidad, los chicos están escuchando y copiando en su carpeta un montón de datos y cosas que no terminan de entender del todo. El año pasado hicimos un estudio en muchas escuelas de la Ciudad de Buenos Aires, en séptimo grado, para ver qué hacían los chicos en el tiempo de clase. Y lo que encontramos es que el 80 por ciento está copiando del pizarrón o viendo preguntas fácticas, de copiar y pegar de textos informativos. Es realmente mucho tiempo. También sucede que ven temas de manera muy superficial o muy disociada de las observaciones o experimentos que le dieron origen.

¿Y cómo se puede cambiar este panorama?
Parte de revertir todo este escenario es trabajar con los docentes. No sólo en  la formación inicial, es decir, los que están por ser docentes, sino trabajar con los docentes en el ejercicio. Ahí hay una oportunidad más grande aún, porque uno ya está en el aula y tiene un escenario en el que probar cosas nuevas. Las capacitaciones que funcionan son aquellas donde surge una estrategia o idea nueva. Esa idea se lleva al aula, se prueba con los estudiantes, se reflexiona sobre ella… Es todo un proceso. Hay que tener en cuenta que es muy difícil cambiar el modo en que uno enseña, hay que desaprender un montón de cosas para aprender otras.

En la búsqueda de despertar vocaciones científicas, ¿se necesita un vínculo más aceitado o más fuerte entre las escuelas y las universidades?
Seguramente. Si la escuela secundaria hiciera un mejor trabajo en enseñar una ciencia más atractiva, más interesante, habría más chicos con vocaciones científicas en la universidad. Por supuesto, también ayuda cuando la universidad abre las puertas y hace puentes. Y, en muchos casos, lo están haciendo, con las Semanas de la Ciencia, con programas de ciencia donde chicos de la secundaria pueden hacer pasantías. Hay cosas que están muy buenas y está bueno que haya más aun, pero me parece que el gran motor de generar vocaciones científicas es que la escuela secundaria muestre a la ciencia como algo mucho más interesante de lo que la está mostrando hoy y más cercano a lo que verdaderamente es. Si me paro y sólo cuento una serie de cosas como conocimiento acabado y no cuento quién las investigó por primera vez, de dónde salen, qué vio para decir eso, pareciera que el conocimiento viene del plato volador. Eso es como lo contrario al espíritu científico, te mata la curiosidad.

Se mencionan varios aspectos esenciales en el libro. ¿De qué se trata cada uno?
A nosotros nos resultó útil, a la hora de trabajar con los docentes y pensar cómo se enseña la ciencia, dividirlos en aspectos que, por supuesto, conviven todos juntos. El aspecto empírico, por ejemplo, habla de que la ciencia se ocupa de dar sentido y explicaciones a fenómenos del mundo real, observables, a partir de evidencias, de datos, de mediciones. En las aulas es importante, sobre todo cuando los chicos son más chicos, que los estudiantes tengan la oportunidad de observar, de registrar datos, de sacar conclusiones. Cuando la ciencia en el aula pierde esa dimensión, se está perdiendo una pata fundamental en el proceso de construir conocimiento. El aspecto metodológico habla de que esas maneras de interpretar la realidad no son cualesquiera, sino que siguen cierta lógica: es un abanico metodológico que usan los científicos y que se pueden enseñar en el aula, porque hay maneras de interpretar la realidad. Ahí hablamos, por ejemplo, sobre qué son las buenas preguntas, observaciones para responderlas de manera válida, cómo diseñar experimentos, interpretar datos, sacar conclusiones, debatir, etcétera.

¿Y en relación a los otros?
El aspecto abstracto –tal vez uno de los que menos se trabaje en las escuelas- implica que esas interpretaciones de la realidad son construcciones teóricas, productos a veces, incluso creativos de la imaginación. El aspecto social implica pensar que todo este proceso se hace de a muchos, de manera colaborativa, que tiene pasiones involucradas, gente que debate. Nos parece muy importante que este aspecto se recree lo más posible en el aula, y que se piense al aula como un espacio social de conocimiento. Y el último aspecto es el contra intuitivo,  que pone de relieve que muchas ideas, por ejemplo en física y astronomía, van en contra de nuestro sentido común. Algunos conocimientos se contradicen con las vivencias que tenemos y que nos “dice” nuestra mente o nuestros sentidos. Es clave poder hacer modelos que expliquen evidencias, enseñar que a veces nuestros sentidos nos engañan.

Melina Furman es bióloga (UBA), máster y doctora en Educación (Columbia University). Es investigadora del CONICET y profesora de la Escuela de Educación de la Universidad de San Andrés. Investiga sobre cómo generar entornos que potencien el pensamiento curioso, crítico y creativo desde el jardín de infantes hasta la vida adulta. Creó la asociación 
Expedición Ciencia y condujo el programa La casa de la ciencia para el canal de TV Paka Paka. En su propósito de difundir ideas transformadoras, fundó el curso “El mundo de las ideas” y organiza los eventos TEDxRíodelaPlata.

.

La biotecnología vegetal crece "in vitro" en la UNAHUR

18 Diciembre 2018 
La Universidad Nacional de Hurlingham puso en marcha este año un ambiocioso proyecto que ya ha comenzado a dar sus primeros pasos en materia de investigación. Se trata de la Biofábrica UNAHUR, un laboratorio de micropropagación in vitro de especies vegetales. La particularidad de este espacio es que consiste en un laboratorio móvil, realizado por la firma Phytolab. Si bien la empresa provee equipamiento al sector público y privado, en este caso va a ser utilizada con fines científicos, pedagógicos y de extensión a la comunidad. Para esos fines ha sido adaptada y cuenta con un circuito propio de transmisión audiovisual, que permite registrar en tiempo real todos los procesos. Además, puede funcionar a la vista del público a través de los grandes ventanales que tiene. De ese modo, la comunidad universitaria puede conocer de cerca la biotecnología vegetal.
La tecnología que utiliza la Biofábrica es la “organogénesis” que consiste en la manipulación in vitro de pequeños brotes, para luego asignarles un medio de crecimiento. La organogénesis puede realizarse de forma directa, a través de “explantos”, lo que habitualmente se conoce como “gajos”, pero a un nivel más pequeño, inferiores a un centímetro y condiciones controladas. Por otra parte, se puede realizar la “organogénesis indirecta” para formar “callos”, un estadio indiferenciado de crecimiento generado con diversos medios de crecimiento.

El laboratorio cuenta con tres módulos que funcionan secuencialmente. En el primero se realiza la preparación y esterilización del material vegetal, para ello cuenta con un autoclave, estufa de secado, heladera e incubadora de crecimiento. En el segundo espacio se realiza la división y la siembra del material. Para su manipulación cuenta con dos flujos laminares horizontales que garantizan las condiciones de asepsia necesarias para trabajar con el tejido vegetal. En esta área hay cámaras que permiten registrar el trabajo realizado. Por último, el material es enviado a la cámara de crecimiento, que cuenta con control de temperatura, aislación térmica, iluminación natural  e iluminación artificial, sistema de aire presurizado de alta calidad para los Sistemas de Inmersión Temporal (SIT), entre otros.

La Biofábrica ya está en condiciones óptimas de funcionamiento y actualmente se están realizando pruebas con plantas nativas. Ya se han estabilizado cultivos de plantas ornamentales y con “yacón”, un tubérculo de la región andina con propiedad hipoglucémica. Para el tratamiento de estos especímenes, se utilizan sistemas semisólidos o agarificados y otro más complejo y automatizado, el Sistema de Inmersión Temporal.

La tecnología que utiliza la Biofábrica es la “organogénesis” que consiste en la manipulación in vitro de pequeños brotes, para luego asignarles un medio de crecimiento.

Una vez que las plantas adquieran el desarrollo adecuado, podrán ser puestas en un sustrato adecuado fuera de la biofábrica y, según la necesidad, utilizadas por productores o viveros locales. En este sentido, la Biofábrica puede funcionar para multiplicar ejemplares, para sanearlos o para modificarlos genéticamente. Por otra parte, se puede utilizar con distintos fines: productivos, fitosanitarios o de reparación ambiental.
Para adentrarnos en el trabajo cotidiano que se desarrolla en la Biofábrica conversamos con sus responsables: la Dra. Valeria Rudoy y el Dr. Leandro Imanishi, especialistas en micropagación vegetal e investigadores de UNAHUR.
¿En qué estado de avance está la Biofábrica?
VR – La Biofábrica ya está calibrada, recientemente le hicieron los últimos ajustes y estamos en condiciones de trabajar en condiciones óptimas. Durante estos meses hicimos pruebas con distintas especies, probamos los equipos y empezamos un proyecto de investigación en torno al “yacón” (Smallanthus sonchifolius). Para ello nos pusimos en contacto con un grupo de investigadores del Conicet y de la Universidad Nacional de Tucuman que ya venían trabajando con esa planta. Actualmente tenemos una decena de cultivos que estamos estabilizando y en poco tiempo estaremos en condiciones de multiplicarlos.
¿Cuánto duran los procesos de micropropagación?
VR – Si hablamos de micropropagación los tiempos son cortos, pueden variar de acuerdo a la especie o a la cantidad de plantas que se quiera alcanzar. Pero generalmente el establecimiento dura 60 días aproximadamente, luego el crecimiento in vitro dura entre 20 y 30 días. Luego viene el período de clonación, propiamente dicho, donde los plantines van multiplicando y esto suele ser de manera exponencial. A partir de ahí, estamos en condiciones de rusticarlos en un sustrato adecuado fuera del laboratorio. Por otra parte, si queremos realizar embriogénesis mediante variación somaclonal, hablamos de procesos que duran entre dos y tres años.
¿En qué consiste el Sistema de Inmersión Temporal?
LI - Los SIT son sistemas de micropropagación de plantas semi-automatizados que permiten elevar la productividad del proceso de micropropagación. Es una tecnología relativamente nueva y consiste en que el material vegetal se sumerge en el medio de cultivo durante cortos períodos de tiempo y a intervalos regulares. Durante estas breves inmersiones en el medio de cultivo, las plantas absorben los nutrientes para su desarrollo, a la vez que se permite un mayor intercambio de gases durante la etapa donde las plantas no se hallan en contacto con el medio líquido.

"El principal aporte que podemos brindar tiene que ver con el saneamiento del material vegetal. Para muchos productores es una gran dificultad la presencia de microorganismos no solo por la sanidad vegetal, sino porque generalmente representa un grave perjuicio económico"

¿Cuál es la capacidad productiva de la Biofábrica?
VR - La propagación vegetal que desarrollamos aquí es exponencial, de acuerdo a la especie podemos obtener miles de plantas en pocos meses. Podríamos decir que la producción no tiene techo. De todos modos, vale aclarar, no se le dará un uso comercial, sino orientado a la ciencia y el medioambiente.
¿Cuáles son las expectativas con la biofábrica?
VR – El primer desafío tiene que ver con el uso académico que se le puede dar a este laboratorio. No hay mucha enseñanza en micropropagación y cultivo de tejidos vegetales. Hay un gran desconocimiento del potencial de las plantas, lo que conocemos como “totipotencialidad” y cómo se puede trabajar en condiciones in vitro. En poco tiempo nuestros estudiantes que cursen la asignatura Biotecnología Vegetal, podrán trabajar aquí. A su vez, esperamos que puedan continuar sus prácticas para especializarse en este campo.
LI – También podremos desarrollar proyectos de investigación a través de embriogénesis somática. Una técnica que lleva más tiempo. Todavía no hay protocolos generalizados, pero tiene muchísimo potencial. Una vez que está ajustado el sistema para un determinado tipo de especie, permite trabajar con una escala de propagación a nivel industrial.
¿Qué puede aportarle la Biofábrica a la comunidad del oeste de la provincia de Buenos Aires?
VR – El principal aporte que podemos brindar tiene que ver con el saneamiento del material vegetal. Para muchos productores es una gran dificultad la presencia de microorganismos (bacterias o virus), no solo por la sanidad vegetal, sino porque generalmente representa un grave perjuicio económico. Esta tecnología permite clonar plantas, o sea reproducir exactamente una  genética determinada, y también permite generar plantas modificadas genéticamente para hacerlas resistente a una enfermedad. Yo trabajé mucho tiempo clonando y evaluando plantas de papa GM resistentes al  “virus PVY”, que según su estadio puede matar un cultivo o disminuir la producción. El transgénico no es una mala palabra. Puede contribuir con la sanidad de las plantas haciéndolas resistentes a un virus y mejorar el rendimiento productivo con sustentabilidad.
La Biofábrica UNAHUR ya está en marcha. En poco tiempo los estudiantes que cursen Biotecnología vegetal podrán realizar sus prácticas allí y conocerán de cerca las técnicas de micropropagación. Al mismo tiempo, avanzan los proyectos de investigación que incrementan el conocimiento científico de este campo.
La vida vegetal se vincula al desarrollo tecnológico en una de las Universidades más jóvenes del país y promete ser fuente de más novedades en los próximos años

.

Primer Páncreas Artificial de Latinoamérica

ITBA, UNLP y UNQ / Nicolás Camargo Lescano
(Agencia CTyS-UNLaM)

La clave de la innovación es un algoritmo, desarrollado en Argentina, que regula el nivel de glucemia en sangre para pacientes con diabetes tipo uno.

Ya fue probado con éxito en pacientes en el Hospital Italiano.
En un claro ejemplo de ciencia básica aplicada a la salud, y también de trabajo interdisciplinario, investigadores argentinos presentaron el primer páncreas artificial de América Latina.
La clave de la innovación es el algoritmo ARG (Automatic Regulation of Glucose), desarrollado íntegramente en Argentina, que permite regular el nivel de glucemia en la sangre de pacientes con diabetes tipo uno.
“Lo que más me entusiasma de este proyecto es ver cómo les cambia la vida a las personas- resalta el Dr. Ing. Ricardo Sánchez Peña, director del proyecto-Este algoritmo no solamente regula los niveles de glucosa sino que además les da independencia y autonomía, de forma tal que el paciente no tenga que estar permanentemente pensando en cuánto nivele de azúcar consume”.
El algoritmo fue desarrollado por investigadores del Instituto Tecnológico de Buenos Aires (ITBA), de donde Sánchez Peña es director, la Universidad Nacional de La Plata (UNLP) y la Universidad Nacional de Quilmes (UNQ).
Dicho algoritmo, que puede ser alojado en un celular, va conectado a una bomba de insulina y un monitor de glucosa. Estas dos últimas partes ya estaban en el mercado.
“La comunicación entre el celular que contiene el algoritmo y la bomba de insulina y el monitor de glucosa se hace a través del sistema bluetooth, por lo que se necesitan protocolos de comunicación”, explica Sánchez Peña, que además es investigador principal del CONICET.
“Ya hicimos un convenio con una empresa que fabrica monitores de glucosa, que nos van a facilitar esos protocolos, y faltaría entonces encontrar alguna empresa que fabrique bombas de insulina que nos proporcione lo mismo”, agrega.

Las pruebas clínicas
Los primeros ensayos en pacientes se habían hecho en noviembre de 2016, pero con un algoritmo de la Universidad de Virginia (Estados Unidos), que ya había sido probado anteriormente.
Durante junio de este año, además, se hicieron pruebas clínicas en cinco pacientes argentinos, ya con el algoritmo ARG, que estuvieron internados 36 horas en el Hospital Italiano. Los médicos de este hospital se habían sumado al equipo de investigación en 2014.
“Son las primeras pruebas clínicas que se han hecho en América Latina; hasta ahora no ha habido pruebas de este tipo muy recientes, excepto en Estados Unidos, Europa e Israel”, aclara Sánchez Peña.
Desde el punto de vista clínico, el investigador explica que, además de necesitar mayor financiación, se deberán hacer más pruebas en pacientes y de forma ambulatoria, “personas que no estén en un ambiente hospitalario sino en sus casas”.
Sánchez Peña, quien hasta 2009 trabajó en España en el área espacial, había decidido mudar sus líneas de investigación al campo de la medicina y la biología. “Uno de mis colegas tenía un nieto con diabetes tipo 1. Empecé a interiorizarme de la enfermedad y me pareció que era una buena línea de investigación”, relata.
El investigador también ponderó el vínculo entre las distintas disciplinas que participaron y, especialmente, con los pacientes. “Uno, como ingeniero, interactúa poco con otros seres humanos; trabaja más con dispositivos, satélites, cohetes y aviones. La interacción con pacientes es muy enriquecedora porque ahí uno ve los frutos de lo que está haciendo”, concluye.

.

Tras las primeras huellas
de América


Carolina Vespasiano (Agencia CTyS-UNLaM)

Con el reciente hallazgo de la evidencia humana más antigua del continente, la historia del poblamiento podría llegar a cambiar por completo. La Antropóloga Ana Tropea analiza los dogmas a la hora de estudiar la llegada del humano al ‘nuevo mundo’, y apunta que la hipótesis tradicional “se ha comprobado por medio del sentido común antes que por el criterio científico”.

…Se ha de decir que pasaron, no tanto navegando por mar, como caminando por tierra; y ese camino lo hicieron muy sin pensar, mudando sitios y tierras poco a poco; y unos poblando las ya halladas, otros buscando otras de nuevo, vinieron por discurso de tiempo a henchir las tierras de Indias de tantas naciones y gentes y lenguas...”
En su Historia Natural y Moral de las Indias, el sacerdote jesuita José de Acosta dejó por escrito una posibilidad que, cuatro siglos más tarde, adquirió peso de ley: el hombre pobló América de Norte a Sur, y lo hizo tras un largo peregrinaje desde Asia.
En la década de 1930, la arqueología anglosajona determinó que el poblamiento de América se dio por el estrecho de Bering, en plena glaciación, 15.000 años atrás. El descubrimiento de distintos artefactos, como sofisticadas puntas de proyectil talladas en roca, en varios sitios arqueológicos de Norteamérica, fue prueba ‘suficiente’ para avalar esa teoría, que se llamó modelo Clovis.
Hubo otros descubrimientos arqueológicos mucho más antiguos al sur del continente que pusieron en duda el modelo Clovis. Uno de ellos fue el reciente hallazgo, por parte del Doctor Carlos Aschero, de mechones de pelo humano, artefactos de roca, y huesos y excremento de megafauna que datan de 40.000 años en un yacimiento conocido como Cacao, en Antofagasta de la Sierra, al norte de Catamarca. 
La noticia causó conmoción porque pone en jaque lo que se conoce hasta el momento acerca del poblamiento de América. Sin embargo, lejos de ser olvidada, la hipótesis Clovis se sigue imponiendo como un dogma y una referencia ineludible. La antropóloga e investigadora de CONICET, Ana Tropea, analiza los sesgos presentes a la hora de estudiar la llegada del humano al ‘nuevo mundo’.

Una historia sencilla
Según Tropea, el modelo Clovis sobrevive por dos motivos. En primer lugar, por su simpleza: un grupo de humanos caminó por miles de kilómetros sobre hielo para llegar a un territorio despoblado. “En un breve enunciado –apunta la investigadora- se describe un proceso de una complejidad abrumadora porque involucra una escala temporal y espacial gigante”.
En segundo lugar, porque la hipótesis se comprueba por medio del sentido común antes que por el criterio científico. “Clovis está siempre asociado con colonización, o sea que el poblamiento de América es, en realidad, la colonización de América. La idea de un grupo de humanos caminando sobre un glaciar no tiene correlato con la dinámica de la vida de los cazadores recolectores. Así pareciera que los primeros pobladores tenían un objetivo imperialista”, explica Tropea.
De esta manera, a aquella antigua humanidad se le atribuye un modo de concebir la vida y de relacionarse con el territorio idéntico al de humanidad contemporánea, y eso, según la antropóloga, “genera una identificación directa con esta sociedad y una naturalización de un modo social y cultural del ser”.
“Si hoy somos lo mismo que fuimos en el pasado –señala- en relación con el territorio, esa relación tiene que ser natural al ser humano. Si a lo largo de 15.000 años la naturaleza fue vista como una fuente externa que me da recursos y yo tomo cosas, se naturaliza una lógica capitalista y extractiva, una forma de estar en el mundo, que es muy intuitiva”.
La arqueología, la antropología física, la antropología biológica y la lingüística llevan años tratando de responder la pregunta del poblamiento americano e intentando, sin éxito, hacer coincidir sus respuestas. Tropea sugiere que parte del problema es, justamente, las interpretaciones de los datos y el modelo de humanidad que se quiere reconstruir y debe ser problematizado.
Por otro lado, advierte que las jerarquías impuestas entre las disciplinas también generan tensiones a la hora de poner en común los conocimientos: “Hay que asumir un escenario plural, y para eso todas las ramas de la ciencia tienen que valer lo mismo. Pareciera que para poder armar esa trama hay que asumir una única ontología: que la humanidad era, es y será colonizadora”.

Una ventana hacia el pasado
Durante la presentación del estudio de Aschero en el Centro Cultural Paco Urondo, el arqueólogo Luis Abel Orquera indicó que la noticia “no solo tendrá repercusiones en Latinoamérica, sino sobre el conocimiento del viejo mundo” y se permitió exponer dos conjeturas acerca de quiénes fueron aquellos humanos que pasaron por la Puna, a más de 3.000 metros sobre el nivel del mar.
“Entre el norte de China y el estrecho de Bering hay 5.000 kilómetros de distancia, más los 13.000 o 14.000 que hay desde el estrecho de Bering hasta la Puna de Atacama, lo cual indica que los descendientes de América tienen que haber sido muy anteriores y descender de antepasados mucho más antiguos”, argumentó el arqueólogo.
Así, plantó la posibilidad de que el primer poblamiento de América pudo haber sido efectuado por especies anteriores a los sapiens sapiens, como los neandertales, o que hayan existido oleadas migratorias mucho más antiguas del hombre moderno que aún no hayan sido descubiertas.
“Si hasta hace pocos meses pensábamos que el poblamiento de América pudo haber ocurrido hace 15.000 o 20.000 años, los primeros pobladores tuvieron que ser necesariamente homo sapiens sapiens de aspecto moderno. Hoy ya no lo podemos decir. Si se confirma la antigüedad de 40.000 años, tendríamos que aceptar la duda de que pudieron haber sido neandertales”.
El poblamiento de América sigue despertando pasiones y debates. Si con nuevos hallazgos el modelo Clovis se destierra, el desafío que se aguarda es todavía mayor: encontrar otra explicación sencilla y superadora que contemple de forma crítica los prejuicios de nuestra sociedad moderna. Tal vez, como decía José de Acosta, a esos antiguos peregrinos los movió la armonía con su entorno, con su medio de vida, que inexorablemente los empujó a caminar.

.