viernes, 25 de abril de 2008

Nos pescan con red: La gran ofensiva del comando ciberespacial del Pentágono está cerca


Rosa Miriam Elizalde y Rogelio Polanco
Rebelión/Cubadebate


"En el pasado, si el Gobierno quería violar la intimidad de los ciudadanos corrientes, tenía que gastar sus recursos en interceptar, abrir al vapor y leer el correo y escuchar, grabar y transcribir las conversaciones telefónicas. Eso era como pescar con caña, de uno en uno. Por el contrario, los mensajes de e-mail son más fáciles de interceptar y se pueden escanear a gran escala, buscando palabras interesantes. Esto es como pescar con red, existiendo una diferencia orwelliana cuantitativa y cualitativa para la salud de la democracia".
(Declaración de Phil Zimmermann ante el Subcomité de Política Económica, Comercio y Medio Ambiente de la Cámara de Representantes de los EEUU, el 26 de junio de 1996)
Nuevas evidencias en la prensa norteamericana indican que el Pentágono se está preparando para una ofensiva cibernética a gran escala, con la entrada en funcionamiento en el próximo octubre del Comando del Ciberespacio de la Fuerza Aérea de los Estados Unidos.
El Comandante Robert J. Elder Jr., jefe de esta fuerza especial que ejecutará acciones de guerra en la Internet, dijo al USA Today el pasado 6 de abril que el objetivo fundamental de esta fuerza es desarrollar “estrategias militares que permitan interrumpir el sistema de comunicación enemigo” y que las capacidades ofensivas de ese Comando han mejorado notablemente desde el inicio de la guerra en Iraq, cuando “se emplearon ataques rudimentarios por parte de los Estados Unidos, como saturar los sistemas iraquíes y el uso de ataques por red para evitar la comunicación de las unidades terrestres entre sí”. [1]
Efectivamente, la ciberguerra se inició semanas antes del bombardeo sobre Iraq, después de que el presidente de Estados Unidos, George W. Bush, firmara una directiva secreta en la que aprobaba el ataque a redes “enemigas”, un país que en marzo del 2003 apenas tenía 12 000 computadoras conectadas a la Red y eran muy pocas los que se controlaban desde dependencias militares o manejaban información confidencial.
Este miércoles 23 de abril se anunció la convocatoria al II Simposio Ciberespacial de la Fuerza Aérea, que tendrá lugar del 17 al 19 de junio en Massachussets. Uno de sus objetivos, aventado sin pudor en los medios norteamericanos, “es el control cibernético” y “avanzar en el dominio de este nuevo territorio de guerra, como mismo controlamos el espacio aéreo.” [2]
Y para que no queden dudas de que el Comando Ciberterrorista norteamericano va en serio, la Fuerza Aérea creará 300 nuevos empleos, “como parte del crecimiento previsto en el Comando de Operaciones de la Red, de la Fuerza Aérea, que es la columna vertebral del Comando Ciberespacial -cuya sede principal está provisionalmente en la base de Barksdale, en Luisiana-. Es también la base de nuestra capacidad para luchar contra las nuevas guerras en el ciberespacio". Es decir, contra todos nosotros.
A propósito de esta ofensiva norteamericana y la constitución oficial del Comando Ciberespacial, que se viene articulando desde finales del 2006 como fuerza añadida a los Ejércitos convencionales del Pentágono –el de aire, mar y tierra-, quisiéramos esbozar cuatro aspectos que suelen ser ignorados, subestimados o confundidos por la izquierda, en los debates en torno al uso de la Internet. Asuntos en los que habría que profundizar y que son a nuestro juicio vitales para poder presentar una alternativa a la agresión que ya tenemos encima y que se multiplicará, a más tardar dentro siete meses.

1.-Necesidad del conocimiento del entorno tecnológico
Los sociólogos llaman “heterarchies” a la manera en que se unen, como si fueran un mismo cuerpo, las redes sociales y las digitales. Esta articulación dio muestras de sus enormes potencialidades con el Foro Social Mundial, durante las manifestaciones previas a la guerra en Iraq o en la organización de la protesta mundial contra la reunión de la OMC en Seattle.
Sin embargo, estas experiencias, desgraciadamente, parecen haberse esfumado con la misma relampagueante rapidez con que aparecieron. Una causa que nos atreveríamos a esbozar tiene que ver con el desencuentro que existe en las redes sociales y las redes tecnológicas. Suele haber claridad sobre las muy concretas reivindicaciones políticas que nos mueven, pero no de la manera en que se han de interrelacionar los grupos que intervienen en ellas. Dicho de otra forma, tenemos conciencia de la importancia de la sangre para la vida de un organismo, pero esta parece flotar en el vacío, como si no necesitara del concertado laberinto de venas o como si estas fueran secundarias. No es un defecto particular de las sociedades con menos desarrollo de la Red, sino la expresión del uso tardío y generalmente empírico de la Internet en las organizaciones de izquierda, cuya participación de las llamadas nuevas tecnologías generalmente se ha reducido a un letargo de tendederas digitales y al uso del correo electrónico con volátiles acciones de resistencia.
No se puede hablar de Red en la era de la globalización –que Ignacio Ramonet ha sintetizado en la fórmula “neoliberalismo más Internet” -, si no se tiene en cuenta el medio a través del cual se expresa. Al hablar del medio no nos referimos exclusivamente a la web, al correo electrónico, al teléfono celular y otros sucedáneos, en los que parece concretarse y que están sufriendo tan formidable transformación que quizás más temprano que tarde todas estas formas conocidas nos serán tan extrañas como inútiles.
El término Red de Redes en sí mismo alude, seamos conscientes de ello o no, a la base tecnológica de la forma organizativa que caracteriza a la era de la información: la red. Pero alude también a una manera de estructurar el pensamiento y de organizar las relaciones de comunicación con el soporte de unos medios muy especiales, en los que la innovación intensiva se produce en ámbitos de inteligencia más que en soportes materiales. Es tecnología y método al mismo tiempo. Como ha dicho el general del Cuerpo de Marina Alfred M. Gray, “comunicación sin ‘inteligencia’ es ruido; ‘inteligencia’ sin comunicación es irrelevante.” [3] (Por supuesto, en boca de un militar yanqui ha de esperarse que la palabra inteligencia esté siendo utilizada en doble sentido, pero en su justo significado sintetiza perfectamente lo que queremos decir.)
“Este movimiento actúa, como en anteriores contextos históricos, de manera contradictoria. Internet no es un instrumento de libertad ni tampoco es un arma para ejercer la dominación unilateral. Internet –afirma el teórico Manuel Castells- no es una utopía ni una distopía; es el medio en que nosotros nos expresamos –mediante un código de comunicación específico- que debemos comprender si pretendemos cambiar nuestra realidad”. [4]
En la coevolución paralela de Internet y la sociedad, la dimensión política de nuestras vidas esta siendo profundamente transformada. Quedar al margen de estas redes es la forma más grave de exclusión que se puede sufrir en nuestra cultura, y en este sentido son más proféticas que nunca las palabras de Marshall McLuhan:
… las sociedades siempre han sido moldeadas más por la índole de los medios con que se comunican los hombres que por el contenido mismo de la comunicación. El alfabeto es una tecnología que el niño muy pequeño absorbe de un modo totalmente inconsciente. La tecnología eléctrica promueve y estimula la unificación y el movimiento que lleva a un auténtico envolvimiento. Es imposible comprender los cambios sociales y culturales si no se conoce el funcionamiento de los medios. [5]
2.-La organización en Red asociada a un pensamiento estratégico.
Asomémonos brevemente a la esfera que más rápidamente está siendo transformada por las redes de información. En Estados Unidos la innovación tecnológica ha estado asociada en un lugar especialísimo con la guerra: el esfuerzo científico de la ingeniería generado en torno a la Segunda Guerra Mundial fue el ámbito tecnológico que permitió la revolución de la microelectrónica, mientras que la carrera armamentista durante la Guerra Fría favoreció su desarrollo. De modo que el nacimiento de la Internet no es un hecho aislado, ni un experimento fortuito en un laboratorio, sino el resultado de la política tecnológica más innovadora del mundo.
ARPANET, fuente principal de lo que acabaría siendo Internet, fue ideada, deliberadamente diseñada y posteriormente gestionada por un grupo de militares y académicos que sin el apoyo del Departamento de Defensa jamás habrían sido capaces de sumar los recursos necesarios para construir una red de computación. Fue fundamental la participación de brillantes informáticos de algunas de las más prestigiosas universidades norteamericanas, a quienes no les importó en lo absoluto trabajar bajo el financiamiento del Pentágono en medio de la guerra en Viet Nam.
Como explicara recientemente el Comandante en Jefe Fidel Castro en una de sus Reflexiones, la feroz carrera armamentista y la conciencia de la inferioridad tecnológica de ese país, fueron dos de los principales desencadenantes de la desintegración de la Unión Soviética. De entonces acá tres han sido los desafíos fácilmente identificables de la hegemonía militar norteamericana, que han estado acompañados por el esfuerzo para desarrollar y controlar la Red:
El primero es el tipo de competencia entre iguales que representaba la Unión Soviética. El principal candidato a esta designación ahora es China.
El segundo desafío es el que representan los llamados estados-canalla (oscuros rincones del mundo), designación que se aplica a cualquier tipo de estado en vías de desarrollo que represente un obstáculo a la hegemonía norteamericana.
Y el tercero, por supuesto, es el que ocupó el primer pIano con los ataques del 11 de Septiembre: el enemigo no-estatal, que criminaliza a todos los que se oponen al poder hegemónico norteamericano.
A partir de estos escenarios se ha estructurado una poderosísima “Red de redes contra la humanidad”, en el que la guerra altamente tecnificada tiene el papel protagónico. La transformación del consorcio militar industrial norteamericano, que parece ir derivando hacia un consorcio militar-cultural gracias a las tecnologías de la información, descansa en dos líneas estratégicas: la tecnológica y la puramente doctrinaria.
En el ámbito tecnológico, se están desarrollando a niveles jamás vistos las comunicaciones electrónicas, los sistemas de vigilancia, los aviones no tripulados, los proyectiles dirigidos por satélites y un arsenal de aplicaciones de híbridos de la nanotecnología, la microelectrónica y la Inteligencia Artificial, que permiten reducir la presencia física de los soldados en los escenarios bélicos. Las invenciones del tipo The Matrix, con su célebre cita filosófica “bienvenido al desierto de lo real”, están cada vez más próximas a la realidad. The New York Times, por ejemplo, ha publicado en el 2005:
El Pentágono predice que los robots serán una importante fuerza de combate en el ejército americano en menos de una década, y que perseguirán y eliminaran a nuestros enemigos en el campo de batalla. Los robots son una parte crucial del esfuerzo en el que está empeñado el Ejército para reformarse y convertirse en una verdadera fuerza de combate para el siglo XXI, y el contrato firmado para desarrollar un proyecto valorado en 127 mil millones de dólares y conocido como Sistemas de Combate del Futuro, es el contrato militar más importante de la historia americana. Los militares planean invertir decenas de miles de millones de dólares en unas fuerzas armadas completamente automatizadas. Los costos de esta transformación contribuirán a elevar el presupuesto del Departamento de Defensa casi un 20 por ciento más. [6]
El segundo ámbito de la doctrina militar norteamericana en Red es tan importante como el anterior. Un nuevo estilo de pensamiento está imponiéndose en los think-tanks militares de Estados Unidos y la OTAN. Se le conoce con el término de swarming [7] o enjambre y representa un cambio radical frente a las concepciones militares basadas en despliegues masivos de capacidad artillera, armamento blindado y grandes concentraciones de tropas. El enjambre es una estrategia militar en la cual una tropa ataca a un enemigo desde múltiples direcciones diferentes para después reagruparse.
Este tipo de guerra “no-lineal” elimina la noción del frente y representa una versión de alta tecnología de la guerra de guerrillas. La guerra “basada en redes”, según la terminología del Pentágono, depende totalmente de un sistema de comunicaciones sólido y seguro, capaz de mantener una conexión constante entre todos los nodos de la red.
Estación del Comando del Ciberespacio, de la Fuerza Aérea norteamericana, en Luisiana. Esta fuerza, un nuevo Ejército que se incorpora a los ámbitos tradicionales de la guerra –la tierra, el aire y el mar-, “se apoyará en estrategias militares que permitan interrumpir el sistema de comunicación enemigo, con mayor precisión que en Iraq en el 2003, donde logramos intervenir todas las comunicaciones terrestres del Ejército de Saddam Hussein”, aseguró el General Robert Elder, jefe del Comando Ciberespacial.
Las implicaciones que esto está teniendo para las fuerzas armadas son enormes. Se ha ido desmontando paulatinamente la organización tradicional del ejército en cuerpos, divisiones, regimientos y batallones de gran envergadura. En esta lógica surge el Comando Ciberespacial para el despliegue a través de las redes, que debe ser el responsable del incremento desmesurado de las agresiones contra sitios chinos y venezolanos en los últimos meses [8] . Lo mismo ha ocurrido con la división funcional entre diversas especialidades: infantería, unidades blindadas, comunicación, artillería, ingeniería. Las unidades han pasado a ser básicamente multifuncionales y dependen de su capacidad de conexión en red para conseguir apoyo mutuo.
Como señala la RAND Corporation [9] , “este proyecto doctrinal no puede ponerse en práctica sin un sistema de comunicación y vigilancia plenamente integrado. Esta nueva perspectiva requiere que las fuerzas armadas se transformen en una ‘organización sensorial’, en la que el sistema resultará fundamental para lograr mantener a las unidades operativas conectadas a la red. El sistema de mando, control, comunicaciones, ordenadores, inteligencia, vigilancia y reconocimiento (C4ISR) puede llegar a generar tanta información que será imprescindible... para mantener el topsight -una visión general de todo lo que esté ocurriendo-.”
Por supuesto, sabemos que toda esta doctrina tiene una falla de origen: la subestimación del ser humano. Al final, toda guerra se decide en enfrentamientos cuerpo a cuerpo. No se puede ocupar el territorio, ni desarmar al enemigo, es decir, aniquilar su voluntad de lucha, sin vencerlo en el campo de batalla. Como dice Howard Zinn, “cuando Estados Unidos luchó en Vietnam, fue una confrontación entre tecnología moderna organizada y seres humanos organizados. Y vencieron los seres humanos.” [10] Pero que tengamos esta convicción no significa que no haya que estar muy atentos a los planes del enemigo.
3.-Movimientos sociales: pasar a la articulación horizontal
El Foro Social Mundial y las manifestaciones previas a la guerra de Iraq en el 2003, que incorporaron a millones de personas en todo el mundo, son ejemplos esperanzadores de las posibilidades de la conjunción de las redes técnicas con las redes sociales, desde el punto de vista que aquí analizamos. Pero habría que admitir que desde entonces no hemos vuelto a ver expresiones semejantes de resistencia política articulada.
Hasta el 2003, la falta de canales comunicativos estructurados resultó ser una fuerza y no una debilidad para las acciones de las redes contrahegemónicas, porque todos los movimientos podían ser inmediatamente eficaces y no esperaban ninguna clase de ayuda externa o extensión para garantizar su efectividad. Uno de los modelos más exitosos fue el de las movilizaciones contra la reunión de la OMC en Seattle, a finales de 1999.
Gracias a que todavía no estaban organizados los sistemas de vigilancia a través de la Red, desde múltiples puntos de Internet se articuló la movilización, incluida una complicada logística –por ejemplo, la mayoría de los miles de participantes que llegaron a la ciudad no se alojó en hoteles para no llamar la atención de las autoridades, sino en la casa de otros activistas. Cuando el gobierno estadounidense se dio cuenta, la acción era ya un hecho. La célula matriz de las protestas, los grupos de afinidad, eran unidades de 15 a 20 personas que funcionaban discrecionalmente y que tenían capacidad de tomar sus propias decisiones estratégicas. Algunos hicieron teatro callejero, otros se encadenaron, otros llevaban marionetas gigantes, algunos simplemente se agarraron de los brazos para impedir de manera no violenta el paso de los delegados. En cada grupo había gente dispuesta a ir a la cárcel, otros que serían el apoyo una vez que estuvieran en prisión y una persona calificada en primeros auxilios. La "descentralización coordinada", con el apoyo inestimable de Internet, hizo posible que se cumplieran los objetivos de la mayoría de los activistas, movilizados por todo el mundo.
Ya esto no se puede hacer sin desatar las alarmas. Se acabó el mito de que Internet era un espacio inmune a la regulación y como afirma Mike Davis, experto en ecología urbana y autor del libro Planet of Slums (Planeta de suburbios), “las mejores cabezas del Pentágono han aprendido la lección… Ahora tienen por blanco las ciudades salvajes, fracasadas del Tercer Mundo –especialmente sus suburbios marginados–, que serán el campo de batalla característico del siglo XXI. La doctrina bélica del Pentágono está siendo reformulada para apoyar una guerra mundial de baja intensidad de duración ilimitada contra segmentos criminalizados de los pobres urbanos.” [11]
Desde mucho antes del 11 de Septiembre, la maniobra estadounidense sigue la pauta de adelantarse a cualquier otro gobierno o emporio global para ordenar la Red y proveerla de la arquitectura tecnológica, legal y represiva que mejor convenga a Estados Unidos. Cuenta con una circunstancia altamente beneficiosa para sus objetivos: la influencia de las políticas neoliberales, que fragmentan y atomizan las sociedades, e impiden que los grupos que enfrentan estas políticas reconozcan al enemigo principal. Al proyecto neoliberal le interesa que los grupos permanezcan aislados, enfrentados entre sí, sin capacidad de encontrar objetivos y estrategias comunes. Esta primera dificultad ha puesto en jaque la creación de redes de solidaridad y de comunicación antagónicas a la globalización neoliberal, porque choca con sus principios y con sus lógicas de funcionamiento.
La prueba es que un movimiento de extraordinaria importancia para la soberanía en la Red como el de la lucha por mantener la neutralidad en Internet [12] , involucra casi exclusivamente a grupos por los derechos civiles en Estados Unidos. La ausencia de redes internacionales de solidaridad en torno a este tema y el desconocimiento de la ofensiva militar estadounidense en Internet, indican que las transnacionales de telecomunicaciones estadounidenses podrían alzarse con la victoria e imponer a todos más y más barreras para la libertad en Red. Sin ir demasiado lejos, en el discurso del 28 de enero último sobre el Estado de la Nación, el presidente Bush prácticamente amenazó a los legisladores para que aprobaran de inmediato un nuevo proyecto de ley de vigilancia que le otorgaría inmunidad a las empresas de telecomunicaciones que colaboraron con el espionaje sin órdenes judiciales. Literalmente dijo: “Eso significa que si no toman medidas para el viernes, nuestra capacidad de permanecer al tanto de las amenazas terroristas se debilitaría y nuestros ciudadanos estarían en mayor peligro. El Congreso debe asegurarse de que no se interrumpa el flujo de inteligencia vital. El Congreso debe aprobar protecciones de responsabilidad legal a favor de las empresas que se considera que contribuyeron a los esfuerzos por defender a Estados Unidos. Tuvimos suficiente tiempo para debatir. Es hora de actuar.” [13] Poco después la Ley se aprobó sin más dilación.
El otro gran desafío de nuestros movimientos es trascender los modelos organizativos que dificultan la participación de sus miembros y la creación de redes con otros grupos. Seguimos aferrados a un modelo que se caracteriza por sistemas de difusión, al estilo de la televisión y de la radio, con un punto de emisión y muchos receptores que generalmente no son tenidos en cuenta. Estamos muy retrasados en el uso del modelo que propicia Internet, horizontal y desterritorializado.
4.-El futuro: fuera de la red, no existe
El futuro, al margen de la Red, no existe. Jeremy Rifkin, autor de un libro paradigmático, La era del acceso [14] , asegura que la brecha entre conectados y desconectados será aún mayor que la existente hoy entre ricos y pobres, hasta el punto de que quien no esté enlazado en red no existirá ni política, ni social, ni económicamente. Él, como otros investigadores de este tema, coinciden abrumadoramente en que, a medida que Internet se va convirtiendo en la infraestructura dominante en nuestras vidas, la propiedad y el control del acceso a estas tecnologías se convierten también en el principal caballo de batalla político de la sociedad contemporánea.
Debemos tener muy claro que la resistencia y la denuncia no serán suficientes. Las leyes, los tribunales, la opinión publica, los medios de comunicación, los organismos políticos y gobiernos progresistas son instancias fundamentales que deben contribuir a decidir otro futuro para la Red de Redes que no sea el diseñado por Washington. Es imposible controlar la Internet global, pero sí es posible controlar a la gente que la utiliza y, de hecho, estará cada vez más controlada, a no ser que se imponga un modelo que opte por la defensa de patrones solidarios y de transparencia de las instituciones, actuando desde las barricadas de los que exigen la libertad en el uso de Internet, pero yendo más allá de ellas en la confrontación con los mecanismos del poder político.
El otro gran reto que se nos avecina es vencer el miedo más antiguo de la humanidad: el miedo a los monstruos tecnológicos que podamos engendrar. Tal es el caso, especialmente, de la ingeniería genética, aunque dada la convergencia entre la microelectrónica y la biología, y el desarrollo potencial de sensores ubicuos y la nanotecnología, este temor biológico primario se extiende a todo el ámbito de los descubrimientos tecnológicos.
Las futuras sinergias entre las tecnologías informáticas, la nanotecnología, la biotecnología y las ciencias del conocimiento podrían mejorar drásticamente la condición humana por el crecimiento de la disponibilidad de alimentos, energía y agua, y por el mayor intercambio de información e interconexión entre las personas en todas partes. Sin embargo, las abismales diferencias entre los números que acompañan el presupuesto de guerra y el de los servicios elementales para garantizar la vida de la mayoría de los habitantes del planeta, indican que esos propósitos están lejos de hacerse realidad.
Como ha dicho Fidel, no puede llamarse ni medianamente humana una sociedad donde “se perpetúa el poder económico y el disfrute de las nuevas tecnologías en unas pocas manos. Resolver este dilema es tan trascendente para el destino de la humanidad como enfrentar la crisis del cambio climático en el planeta, problemas que están absolutamente interrelacionados.” [15]
No se vislumbra aún cuánto de la sabiduría, la buena voluntad y la inteligencia social serán empleados para el mejoramiento humano. A juzgar por el modelo imperial en franca ventaja, parece que estos esfuerzos viajan en sentido opuesto. Los gastos militares anuales en el mundo han alcanzado una cifra récord 1,2 millones de millones de dólares, mientras que el ingreso del crimen organizado sumó casi el doble. La sociedad de la vigilancia altamente tecnificada se lanza a la conquista de aún más sofisticadas computadoras, cada una con una inteligencia que eventualmente nos sobrepasará.
Kevin Warwick, profesor de Cibernética de la Universidad de Reading, en Inglaterra, cree que lo que realmente ocurrirá hacia el año 2030 es que “nos habremos convertido en víctimas de las máquinas. Su vigilancia nos controlará totalmente. Quizás habremos evitado un holocausto nuclear, porque no apareció alguien lo suficientemente loco para apretar el botón, pero para el año 2030 nos habremos puesto a nosotros mismos en el infierno. Las máquinas de inteligencia artificial nos observarán. Hacia el año 2030 aún estaremos tratando de razonar y negociar con las máquinas. ¿Por qué ellas deben atendernos cuando son mucho más inteligentes de lo que nosotros somos? Lo que deberíamos esperar es que nosotros, los humanos, seamos tratados por las máquinas de la misma manera que nosotros tratamos a los animales, como trabajadores esclavos y productores de energía”. [16]
Un visionario de las nuevas tecnologías y el desarrollo de las máquinas inteligentes como Ray Kurzweil presupone que “cuando tengamos software ejecutándose en nuestros cerebros y nuestros cuerpos, que controlen el sistema inmunológico de los nanobots, el impacto en el mundo será infinitamente mayor” [17] . Y adelanta que “los intentos por controlar estas tecnologías por la vía de programas gubernamentales secretos, conjuntamente con su desarrollo clandestino inevitable, fortalecería la naturaleza inestable en que sus aplicaciones peligrosas podrían convertirse en dominantes”. [18]
La realidad es que la evolución futura de la Red de Redes está sometida a las dinámicas contradictorias que oponen la dominación imperial a nuestros proyectos de justicia social y a nuestras esperanzas. El universo virtual es el espejo del universo tangible. Debemos situar nuestra acción en el contexto específico de dominación y liberación donde vivimos: en la sociedad red, construida en torno a las redes, y no al margen de ellas o creyendo ingenuamente que es el paraíso o el infierno, de acuerdo al prisma con que se mire.
Manuel Castells reproducía un diálogo, en el que lo desafían del siguiente modo: “‘¿Por qué no me deja usted en paz? ¡Yo no quiero saber nada de su Internet, de su civilización tecnológica, de su sociedad red! ¡Lo único que quiero es vivir mi vida!’ Muy bien –respondió Castells-, pues si ese fuera su caso tengo malas noticias: si usted no se relaciona con las redes, las redes sí se relacionan con usted. Mientras quiera seguir viviendo en sociedad, en este tiempo y en este lugar, tendremos que tratar con la sociedad red.”
La gran ofensiva del Comando Ciberespacial está cerca y no podremos construir una alternativa de futuro al margen de la red o desconociendo su lógica conceptual. Navegantes solidarios o peces en brasero ajeno: ese es el dilema.

[1] Anick Jesdanun: "US Cyberwarfare Prep Includes Offense". Agencia AP, 6 de abril de 2008. Se puede descargar en: http://ap.google.com/article/ALeqM5h93IdWAX5NRBlmIyQJ76eSzufiTgD8VSGL700
[2] AF, DOD leaders on tap for June Cyber Symposium. Air Force Link, 23 de abril de 2008. http://www.af.mil/news/story.asp?id=123095656
[3] Citado en: Viegas Nunes, Paulo Fernando, “El impacto de las nuevas tecnologías en el medio militar. La Guerra de Información (IW)”. Air & Space Power Journal - Español Segundo Trimestre 2001.
[4] Todas las referencias en este trabajo a Manuel Castells han sido tomadas de: Castells, Manuel. La Galaxia Internet: Reflexiones sobre Internet, empresa y sociedad. Random House Mondadori, Barcelona, 2001.
[5] McLuhan, Marshall: The Global Village: Transformations in World Life and Media in the 21st Century, Oxford University Press, USA, 1992.
[6] The New York Times, 16 de febrero de 2005.
[7] Literalmente, enjambre. El término procede del sustantivo swarm (enjambre), por tanto swarming sería un tipo de combate o ataque concentrado y ágil como de un enjambre de abejas.
[8] De acuerdo con los registros de la empresa norteamericana Akamai Technologies, líder en análisis del comportamiento del tráfico en Internet, estos dos países fueron los más atacados por “piratas” informáticos en el 2007. Para que se tenga una idea de lo que estamos diciendo: en julio de 2007 se implantó un récord. Venezuela, que posee 4 millones de usuarios de Internet, tuvo 764 ataques en 64 horas, 500 más que China, el país que seguía en la lista y que posee 100 millones de usuarios. En: http://www.akamai.com/html/technology/dataviz1.html
[9] Arquilla, John, y Ronfeldt, David, “Swarming and the future of conflict”, RAND National Defense Research Institute, Santa Mónica, CA, 2000.
[10] Zinn, Howard: La otra historia de los Estados Unidos. Editorial de Ciencias Sociales, La Habana, 2004. p.343.
[11] Davis, Mike: Planet of Slums. Verso, Londres, marzo de 2006.
[12] La neutralidad de la Red era un principio que establecía que todos los sitios deben ser tratados de igual manera por los proveedores de servicio de Internet. Se encontraba recogida en la Ley de Comunicaciones estadounidense (Communications Opportunity, Promotion and Enhancement Act). Los movimientos sociales norteamericanos han ido perdiendo, una tras otras, las batallas legales y políticas por la defensa de este principio que convertiría a la Red en una autopista de doble estándar: una para los ricos que puedan pagar servicios exclusivos de banda ancha, y otra para los pobres, con prestaciones lentas y precarias.
13 Bush, George W., "Discurso del Presidente Sobre el Estado de la Nación". Cámara de Representantes de Estados Unidos, 28 de enero de 2008. Se puede descargar en el sitio http://www.whitehouse.gov/news/releases/2008/01/20080128-13.es.html%20
14 Rifkin, Jeremy: La era del acceso. La Revolución de la Nueva Economía. Editorial Paidós. Barcelona, 2000.
15 Castro Ruz, Fidel: "Reflexiones del Comandante en Jefe: Robo de cerebros". Granma, 17 de julio de 2007. Se puede descargar en: http://www.cubadebate.cu/index.php?tpl=design/especiales.tpl.html&newsid_obj_id=9557
16 “Kevin Warwick, Professor of Cybernetics: Back to the future": BBC News, diciembre de 1999. El texto se puede leer en: http://news.bbc.co.uk/hi/english/static/special_report/1999/12/99/back_to_the_future/kevin_warwick.stm
17 Kurzweil, Ray: The Singularity is Near, Penguin Group, 2005, p.414.
18 Kurzweil: Ob. cit, p.420.

martes, 22 de abril de 2008


Nace la plataforma YoSoyAutor.org para defender
los derechos de autores y creadores

internautas.org

Transparencia, libertad del creador para decidir el modelo de gestión, respeto por Internet y democracia directa son los pilares sobre los que se asienta la plataforma.
Reabrir el debate sobre la gestión de la Propiedad Intelectual en Internet, la universalización del acceso y la incorporación al Dominio Público de todos los bienes culturales del estado son algunas de las propuestas que hacen desde la plataforma.
Las revoluciones tecnológicas (papel, imprenta, internet,..) siempre han proporcionado nuevas oportunidades tanto para la creación como para la difusión de obras y creaciones. Internet no ha sido una excepción: la Red y la tecnología estan configurando un nuevo escenario en el que cambian las formas de relacionarse entre el creador que genera un contenido y la persona que lo disfruta.
En este contexto nace yosoyAutor.org, una plataforma creada por y para la defensa de autores y creadores, que busca promover el debate público sobre la gestión de la Propiedad Intelectual y los derechos de los creadores en la nueva Sociedad de la Información para buscar formulas que sean de interés para la mayoría.
Bajo el lema: Tú creas, tú decides, la plataforma anima a escritores, músicos, artistas plásticos, programadores, fotógrafos, blogers… a unirse a ella debatir y proponer alternativas a los sistemas tradicionales de gestión de derechos y a inscribirse en esta iniciativa basada en la transparencia, la democracia directa y la libertad del autor para elegir el tipo de licencia de todas y cada una de sus propias.
Para conseguirlo, yosoyAutor.org apuesta por las nuevas tecnologías como elemento fundamental para asegurar una participación activa y una transparencia informativa en un proceso de democracia vital para autores y creadores.
Información accesible para todosUna de sus mayores demandas es que se reconozca de forma legal y explícita, junto con el Copyright (modelo de gestión imperante en la actualidad), las licencias Copyleft y el Dominio Público como medios de protección de los derechos de propiedad intelectual.
De esta manera, pretenden alcanzar una mayor libertad del autor y del creador para elegir el modelo de gestión que quiere para sus derechos de propiedad.YosoyAutor.org busca también una igualdad de oportunidades en el acceso al conocimiento y la cultura. Para ello, desde la plataforma se llama a la creación de “una Ley de universalidad de la banda ancha para que Internet sea un servicio asequible a todos y para todos sin discriminación”.
A su vez apuesta porque todos los bienes culturales del estado se declaren de Dominio Público, instando a los Poderes Públicos a poner a disposición de los ciudadanos toda la información de los mismos para su uso, copia y modificación y distribución.
La plataforma se presenta como una voz alternativa de autores y creadores que ven en Internet multitud de formas diferentes de gestionar los derechos de sus obras. YosoyAutor.org cuenta ya con su propio manifiesto en el que se expone la necesidad de revisar los modelos de gestión de propiedad intelectual para así aumentar el acervo y el patrimonio cultural y artístico.
Tu creas, tu decides, … apúntate a yosoyAutor.org -->

viernes, 18 de abril de 2008

Neoproteccionismo alimentario

Alfredo Jalife Rahme
La Jornada


Se viven los momentos necrófilos del fenecido modelo neoliberal (ver Bajo la Lupa, 30/3/08), cuyas esquelas empiezan a ser difundidas profusamente en el mundo entero.La Ronda Doha –el marco de negociación de la tambaleante Organización Mundial de Comercio (OMC) para la irrestricta liberalización agrícola, industrial, de servicios y códigos aduaneros–, iniciada dos meses después de los atentados terroristas texanos con máscara islámica de Al-Qaeda y montaje hollywoodense, se había colapsado en 2003 en Cancún debido a la gallarda oposición del Grupo de los 20, países en vías desarrollo (liderado por el G-4: China, India, Brasil y Sudáfrica) frente a los flagrantes subsidios agrícolas de EU y la Unión Europa en beneficio de sus granjeros capitalistas.John Ralston Saul, el solvente filósofo canadiense –quizá uno de los principales pensadores humanistas del continente americano–, había sentenciado que la detención de la ronda de Doha en Cancún exhibía uno de los signos irrefutables del Colapso de la globalización (título de su libro de 2005).La dantesca crisis alimentaria global que ha golpeado a un mínimo de 33 países, de la confesión del disfuncional Banco Mundial que dirige el fundamentalista mercantilista Robert Zoellick, se encuentra en la intersección de otras dos crisis también globales: la crisis energética y el cambio climático que han contribuido directa o indirectamente en su eclosión y de las que se retroalimenta mutuamente.Desde el alza del precio del transporte, pasando por las sequías de los países exportadores, hasta la demencial utilización de los alimentos básicos como biocombustibles en ciertos países, todo ha conspirado en haber profundizado la crisis alimentaria global que ha obligado a potencias neoeconómicas, como el RIC (Rusia,India y China), sumadas de potencias graneras como Argentina y Ucrania, para citar las más conspicuas, a tomar desesperadas medidas neoproteccionistas en nombre de la “seguridad alimenticia” con el fin de nutrir a sus habitantes en peligro de ser deliberadamente hambreados.Las revueltas en los pletóricos países hambreados –desde Asia, África y el Caribe– no se han hecho esperar y se encuentran al borde la ingobernabilidad cuando todavía no acontece lo peor ni los precios han alcanzado su acmé, como advierte persuasiva y ominosamente el investigador alemán F. William Engdahl (ON LINE JOURNAL; Special Reports, 4/4/08): “un hongo letal, conocido como Ug99, que aniquila el trigo, probablemente se ha expandido a Pakistán desde África, de acuerdo a reportes que, en caso de ser ciertos, colocan bajo amenaza a la vital canasta asiática de pan, que incluye la región del Punjab”.¿Por qué Pakistán, el punto más inestable del planeta a juicio de los geostrategas rusos, además de poseer 523 kilómetros de transfrontera con China, hoy la superpotencia geoeconómica a vencer? A juicio de Engdahl, la “diseminación de esta raíz rancia, para la que no existe un fungicida efectivo, se genera cuando los inventarios mundiales de granos alcanzan su más bajo nivel en cuatro décadas y la producción de bioetanol subsidiado por los gobiernos, en especial EU, Brasil y la Unión Europea, han suplantado las tierras de producción alimentaria a una tasa alarmante”. Nos ilustra que “el hongo letal ha sido utilizado por Monsanto y el gobierno estadunidense para expandir las semillas patentadas de OGM” (organismos genéticamente modificados”).Detalla la letalidad del hongo sobre el trigo, así como sobre la avena y la cebada, cuando la infección de las plantas es absolutamente demoledora: alcanza 100 por ciento gracias al ingenio protectivo de Monsanto y el gobierno estadunidense. Aun sin la devastación del hongo letal Ug99, los pronósticos de la neomalthusiana FAO para este año proyectan una tendencia alarmante en el abastecimiento de los alimentos a escala global, que se debe, a su juicio, al incremento de la población y de los ingresos, pero más que nada al “veloz crecimiento de la industria de los biocombustibles”, lo que ha elevado en forma dramática los precios de los alimentos “desde los cereales, azúcar, carne y productos lácteos”.A juicio de Engdahl, la crisis alimentaria global es “intencional”, ya que cuesta trabajo entender que los mejores científicos del planeta radicados en EU y la Unión Europea que subsidian el “giro catastrófico” a los biocombustibles no se hayan percatado de sus letales consecuencias secundarias, sin contar todas las “falsedades” sobre sus supuestas bondades, científicamente insostenibles, como “ser menos dañinos al medio ambiente que el petróleo”. Todo lo contrario: los biocombustibles resultaron más contaminantes que lo publicitado engañosamente. A ver si el “mercado neoliberal” propone a los humanos digerir motores de vehículos para paliar el hambre mundial.Pareciera que existe una maligna geopolítica de los granos básicos que constituye el andamiaje para su diseminación selectiva: “Las primeras cepas de Ug99 fueron detectadas en Uganda (Nota: de allí el sufijo “Ug”) en 1999. Se diseminó a Kenia en 2001, a Etiopía en 2003 y a Yemen en 2007, cuando el ciclón Gonu difundió sus esporas. Ahora el virus letal ha sido hallado en Irán (¡súper sic!) y de acuerdo a los científicos británicos (sic) puede encontrarse tan lejos como Pakistán”. Rememora que “Pakistán e India representan 20 por ciento de la producción anual de trigo mundial” y donde habitan casi mil 200 millones de seres humanos, es decir, 20 por ciento de la población mundial. La tesis nodal de Engdahl, que explaya ampliamente en su libro Semillas de destrucción, es que detrás de la “intencional” crisis alimentaria global se encuentra el gran negocio de los OGM que encabeza la maligna trasnacional estadunidense Monsanto con el fin de obligar a cambiar el hábito gastronómico de la mitad de la población mundial y así controlarla mejor.Las calamidades inducidas por Monsanto han sido tales que ciudadanos estadunidenses conscientes de EU han creado Monsanto Watch para monitorear sus andanzas y hazañas globales. Será el sereno, pura coincidencia, o paranoia geopolítica, pero llama la atención que la contaminación del hongo letal Ug99 se calque perfectamente al “creciente de la crisis” de Zbigniew Brzezinski, al “arco de la crisis” de George Soros y a los esquemas de hambruna neomalthusiana ideados por Alfred Heinz (alias Henry) Kissinger en la década de los 70. Lo real es que ya empezó la “guerra alimentaria global” como parte de la “guerra multidimensional” israelí-anglosajona detonada el 11 de septiembre de 2001.

viernes, 14 de marzo de 2008

Cambio climático

Lo más costoso es no hacer nada

Tarjei Kidd Olsen
IPS

El costo económico de afrontar los desafíos del cambio climático es mucho menor que el de la inacción, según la OCDE, bloque que entre su treintena de miembros incluye todas las economías del Norte rico. La pasividad de los gobiernos ante el cambio climático agravará la extinción de especies, la escasez de agua y la proliferación de enfermedades, advierte el estudio “Perspectivas ambientales para 2030″, elaborado por la OCDE (Organización para la Cooperación y el Desarrollo Económico).
El informe se hace eco del llamado a tomar medidas formulado en otros reportes, como los del Panel Intergubernamental sobre Cambio Climático, de noviembre, y el del economista británico Nicholas Stern, de octubre de 2006.
El análisis de la OCDE sugiere políticas concretas para reducir las amenazas derivadas del recalentamiento.
Entre ellas menciona la adopción de nuevas tecnologías “limpias”, la aplicación de un impuesto a actividades contaminantes y la puesta en práctica de un “mercado de carbono”, que permitirá la transacción de permisos de emisión.
“Si no se hace nada, las perspectivas globales lucen más bien sombrías. Pero las soluciones están disponibles, pueden alcanzarse y son accesibles, dada la riqueza acumulada de las naciones, si se las compara con las alternativas y el costo de la inacción”, afirmó el secretario general de la OCDE, Ángel Gurría, al presentar el estudio a la prensa, en Oslo.
Según el informe, con la adopción de nuevas políticas las emisiones de gases invernadero podrían aumentar 13 por ciento, frente al previsto 37 por ciento que se registraría si nada se hace. Eso permitirá reducir el riesgo de severos fenómenos climáticos como sequías, inundaciones y fuertes tormentas.
Si no se aplican las recomendaciones, advierte el estudio, para 2030 habrá desaparecido una mayor variedad de especies animales y vegetales. Por otra parte, las muertes prematuras de seres humanos a causa de la contaminación del aire y la acción de agentes químicos aumentarán.
Asimismo, la OCDE señala que 1.000 millones de personas se sumarán a los 3.900 millones que ya viven en áreas afectadas por una severa escasez de agua potable.
El informe destaca que los cambios ambientales están en curso. Pero los desafíos fundamentales podrían encararse a un costo de alrededor de dos por ciento del producto bruto global, agrega.
Esto implica que para 2030 la economía mundial habrá crecido 97 por ciento, en lugar de la previsión actual de una expansión de 99 por ciento, según los autores del estudio.
“Esa reducción de dos por ciento en el producto mundial significa una reducción de entre alrededor de 0,01 por ciento y 0,2 por ciento por país y por año hasta 2030, algo que resulta relativamente razonable y que pondrá al mundo en una mejor posición de aquí a 30 ó 50 años”, dijo Gurría a IPS.
La OCDE también hizo referencia a un escenario alternativo más costoso, en el cual se sacrificaría 2,5 por ciento del producto bruto mundial para 2050, con el objetivo de reducir las emisiones de gases invernadero 39 por ciento respecto de sus niveles de 2000.
Resulta fundamental asegurar que los países en desarrollo no se vean obligados a pagar la totalidad del costo de las medidas propuestas, advirtió John Hontelez, secretario general de la Oficina Económica Europea, una federación de organizaciones de la sociedad civil.
“El problema con el estudio de la OCDE es que todos están mirando a China e India. Es cierto que allí se está registrando un rápido crecimiento económico y que, por supuesto, ellos no deben repetir nuestros errores. Pero esto no implica que los europeos no tengamos una fuerte responsabilidad”, dijo Hontelez a IPS.
“La Unión Europea, Estados Unidos y otros países integrantes de la OCDE son todavía los mayores contaminadores del mundo y, considerando el nivel de emisiones por habitante, lo seguirán siendo en los próximos 40 años”, agregó.
“Tenemos la enorme responsabilidad de reducir nuestra contaminación y desarrollar las tecnologías que hagan posible disfrutar una sociedad próspera, pero con un pequeño uso de energía”, dijo.
Hontelez advirtió que los países pobres no adoptarán nuevas políticas si las naciones ricas no ponen en práctica medidas similares.
El Norte industrial actuaría de forma poco inteligente si asume una actitud que ignore el sufrimiento de los países en desarrollo, los más vulnerables a las amenazas ambientales, señaló.
“A largo plazo, los ricos no podremos protegernos a nosotros mismos de los peligros del cambio climático. En parte porque dañará nuestras economías, pero también porque si la situación en los países en desarrollo empeora demasiado, habrá una creciente inestabilidad e inseguridad, guerras por recursos naturales y un enorme crecimiento de las migraciones hacia el Norte”, dijo Hontelez.
“El cambio climático no es el único problema del mundo”, concluyó, “pero sí uno de los más serios, definitivamente. Y los pobres serán quienes lleven la peor parte si nada se hace para evitarlo”.

viernes, 7 de marzo de 2008


Supermercados franceses retiran productos de grandes marcas por sus altos precios

Por: Contra-Marcas

Estos productos han incrementado sus precios entre un 8,29 % y un 20,63% en los últimos meses La cadena francesa de supermercados Leclerc, una de las más importantes del país, ha decidido castigar a las grandes marcas por subir en exceso los precios de sus productos, informa el diario Le Monde.
A partir del viernes 1 de febrero, va a retirar de sus estanterías los siguientes artículos: la caja con 12 porciones de queso 'La vaca que ríe', del Grupo Bel; el producto de limpieza Ajax, de Colgate; una crema antiarrugas de L'Oréal y otra de Nivea; la bebida Pulco, de la marca Orangina; y un bizcocho, propiedad de Brossard.Estos productos han incrementado sus precios entre un 8,29 % y un 20,63% en los últimos meses, algo que la cadena no encuentra justificable pese al aumento de la inflación.
"Estos artículos volverán a nuestras tiendas cuando los abastecedores se comprometan a que sus precios no aumenten por encima de la media de los productos de su gama", afirma una de los dueños de los supermercados, Miguel Eduardo Leclerc.
La vaca que ríe (nombre original en francés La vache qui rit) es una marca de queso procesado propiedad de la empresa Groupe Bel. Fue lanzado el producto en Francia como La vache qui rit en el año 1921, la marca es hoy en día vendida en más de 90 países.
En los últimos tiempos, asociaciones de consumidores europeos vienen denunciando a las grandes empresas de productos de consumo masivo que utilizan a las marcas como un mecanismo de aumento de precios ficticios, obteniendo de este modo ganancias excesivas.

Los transgénicos y sus primeras víctimas en Chile
Olga Larrazabal Saitua
http://www.piensachile.com/

Los Transgénicos: El Síndrome del Ratón Mickey

El Diario Digital El Ciudadano publicó el día 25/1/2008 la noticia: Intoxicación con plaguicidas en maizal transgénico Agrega el diario” Este incidente rompió el secreto oficial, develando uno de los muchos lugares del país en que se cultivan transgénicos destinados a la exportación. El envenenamiento ocurre en medio de una intensa campaña del empresariado y el gobierno a favor del proyecto de ley aprobado en primer trámite por el Senado (enero 2008), que pretende liberar los cultivos transgénicos en el país. Actualmente sólo se permiten aquellos destinados a la producción de semilla transgénica de exportación.” (Texto completo: El Ciudadano)
Surprise, surprise, como dicen los gringos, de modo que éramos productores de semillas transgénicas.
Y si esos cultivos de semillas para exportación hubieran polinizado a los vecinos, quiere decir que las mutaciones biológicas peligrosas ya están circulando en nuestros choclos, tomates, papas etc. y no teníamos idea. Con razón que los tomates, aunque sea de los antiguos, no tienen gusto a nada.
Para los que no saben, transgénicos son los productos vegetales o animales a los cuales se ha modificado su código genético para obtener alguna ventaja, generalmente económica. Así se insertan genes que hace que la planta produzca toxinas naturalmente y ataque ciertas plagas, o para que crezca más rápido, o produzca frutos más duros o de otro color o para que sus semillas sean estériles, ya que con eso tienen clientes cautivos que les tienen que comprar semillas todos los años, etc. Y agregamos que el material genético de las plantas es muy transmisible entre especies, de modo que, nuestras especies tradicionales pueden haber adquirido ya estas mutaciones. Pero, como en la Naturaleza todo depende de todo, en un equilibrio dinámico en que ella misma se va adecuando según leyes inmanentes que los actuales científicos no dominan, cada vez que el ser humano interviene violentamente, lo estropea todo. Igual que el Ratón Mickey en la película de Walt Disney “Fantasía” en el cuento “El Aprendiz de Brujo”, cuando en aras de su flojera e imprudencia, el aprendiz le roba el manual de brujería a su patrón y multiplica y da vida a millones de escobas que cargan agua desde el pozo y que terminan produciendo una inundación porque, sin dominar el total de la magia, el aprendiz no sabe como detener a las criaturas a las que dio vida.
Recordé entonces un programa de TV que dieron, me parece, en Diciembre del 2007 y que trataba de un biólogo húngaro, el Doctor Pusztai, que trabajaba en el Rowett Research Institute, Aberdeen, Escocia, y que sometiendo a pruebas de inocuidad para la salud humana a unas papas transgénicas a las que se les había modificado una lectina para hacerla resistente a una peste, éstas no solo no pasaron la prueba sino que demostraron ser venenosísimas, deprimía el sistema inmune y las ratas alimentadas con esa comida desarrollaban órganos internos menores. El Dr. Pusztai enfatizó que hay substancias en los alimentos sometidos a Ingeniería Genética que tienen un efecto lento que no es detectado ya que los test oficiales aprobados para examinarlos, no requieren pruebas de largo plazo. Las regulaciones oficiales en el Reino Unido, prescribían un procedimiento de aprobación basado en el principio de “equivalencia substancial” que consiste en “comparar el producto transgénico con su homólogo natural usando un número limitado de características y si se las encuentra similares, no hay razón para someter el producto a pruebas más minuciosas.”
“Esta premisa no tiene fundamento en la ciencia. No toma en cuenta la posibilidad de que en cada caso individual, la inserción de genes en el ADN puede causar alteraciones metabólicas, o la generación impredecible de sustancias potencialmente tóxicas. Esto se fundamenta en razones moléculo-biológicas y además ha sido demostrado en casos experimentales Sustancias tóxicas de reacción muy lenta pueden ser muy difíciles de detectar. Por este motivo hay un riesgo considerable de que no serían detectados si se aplican las pruebas superficiales usadas para establecer la "equivalencia substancial". (. Millstone E, Brunner E and Mayer S, "Beyond Substantial Equivalence", Nature 401: 525-526, 7 Oct 1999.)
Entonces vemos que la comunidad científica, no acepta a rajatabla el control de la toxicidad basado en la “equivalencia substancial” principio usado en todas las instituciones que han declarado que los transgénicos son inocuos para la salud humana. Y ahí está la gran polémica. Habría que averiguar que controles hay en Chile a aquellos que importan material transgénico.
Bueno, el Doctor de marras fue humillado y zarandeado hasta que los laboratorios independientes le dieron la razón y se vio que el Instituto dónde el trabajaba recibía cuantiosas donaciones de una transnacional que tiene el monopolio de los transgénicos y no era tan independiente como todos creían. Aquí se confunde la polémica, y se empieza a dudar sobre la imparcialidad de ciertos científicos, políticos e instituciones.
Leo en la Revista Food un artículo fechado el 14/3/2007 en dónde el Profesor Gilles Séralini del Comité para la Investigación Independiente de Ingeniería Genética de la Universidad de Caen declara con respecto a la variedad de maíz Monsanto MON863 aprobada en Europa que “Nuestra evaluación de control muestra que hay signos de toxicidad y que nadie puede decir científica y seriamente que el consumo de maíz MON863 es seguro y bueno para la salud” Esto fue comprobado en un estudio científico publicado on-line en la revista de la comunidad científica “Archives of Environmental Contamination and Toxicology”. Y continúa el Profesor Gilles Séralini: “Tenemos los primeros signos de toxicidad apareciendo a nivel del peso corporal, los riñones y el hígado, y eso difiere con el sexo indicando efectos hormonales profundos”. (Ver también: Foodnavigator)
Los investigadores están preocupados por los métodos usados por Monsanto para informar sobre la seguridad e inocuidad del maíz. La crítica dice que los métodos estadísticos usados son insuficientes para observar las perturbaciones bio-químicas. En otras palabras: los test empleados por la Monsanto, no son los que la comunidad científica considera seguros a largo plazo.
Leo un estudio publicado en Chile en el 2004 cuya referencia incluyo (Ríos Núñez, Sandra (2004) "Cultivos transgénicos en Chile" en Observatorio de la Economía Latinoamericana, número 38. Texto completo en http://www.piensachile.com/content/view/3753/1/ ) y me siento atemorizada al comprobar que ya en el año 2004 la mayoría de los productos alimenticios envasados que se consumían en Chile contenían material transgénico. Y veo que las etiquetas dicen…..NADA ¿No tenemos derecho a saber qué comemos? Qué pasa con el Ministerio de Salud y el etiquetado? Seguramente no hay leyes, hay vacíos legales. ¿Y quién hace las leyes?
Y la guinda de la torta fue enterarme que se está discutiendo en el Senado, el dar permiso en Chile para cultivar transgénicos que no sólo sean semillas para exportar, sino para cualquier uso.
Y me pregunto: ¿Los Honorables que van a votar este proyecto leen revistas científicas? Porque si los laboratorios de Europa se han equivocado en revisar los efectos de los transgénicos en uso ya que la comunidad científica está poniendo en duda sus métodos de evaluación, el SAG ¿tiene pruebas mejores, mas finas, más avanzadas, para protegernos? ¿Se han dado cuenta de que se están jugando el futuro de la salud de nuestros hijos, la contaminación de nuestras especies, que están jugando a ser como el Ratón Mickey del cuento? Porque los Derechos Humanos no sólo se refieren a las víctimas de la dictadura, fallecidos hace 35 años, se refieren a nosotros ahora, now, a que si no queremos comer comida envasada que tiene este material transgénico, podamos siquiera ir a La Vega y cocinarnos nuestra propia comida sin temor a ser envenenados lentamente. Porque los genocidios actuales ya no van por meter gente a los hornos, van por la contaminación del mundo permitida por los que ostentan el poder y avalada por los comerciantes, que son comerciantes ante todo, no ejemplos de ética ni moral comunitaria.
Y después van a decir “Es que yo no sabía, nadie me informó” como todos los que se han hecho los locos con todas las matanzas de la historia. Una digresión personal.
Bueno, ese trabajo científico hecho por Séralini en Francia, fue aceptado por la comunidad científica e introduce nuevos conocimientos que deberían modificar los puntos de vista tan relajados que se tienen aquí en Chile. No me cabe la menor duda que la Comunidad Europea va a empezar a reconsiderar, ya que son ellos los que sufren. De partida las normas de etiquetado de los alimentos en Europa se han hecho más estrictas:
“La ley aprobada por el Europarlamento establece fundamentalmente el etiquetado obligatorio de todos los alimentos transgénicos, para que los consumidores del Viejo Continente puedan elegir si comerlos o no. Esta obligación abarcará a todo tipo de OGM, ya sean materias primas —como la soja o el maíz que produce la Argentina—, sus derivados (harinas u aceites) o los alimentos elaborados a partir de esos ingredientes. La ley, incluso, impone identificar la carne y la leche de animales alimentados con granos transgénicos” decía el Clarín de Buenos Aires en su edición del 3/7/2003 ante los temores de que las exportaciones de transgénicos disminuyan, ya que ellos eran los segundos en el mundo exportando organismos genéticamente modificados y temían que los consumidores europeos rechacen sus productos.
Todavía los europeos están debatiendo estos problemas porque la presión de los fabricantes de transgénicos es enorme y los laboratorios no son independientes, de hecho es una actividad cara que necesita ser patrocinada.
Pero también en el mundo hay gente responsable; existe un grupo llamado Physicians and Scientists for Responsable Application of Science and Technology que está luchando para derogar el uso de la “equivalencia substancial” como principio de control de los transgénicos y aplicar normas de control científicamente validadas para ese tema.
Un pequeño de mi familia tiene cáncer a la tiroides. Me comenta su abuela: Los médicos nos dijeron que desde que los franceses hicieron experimentos nucleares en Mururoa, el cáncer a la tiroides en Chile se ha multiplicado. Se que no es una observación científica sino empírica, pero ahí estamos con el record de ser los terceros en el mundo en cáncer gástrico, por ejemplo. El no pudo elegir, la radioactividad que se acumula en glaciares en las altas cumbres de los Andes va haciendo su efecto y no hay nada que podamos hacer para evitarlo.
Cuando la Unión Europea decida que los transgénicos son peligrosos y ya hayamos contaminado nuestros cultivos ¿Podremos exportar nuestros frutos? ¿No será tarde? Ya no podremos elegir.
Yo, que suelo cocinar, he visto como se pierden nuestras especies más sabrosas: el maíz de grano pequeño e irregular que sirve para el pastel de choclo, el tomate grande de Rengo, deforme y sabroso, el ají Cristal, aromático y otros. Y de paso nos entregan otras cosas de mal gusto y que quizás nos envíen de turismo al Más Allá antes de lo presupuestado.
Resumiendo, hay tres cosas que debiéramos exigir respecto a los transgénicos:
• Una, que adoptemos las normas del Mercado Común Europeo en el etiquetamiento de los productos para saber lo que estamos comiendo y
• Dos, que no se permitan los cultivos de transgénicos en Chile para ninguna finalidad, ya que las ventajas para la comunidad chilena de producir transgénicos son muy discutibles y poco claras, y una vez extendidos estos cultivos ya no hay marcha atrás. No creo que la subida al carro del progreso pase por estos cultivos y el costo social es imprevisible.
• Tres, que las pruebas de control actuales sobre estos alimentos incorporen las observaciones de la comunidad científica, y no quede en homologaciones que no son aparentemente válidas para estos nuevos productos.
Sería enaltecedor que la comunidad científica chilena, biólogos, médicos, toxicólogos, ambientalistas, genetistas etc. entraran en este debate y se hicieran escuchar, y también la gente común fuera informada de lo que está pasando en este campo.
Febrero 2008 - Publicado en Piensa Chile - http://www.piensachile.com/

miércoles, 20 de febrero de 2008



Mundo Perverso

La NSA (National Security Agency) es una agencia estadounidense dedicada al espionaje mundial, con presupuesto secreto y más de 35,000 empleados. La información que se detalla a continuación sale de un nuevo artículo del sitio Cryptome, que desde hace algún tiempo sigue la pista a las direcciones IP utilizadas por la NSA y sus aliados (notemos que para que la NSA pueda espiar de esta manera, necesita aliarse con empresas privadas como es en este caso Micro$oft).Piensen las implicancias de que cada movimiento que hacen pueda ser no sólo observado sino archivado por la agencia. Mails, sitios visitados, chats, contactos, etc.

Los amplios rangos de IP publicados por Cryptome son utilizados por la NSA, por contratistas del sector privado que trabajan con la NSA y por agencias gubernamentales no estadounidenses amigas de la NSA para acceder tanto a sistemas independientes como a redes ejecutando productos de Microsoft. Esto incluye el espionaje de "smart phones" ejecutando Microsoft Mobile. Los privilegios de administración remota permiten utilizar puertas traseras en los sistemas operativos de Microsoft mediante los puertos TCP/IP 1024 a 1030.
Esto es disparado con más frecuencia cuando los ordenadores visitan los servidores de actualizaciones de Microsoft.Una vez se han establecido los privilegios de administración remota, los ordenadores pueden ser accedidos de forma remota a voluntad. Algunos fabricantes de firewalls y software de detección de intrusos facilitan eso de forma consciente. Detalles más amplios sobre qué fabricantes y sus medios de facilitación no están ahora mismo disponibles, pero serán proporcionados a Cryptome cuando se descubran.
El hecho de que ciertos fabricantes de firewalls (programas cuya función es justamente evitar que intrusos entren en nuestras máquinas) estén concientemente colaborando con la agencia, es un dato importante ya que ni siquiera podemos confiar en los programas que brindan seguridad (esa seguridad que nadie espera de los productos de Micro$oft).
Imagen: ChinWong