Desde la aparición del ser humano sobre la tierra, existe evidencia de su afán por compartir información con sus pares, en primera instancia a través de rústicos jeroglíficos en las cuevas y más tarde, mediante el lenguaje hablado. Fue pasando el tiempo y se inventó la escritura, dando origen a los primeros documentos, libros y compilaciones de datos. Siglos después y junto a la invención de la imprenta, los panfletos fueron la herramienta preferida por grandes líderes para difundir ideologías, más tarde derivando en la creación de los periódicos y revistas. Nacen los medios de comunicación tradicionales. Décadas después, se suma la televisión a este fenómeno.
Luego, Internet y la World Wide Web hacen su aparición, masificándose en la década de los ’90 y ofreciendo el canal de transmisión de datos más impresionante que ha visto la historia de la humanidad, sirviendo para el intercambio de toda clase de medios digitales que incluyen texto, audio, video y aplicaciones. Y ocurre lo natural: en forma gratuita se comienzan a distribuir contenidos protegidos por derechos de autor, con los usuarios utilizando diversos métodos para lograr una descarga que según las leyes, es ilegal.
Una serie de fenómenos comenzaron a ocurrir desde aquel día hasta la actualidad, con diversos intereses económicos preocupados de echar abajo las plataformas de distribución de datos en la red, confundiendo la fiscalización para evitar robos intelectuales con la censura a la libertad de comunicación vía Internet, siendo el caso de Megaupload uno de los más emblemáticos en la última década, servicio que almacenaba en sus servidores cualquier cosa que una persona externa quisiera alojar y que fue clausurado por el FBI de Estados Unidos.
Pero el servicio volverá en gloria y majestad según prometió Kim Dotcom, el día 19 de enero de 2013, renombrado simplemente como “Mega” (mega.co.nz) y utilizando un inteligente método para evitar ser víctima de acusaciones legales en el futuro. Porque Internet es así, es un medio de comunicación que no se puede bloquear. Tal y como la impresión en papel o el sonido de la voz: la red es un canal para transferir información que no puede echarse abajo. Y de la misma forma que dos personas pueden susurrar a escondidas o pasarse un papel por debajo de la mesa incluso si están siendo vigilados, en Internet existen métodos aún más inteligentes para lograr la ansiada libertad de comunicación y transmisión.
La revolución del P2P y BitTorrent
Durante los primeros días de Internet, la forma común de compartir archivos era a través de un único servidor privado FTP, al que su dueño le podía dar acceso a quien deseara a través de un usuario y contraseña. Pero esto planteaba problemas cuando muchas personas deseaban bajar algo del mismo lugar, siendo un sistema poco adecuado para compartir contenido a gran escala, ya que el dueño del FTP debía correr con los gastos y el ancho de banda de su servidor, siendo el único proveedor de ese fichero para todo el mundo.
A raíz de aquello es que se idearon las redes P2P o peer-to-peer, pensadas para crear una conexión entre pares donde no existe un servidor central que gestiona todo, sino que cada participante de la red está en igualdad de condiciones para enviar y recibir datos a otro. Como es de suponer, esta red se coloca sobre otra más grande como es Internet, haciéndose de uso masivo y mejorando el funcionamiento del sistema colaborativo en poco tiempo, convirtiéndose en una herramienta imperdible para acceder a audio, video y software entre los consumidores generales.
Acto seguido, el año 2001 nace el protocolo BitTorrent, el que soluciona uno de los pocos problemas presentes en la tecnología P2P: hasta ese momento, cuando alguien se conectaba a la red y descargaba algo, lo hacía tomando como fuente a un único usuario y se dependía de su disponibilidad de ancho de banda para determinar qué tan velozmente uno conseguía la información, basándose en la buena voluntad de la fuente, incluso si el mismo archivo lo tenían varias personas en la red. Así, BitTorrent toma múltiples fuentes para que una sola persona descargue algo, con cada contribuyente aportando un trozo del archivo final, en definitiva acelerando el proceso. Lo único que debe hacer el usuario es descargar un archivo de formato .torrent que contiene la información del fichero final junto a las fuentes que tomará, no conteniendo en sí mismo lo que se quiere bajar, pues de hecho, generalmente un .torrent tiene un tamaño bastante pequeño.
Comienza la persecusión a los sitios indexadores
(cc) chroniclelive.co.uk
Cuando esta tecnología se masificó, las autoridades se preocuparon ya que efectivamente se estaban distribuyendo contenidos protegidos por derechos de autor, sin embargo, no existía un ente central a quien acusar de lo que según la ley es un crimen –sea cuestionable o no–, por lo que se apuntaron las armas hacia los sitios de Internet que reunían los catálogos para ordenar, clasificar y hacer disponibles a los usuarios del planeta los archivos .torrent.
Y literalmente se apuntaron armas, ya que en mayo de 2006 se produjo un suceso emblemático que pondría las primeras voces de alerta acerca de una persecución indiscriminada por parte de las autoridades: dependencias pertenecientes al portal The Pirate Bay fueron allanadas por la policía de Estocolmo, Suecia, con los afectados clamando que la acción había sido motivada por Estados Unidos y la Motion Picture Association of America (MPAA), entidad que representa a los seis estudios más grandes de Hollywood.
La caída de MegaUpload
Al extremo derecho, Kim Dotcom durante su arresto junto al equipo de Megaupload.
Paralelo a esto y a raíz de lo contingente que estaba el tema de la protección a los derechos de autor para obras digitales, las miradas ahora cayeron sobre otra clase de servicios en Internet: los sistemas de alojamiento de datos. Esta tecnología difiere de la utilizada en redes P2P y es más cercana al principio de los tiempos, cuando se utilizaban servidores FTP únicos. En este caso, y conforme la disponibilidad técnica fue aumentando con más capacidad de almacenamiento, poder de cálculo y ancho de banda disponible en el mercado, fue posible la creación de empresas como MegaUpload, quienes ponían un gran número de máquinas servidores para permitir a los usuarios enviar sus archivos a ellas, haciéndolos disponibles al público a través de un sencillo vínculo o link de descarga directa. Era el FTP en su máxima expresión.
Pero a diferencia del P2P, en MegaUpload sí hay un ente central a quien perseguir y de hecho, éste tiene nombre, apellido y hasta seudónimo: Kim Schmitz, más conocido como Kim Dotcom. Y pasó lo que tenía que pasar. Con la euforia de las autoridades norteamericanas, el día 19 de enero del año 2012 el Departamento de Justicia de Estados Unidos cerró el portal, estableciendo cargos criminales contra el fundador y algunos de sus empleados, por requerimiento del FBI en un acto que ocurrió en tierras de Nueva Zelanda y que para muchos analistas, se trató de algo ilegal por parte de los gobiernos involucrados.
Una nueva esperanza
La persecución a los sitios indexadores de archivos .torrent dio inicio a un período de años difíciles para la comunidad en Internet, ya que se desestabilizaron sistemas centrales como The Pirate Bay y otros como BTjunkie y Demonoid, existiendo un miedo entre los administradores de estos portales por tener un día cualquiera a la policía en la puerta de su hogar. A esto se sumó la caída de MegaUpload y la dificultad de mantener arriba servicios que utilizan el mismo sistema, haciendo más complicado al usuario poco instruido en informática el encontrar los archivos de su interés.
Sin embargo, diversas redes P2P y otras fuentes de archivos .torrent siguen vivas y si bien es más difícil que antes encontrarlas, se ve casi imposible que las autoridades logren apagarlas por completo, ya que por la naturaleza de la tecnología P2P al ser una amplia red de muchos usuarios. Echarla abajo sería tan difícil como hacer caer la Internet misma, que dicho sea de paso, destina entre un 45% y un 78% de sus recursos a atender sólo la necesidades de las redes P2P.
Por otro flanco, Kim Dotcom logró salir poco dañado de su revuelta con el Gobierno de Estados Unidos, por lo que prometió una suerte de “venganza” a través de la apertura de un renovado MegaUpload, servicio que ahora ha sido renombrado simplemente como “Mega” y que hará su estreno exactamente a un año del incidente sufrido el año pasado: el día 19 de enero de 2013, bajo la dirección URL mega.co.nz
¿Pero qué diferencia a Megaupload de Mega? Y más importante aún, ¿cómo evitará Kim Dotcom que la policía se lo vuelva a llevar?
El nuevo sistema de encriptado de Mega
En esencia, MegaUpload era un repositorio de datos donde los archivos tangibles sí eran almacenados de manera íntegra en los discos duros de Kim Dotcom, siendo extremadamente fáciles de reconocer. Es por esto que la policía pudo demostrar fácilmente que habían documentos protegidos por derechos de autor en los servidores, los que a pesar de haber sido creados por usuarios alrededor del mundo, eran alojados por MegaUpload.
Para evitar aquello, pero ofreciendo la misma clase de servicio de descarga directa centralizada a las personas, es que se pensó en un nuevo modelo de alojamiento basado en el cifrado o encriptación de datos. La idea es que cuando alguien desee subir un archivo a los servidores de Mega, éste será cifrado en clave AES en el navegador web del usuario, es decir, se transformará su formato original a un fichero completamente ilegible e irreconocible, por lo que en rigor Mega no almacenará nada más que garabatos sin sentido en sus discos duros. Para reestablecer estos archivos y volverlos legibles será necesario tener una “llave” de acceso para descifrar el código AES, la que estará en posesión del usuario que subió el archivo y éste será quien decida con quién compartir la llave, no estando en manos de Kim Dotcom y su sistema, por lo que por segunda vez, ellos no estarán haciendo nada malo.
Además, no habrá duplicación de datos, pues antes si dos personas subían el mismo archivo, éste en realidad existía sólo una vez y todos los interesados accedían al mismo. Pero ahora si veinte personas suben veinte veces lo mismo, ésto se encriptará veinte veces y se generará igual número de llaves distintas, por lo que será muy difícil para entidades como la MPAA identificar veinte infracciones y enviar veinte solicitudes legales a la policía.
Así, en rigor legal Mega no hará más que encriptar y almacenar cosas encriptadas, ni siquiera teniendo el poder de descifrar lo que ellos mismos guardan, ya que no estarán en posesión de ninguna llave y por lo tanto, será casi imposible demandarlos o acusarlos de algún crimen, a menos que encriptar datos sea considerado una violación a la ley, lo cual no tiene sentido.
Mapa de Internet.
Con esto, una vez más las técnicas de la informática demuestran que Internet es un animal indomable, apareciendo siempre nuevas ideas para compartir archivos de maneras muy ingeniosas y efectivas, esta vez con el desafío al frente de tener que sortear los embates de una industria de entretenimiento que dice ver afectado su patrimonio a raíz de la red, pero que sin embargo no ha sabido adaptarse a los nuevos tiempos para utilizar las nuevas tecnologías a su favor, recurriendo a las leyes y policía en su lugar. Ya veremos hasta cuándo.