Nuria Rodríguez Gómez

Criminóloga

Partiendo de la idea de que el ciberespacio y sus micro-entornos poseen facilitadores del delito en el ciberespacio, este estudio trata de abordar y analizar el uso que estos extremistas hacen de Internet y de las posibilidades que ofrece. Para conocer el propósito de este estudio se utiliza la base de datos que proporciona “Counter Extremism Project”, que registra a cerca de 400 sujetos implicados en grupos o en actividades extremistas. Así, se cuantifican y describen las implicaciones de estos sujetos en Internet y se evalúan cómo las características de los diferentes entornos digitales pueden facilitar la comisión de comportamientos extremistas.

La investigación refleja, en esta línea, la importancia del manager o gestor del lugar, que juega el papel de guardián capaz, como elemento clave en la detección y prevención del comportamiento extremista online.

*este post es un extracto del artículo Aproximación a las dinámicas del extremismo violento en la web 3.0. Un enfoque para el estudio de los entornos digitales y los indicadores situacionales del fenómeno

Teoría de las Actividades Cotidianas (TAC): El manager en el ciberespacio

Entre varios de los autores que defienden la posibilidad de trasladar la TAC al ciberespacio (Yar, 2005; Bossler y Holt, 2009; Miró-Llinares, 2012), Grabosky (2001) señala acertadamente que «uno de los principios básicos de la criminología sostiene que el crimen se explica por tres factores: motivación, oportunidad y la ausencia de un guardián capaz. Esta explicación puede aplicarse a un incidente individual, así como a las tendencias a largo plazo. Derivada la teoría de las actividades cotidianas inicialmente para explicar la delincuencia convencional “de la calle”, es igualmente aplicable a los delitos en el ciberespacio.»

De hecho, sabemos que los elementos que Cohen y Felson (1979) indican como aquellos que, cuando convergen, dan como resultado un hecho delictivo son: un agresor motivado, un objetivo adecuado y la ausencia de un guardián capaz. A pesar de que, por motivos de espacio, no se hará hincapié en la definición que hacen los autores de cada uno de los elementos, sí se indicará en las próximas líneas la figura que para el presente estudio cobra particular relevancia, especialmente para dar explicación – y potenciales soluciones- al fenómeno del extremismo violento en el ciberespacio: el guardián capaz en el ciberespacio.

Si bien Miró Llinares (2012) puntualiza las dificultades del guardián como figura de control en el ciberespacio, quien señala algunos elementos que, aplicados a según qué tipo de cibercrímenes, pueden ejercer algún tipo de control, bien sea formal o informal (cortafuegos, control parental), se hacen más o menos efectivos en función no sólo del tipo de ciberdelito, sino también del entorno virtual en el que se encuentre.

Esto se refiere a que, del mismo modo que en el espacio físico existen lugares con diferentes características que se definen y frecuentan por horarios, tipo de actividad, localización, etc, y que en función de los mismos se producen -o no- determinados tipos de delitos y en determinados momentos del día, en el ciberespacio ocurre el crimen de forma similar, aunque salvando algunas diferencias que, lejos de ofrecer más seguridad, aportan más elementos para hacer del ciberespacio un lugar ideal para la comisión de delitos. Esto indica Miró-Llinares (2012) cuando se refiere al ciberespacio como un lugar donde el anonimato, la reducción de las fronteras espacio-temporales, sumado a la aparente desregulación hacen del ciberespacio un lugar ideal para el delito.

Guardián capaz en el ciberespacio

Para comprender la figura del manager o gestor del lugar virtual como agente que actúa en calidad de guardián potencialmente capaz, se hace necesario, en primera instancia, apuntar la dificultad que entraña el guardián capaz en el ciberespacio como agente interviniente en la ecuación del (ciber)crimen. En la línea de esta idea, es habitual centrar los mecanismos de capacitación del guardián en el ciberespacio sobre la disminución de la adecuación de la víctima o el objeto. Esto es, algunos autores (Choi, 2008; Yucedal, 2010) hablan de centrar los mecanismos de defensa en la dotación de la víctima u objeto de mecanismos de protección que reduzcan sus posibilidades de ser atacados, a través, por ejemplo, de antivirus o cortafuegos. Otros autores, sin embargo, aseguran que el guardián capaz debe actuar como agente externo, sobre el cuál la víctima no tenga control. A este respecto Miró-Llinares (2012) expone que, en cualquier caso, y siendo fieles a la idea de la TAC implantada por Cohen y Felson (1979), el guardián capaz es un agente generalmente cercano a la víctima, pero en ningún caso “parte de ella”. Desde esta última perspectiva se plantea en el presente trabajo la figura de guardián capaz que, lejos de formar parte del objeto o la víctima, actúa como agente independiente para prevenir la ecuación del crimen.

Debe ser así, especialmente centrando este planteamiento sobre el extremismo violento en el ciberespacio, pues se hace difícil imaginar un mecanismo que la propia víctima pudiera poner a su propia disposición para evitar ser víctima de un contenido extremista. Sin embargo, sí es esto posible, en cierta medida, con las últimas actualizaciones desarrolladas por Facebook o Twitter, las cuales han creado “filtros de calidad” o “filtro anti-groserías”, mediante los cuales la víctima puede añadir palabras o expresiones clave para evitar que aparezcan en su muro o timeline cualquier publicación que contenga la palabra vetada. Esto puede ser visto como una forma de evitar ser víctima de contenido extremista o de odio, sin embargo, a mi juicio, se plantea más bien como una forma de evitar que la víctima sea conocedora de su estado de victimización, pues la publicación no desaparece, sino que para la víctima, simplemente, se hace invisible.

Dejando a un lado esta discusión, en los últimos meses se han creado mecanismos que actúan como guardianes formales al respecto del contenido violento en Internet. En este sentido, ha habido un alarmante aumento del uso de redes sociales para la proyección de asesinatos o suicidios en tiempo real, lo cual ha obligado a gestores web a ponerse serios con la censura de determinados contenidos. Actualmente, las grandes plataformas como Twitter y Facebook cuentan con un equipo de controladores de contenido que, bajo unos criterios establecidos, deben censurar o no aquellos contenidos que rocen los límites de la moral. Al margen de las problemáticas que esto puede suponer para la libertad de expresión, están resultando muy efectivos a la hora de censurar contenido sensible, y esto claramente repercute sobre las expresiones de enaltecimiento del terrorismo, la propaganda terrorista, o el discurso del odio.

Estos controladores de contenido actúan, de este modo, como guardianes capaces en el ciberespacio, evitando que determinados contenidos sean difundidos masivamente, pues se hace prácticamente imposible controlar que sean publicados contando con herramientas que basan su funcionalidad en la publicación de vídeos en directo, como Periscope o Facebook Live. Sin embargo son capaces de evitar la difusión de tales contenidos, y eso ya resulta un paso muy avanzado en materia de detección temprana.

De otro lado, estas plataformas también están luchando duramente contra el anonimato. De este modo, Twitter lanzó en una de sus últimas actualizaciones un bloqueo masivo de las cuentas que no tuviesen foto de perfil. Facebook, por su parte, lucha a diario contra los usuarios cuyas identidades no cumplen un patrón de nombre real, aunque esta medida causa más bien un problema para empresas o instituciones con perfiles en Facebook que a sujetos que abren cuentas falsas utilizando nombres reales, pero no los suyos.

De esta manera, todos estos mecanismos que están siendo creados en los últimos meses actúan como elementos que capacitan al guardián en el ciberespacio, dotándoles de herramientas para controlar y supervisar no sólo contenidos, sino también personas.

Deja un comentario