jueves, 31 de octubre de 2019

John Etchemendy: “La tecnología tiene un enorme potencial para hacer daño”

Nieto de un pastor navarro emigrado a Nevada el siglo pasado, el filósofo John Etchemendy fue hasta 2017 el rector de la Universidad de Stanford. Ahora esa institución le ha encargado un reto apasionante: evitar que los seres humanos desarrollemos la inteligencia artificial de forma tan negligente que un día los robots puedan convertirse en nuestros peores enemigos. Esa posibilidad ya tiene hoy algunos ejemplos.
tecnologia peligrosa John Etchemendy
John Etchemendy. 

JOHN ETCHEMENDY no es el tipo de personaje que uno espera encontrarse en Silicon Valley. Se trata de un veterano de la labor académica, que ha dedicado toda su vida a la reflexión y el análisis. Es un humanista más interesado en el pensamiento que en la acción. Su especialidad es el lenguaje, sus orígenes y sus complicados laberintos para la expresión de ideas. Su vínculo con la Universidad de Stanford se remonta a 1982, cuando obtuvo allí su graduación como filósofo, y culminó en el año 2000 con su nombramiento como rector, cargo que ocupó hasta 2017.
Su actividad en Stanford, el centro que actúa como sostén intelectual de toda la revolución tecnológica que se ha producido en las últimas décadas en la zona, le permitió familiarizarse con las figuras y las innovaciones que continuamente surgían a su alrededor. Pero nunca perdió la referencia de sus auténticas pasiones académicas ni disminuyó su inclinación por cuestionar cualquier ortodoxia imperante. Su libro más famoso, The Concept of Logical Consequence (El concepto de la consecuencia lógica), está considerado por los expertos como una obra maestra que desafía la lógica impuesta durante siglos sobre la construcción del lenguaje y la ordenación del pensamiento.
Antes de abandonar su función como rector decidió, también a contracorriente, responder a lo que considera una ola de intolerancia cultural que está actualmente amenazando la libertad y la creación en las universidades de Estados Unidos y quizá de todo el mundo. “He visto un crecimiento de la intolerancia en las universidades de este país. No hablo de intolerancia por razones de raza, de etnia o de sexo —en esos apartados, precisamente, se ha hecho un progreso muy loable—. Me refiero a una intolerancia intelectual, a una imposición política de un solo lado, que es la antítesis de lo que una universidad debe hacer”, advertía Etchemendy a los miembros del Patronato de Stanford.
En su discurso de despedida recordó: “Como institución, somos continuamente presionados por las Facultades y por los estudiantes para tomar posiciones políticas, y cada vez que nos negamos a hacerlo se nos acusa de falta de coraje. En las universidades, hoy, lo más fácil es sucumbir a esa presión. Lo que realmente requiere coraje es resistirla”. Pidió a su universidad “no descartar los puntos de vista distintos como si fueran malvados, ignorantes o estúpidos”, sino, al contrario, convertirlos en “interlocutores valiosos”. “Sucumbimos al pensamiento único porque es más fácil y más cómodo que el pensamiento racional, pero cuando lo hacemos estamos abandonando la misión a la que una institución como esta debe servir”.
John Etchemendy.
John Etchemendy. 
Su historia personal tampoco es muy común. Etchemendy, como su nombre revela, tiene raíces vascas. Es el nieto de un pastor emigrado desde el norte de Navarra a Nevada a principios del siglo pasado. Nevada, junto a Idaho, es el Estado que reúne la mayor concentración de norteamericanos de ese origen. Él habla con orgullo de sus antepasados e incluso puso en marcha durante algunos años un centro de estudios vascos en Stanford, del que se sirvió en su día el lendakari Iba­rretxe para contar su proyecto independentista en Estados Unidos. Etchemendy no parece ahora muy interesado en los asuntos españoles; ni siquiera se atreve a usar en público el español que aprendió durante unos años de juventud en Puerto Rico.
Su preocupación ahora, a los 67 años, está muy lejos de todo eso, muy lejos incluso de sus recientes obligaciones universitarias y pasiones intelectuales. Su ocupación hoy, dicho en términos elementales pero que Etchemendy acepta y comparte, es evitar que desarrollemos la inteligencia artificial de forma tan negligente que un día los robots puedan convertirse en nuestros peores enemigos.
Sí, suena improbable, y lo es, por el momento. Pero la Universidad de Stanford y parte de la industria perciben ya riesgos suficientes como para reunir a un grupo de expertos que velarán por el buen uso de la inteligencia artificial y tratarán de definir las reglas adecuadas.
La inteligencia artificial es desde hace tiempo el gran asunto en Silicon Valley. También es la gran apuesta y la gran inversión. No hay empresa relevante en el entorno que no esté implicada en algún proyecto que tenga que ver con esa materia. Todo el mundo está convencido de que la inteligencia artificial, que ya es una parte importante de nuestra vida, intervendrá en prácticamente todas las actividades humanas en poco tiempo y suplantará muchas de ellas antes de lo que creemos.
Ante esa convicción, unida a la preocupación sobre los efectos que esa revolución está teniendo y tendrá para la humanidad, para el mundo que hemos conocido y conocemos, Stanford encargó en marzo a Etchemendy y a una reconocida pionera tecnológica, Fei-Fei Li, antigua vicepresidenta de Google, dirigir un grupo de trabajo que debe iluminarnos a todos sobre las virtudes y amenazas de la inteligencia artificial.
El centro creado tiene un nombre largo que explica muy bien su misión: Instituto para la Inteligencia Artificial Centrada en los Humanos. Se le conoce como HAI, por la abreviación de sus siglas en inglés; estará dotado con un presupuesto de 1.000 millones de dólares y cuenta con un consejo asesor del que forman parte, entre otros, el fundador de LinkedIn, Reid Hoffman; el antiguo presidente de Google, Eric Schmidt, y la antigua jefa de Yahoo, Marissa Mayer. Otros reconocidos inversores, empresarios y talentos, entre ellos Bill Gates, apoyan la iniciativa y le darán respaldo y cobertura.
El objetivo es generar debates y estudios que no estén monopolizados por los técnicos, y que ostenten autoridad académica y política suficiente para dictar la ley en el desarrollo de la inteligencia artificial. Stanford, que ha destinado un gran edificio a este instituto, es su sede inevitable. Junto al MIT y Carnegie Mellon, Stanford representa la vanguardia en innovación tecnológica y, específicamente, en inteligencia artificial. El término mismo fue acuñado por John McCarthy, en 1955, en un laboratorio de Stanford.
“La inteligencia artificial ha provocado preguntas que tienen que ser contestadas por los economistas, por los filósofos, por los expertos en leyes”
Ahora, muchos años después, parece necesario sacar la inteligencia artificial de las manos de los ingenieros y los técnicos. Es que el terreno de la inteligencia artificial ya no es solamente un espacio para la tecnología y la ciencia de computadores; es un terreno que abarca absolutamente todas las disciplinas intelectuales. Por eso creemos que en esta universidad tenemos una particular responsabilidad con la sociedad. Stanford es una universidad muy extensa: tenemos siete escuelas, todas muy fuertes, y existen muchas conexiones entre ellas. La inteligencia artificial ha despertado dudas, provocado preguntas a las que no pueden responder únicamente los científicos de computadoras, los ingenieros y programadores, sino que tienen que ser contestadas por los economistas, por los filósofos, por los expertos en leyes… Nosotros sentimos que tenemos la obligación de tratar de responder a esas preguntas, tenemos una larga tradición en esa área y por eso hemos decidido crear un gran instituto como este.
¿Y qué hace un filósofo en una aventura como esta? Efectivamente, soy un filósofo. Pero también soy un lógico [esa es su especialidad]. Y la lógica es la más técnica de todas las disciplinas filosóficas. Yo he estado de alguna forma vinculado a la inteligencia artificial prácticamente desde que empecé mi actividad académica, en 1978. He asistido al desarrollo de ese sector. Yo no hago inteligencia artificial, pero la he visto crecer. Yo acepto la tecnología como una extraordinaria promesa, como una gran fuente de producción de beneficios para todos los individuos del planeta si la aplicamos de la forma correcta, si la aplicamos para solucionar los problemas adecuados. Al mismo tiempo, tiene un enorme potencial para hacer daño, bien sea de manera intencionada o accidental. Ya existen casos en los que ciertos sistemas de inteligencia artificial han sido creados de forma discriminatoria contra un determinado grupo social, y de ahí han partido decisiones discriminatorias sobre, por ejemplo, quién puede tener acceso a un crédito y quién no.
¿A qué se refiere? Es muy simple para el empleado de un banco decirle a una familia: no les doy un crédito porque mi computadora me ha dicho que no se lo dé. Cada vez que usemos el data de forma discriminatoria, por cualquier razón, provocará medidas concretas que mostrarán esa discriminación y que perjudicarán o agravarán la situación de un determinado segmento de la población. Los datos pueden ser tan discriminatorios como el ser humano que los usa, pero con el agravante de que toda esta aura, toda esta admiración ciega por la tecnología, nos hace pensar que las decisiones que toma un computador son muchos más fiables que las que toma un individuo. Eso es un gran peligro.
Y supongo que eso es solo un ejemplo de peligros aún mayores. Claro. Hay tecnología muy poderosa, como la tecnología nuclear, la biotecnología, que todos sabemos que puede ser utilizada para el bien, pero también para el mal. Nuestro instituto está dedicado a intentar que el lado bueno prevalezca sobre el lado malo.
“Creímos que teníamos derecho a utilizar la tecnología de forma anónima. Y eso ha llevado a todo este mundo de trols, odio y acoso que vemos en Internet”
¿Nos estamos deshumanizando? ¿Puede la inteligencia artificial destruir las cualidades que nos definen como seres humanos? Existe ese peligro, en efecto. No solo en relación con la inteligencia artificial. También existe ese peligro en relación con la tecnología de la comunicación. Internet y las redes sociales son buenos ejemplos de tecnologías que cuando las creamos no éramos conscientes de los malos usos que podrían tener o de las malas consecuencias que podían traer. Por poner un ejemplo: en un comienzo creíamos que, por supuesto, teníamos el derecho a utilizar la tecnología de forma anónima. Se tomó la decisión colectiva de que tendríamos el derecho a comentar cualquier cosa sin necesidad de identificarnos. Y eso ha conducido a todo este mundo de trols, odio y acoso que vemos en Internet. Ese es un ejemplo de cómo la tecnología tiene la capacidad de dividirnos y enfrentarnos como sociedad de muchas formas. Ahora, la inteligencia artificial puede resolver eso o puede agravarlo. Yo creo que más bien puede agravarlo. De hecho, los robots en las redes sociales están haciendo ya un enorme daño. Lo que tenemos que hacer es que la tecnología sea ahora capaz de combatir ese mismo problema que ha creado, que sea capaz de identificar los robots que están haciendo ese daño y que la propia tecnología sea capaz de detenerlos.
¿Cuánto falta para que nos veamos rodeados de robots como los de las películas? Robots como los de las pe­lículas están todavía muy, muy lejos. La gente que trabaja en inteligencia artificial o que observa y analiza la inteligencia artificial siempre ha infravalorado las dificultades de dar el siguiente paso. Pasar de donde estamos ahora a algo que se parezca a los robots que vemos en las películas supondrá décadas. Previamente tenemos que decidir si queremos llegar a ellos. Podemos conseguir enormes beneficios de la inteligencia artificial sin tener que recrear jamás un modelo de inteligencia artificial similar a un ser humano. No es necesario. Tenemos un planeta lleno de seres humanos: ¿para qué queremos crear seres humanos artificiales? El objetivo se supone que es crear artefactos que nos permitan vivir mejor, que ayuden a los humanos de diferentes formas, a cumplir diferentes tareas.
John Etchemendy, en el patio principal de la Universidad de Stanford, el día de la entrevista.
John Etchemendy, en el patio principal de la Universidad de Stanford, el día de la entrevista. 
¿Pueden los robots llegar a tomar el poder? [Repite lentamente: “¿Pueden los robos tomar el poder?”.] Si lo hacen, será porque nosotros hemos hecho algo muy estúpido. Y espero que podamos prevenir eso, espero que seamos lo suficientemente inteligentes en el desarrollo de esa tecnología como para evitar ese futuro posible.
En cierto modo ya lo han hecho, ya dirigen nuestras vidas de forma muy significativa, ¿no cree? Es verdad, están tomando cierto control sobre nuestras vidas, pero no el poder. Los móviles se han hecho muy adictivos, y ese es otro ejemplo de los riesgos que no tuvimos en cuenta cuando se desarrolló esa tecnología. La persona que diseñó el iPhone [Scott Forstall] fue un alumno mío. Me consta que nunca previó lo importante que ese instrumento llegaría a ser en la vida de las personas. Estaba orgulloso, sabía que era un gran producto. Lo desarrolló de una forma muy secreta. Tanto que solía contar que después, una vez puesto a la venta, cada vez que veía a una persona con un iPhone, él todavía se preguntaba: “¡Dios mío, ¿cómo lo ha conseguido?!”. En Apple sabían que tenían un gran producto, un artefacto capaz de realizar varias funciones. Si recuerdan la presentación de Steve Jobs, dijo que el iPhone podría hacer tres cosas: servir como un teléfono, dar acceso a Internet y reproducir música. Pero la verdad ha sido que esto [señala al iPhone que graba la entrevista] no hace tres cosas, esto hace infinidad de cosas, ¡y se ha convertido en una parte tan importante en nuestras vidas…! Estoy convencido de que nadie anticipó eso.
¿Cuáles son los peligros de la inteligencia artificial directamente relacionados con la actividad política? Obviamente, existe una preocupación sobre la forma en que la inteligencia artificial ha afectado y puede afectar quizás en ciertas campañas electorales. Quizás. De lo que estoy completamente convencido es de que es extremadamente importante que los políticos entiendan la tecnología mucho mejor de lo que la entienden ahora, de tal forma que puedan tomar medidas importantes, las leyes adecuadas; no hablo de leyes intrusivas, pero sí de leyes que guíen la tecnología por el buen camino y no por el malo. Esta es una de las funciones que quiere tener nuestra institución: quiere ayudar a educar a la clase política, quiere promover políticas que son esenciales para que todo esto salga bien. El gobernador de California [Gavin Newson] estuvo con nosotros recientemente. Obviamente, California, donde gran parte de esta tecnología se desarrolla, está muy preocupada por las consecuencias de todo esto, por su impacto en el mercado de trabajo, y él nos pidió: “Por favor, asegúrense de que el impacto de esto no resulte devastador para la población de California”.
¿Y qué le contestaron? ¿Qué se puede hacer? No creemos que tengamos parte ni mucho menos la totalidad de las respuestas para las dudas que está planteando la inteligencia artificial. A lo que nos hemos comprometido es a poner en marcha un proceso que permita resolver adecuadamente los problemas y elaborar políticas correctas. Lo que podemos hacer como universidad, y como una universidad situada donde está situada Stanford, es juntar a todos los involucrados en y por la inteligencia artificial: industria, Gobierno, países extranjeros, universidades… para abordar problemas y buscar las políticas adecuadas, para buscar cuál es la forma de evitar hacer daño a los negocios, a la economía, y conseguir beneficios para el conjunto de la sociedad.
¿Harán recomendaciones específicas? Sí, haremos recomendaciones específicas. Nuestra esperanza es conducir este proceso de una forma correcta y conseguir respuestas suficientes para elaborar, digamos, un libro blanco, algo que podamos sacar diciendo: así es como lo vemos. Para iluminar a los Gobiernos a tomar las medidas que permitan aprovechar los beneficios de la inteligencia artificial sin sufrir sus consecuencias negativas. 

Geena Davis lamenta que ‘Thelma & Louise’ no mejorara la situación de la mujer en el cine

La fundación de la actriz ha publicado un estudio que destaca la baja presencia de protagonistas femeninas y cómo los estereotipos definen a sus personajes

En el vídeo, Geena Davis, en el Festival de Cine de Deauville

Una actriz tiene cuatro veces más de probabilidades de aparecer completamente desnuda en una película que un actor. Una actriz interpreta más veces a un personaje que sufre ataques verbales (un 11% más) o acoso sexual (un 4% más) que un actor. Y ellas tienen la mitad de frases que ellos. Esta situación es la que ha denunciado Geena Davis Institute on Gender in Media (El Instituto de Geena Davis sobre Género en los Medios), junto a la ONG Plan Internacional, en su último estudio, Rewrite her story (Reescribe su historia). El documento, publicado la semana pasada, compara los personajes masculinos y femeninos en 56 películas estrenadas en 2018 en 20 países, como Estados Unidos, Alemania, Perú o Sierra Leona.
Geena Davis, actriz y activista, fundó esta organización en 2004 para investigar la presencia de la mujer en los medios de comunicación, la publicidad y el cine, y así mostrar la desigualdad entre hombres y mujeres. La artista ha explicado al periódico The Guardian que no existen "suficientes modelos femeninos a seguir que inspiren un cambio", pues el 33% de los protagonistas son mujeres frente al 67% que son hombres. Los roles masculinos que tienen posiciones de liderazgo se presentan como más efectivos y respetados que cuando los interpreta una mujer.
La actriz ha lamentado "el poco progreso que se ha conseguido". Ella tuvo la corazonada —inspirada en parte por la prensa— de que Thelma & Louise, película estrenada en 1991 y por la que fue nominada al Oscar, cambiaría las cosas, que las mujeres dejasen de ser vistas como meros objetos sexuales. Un año después pensó lo mismo con Ellas dan el golpe, un largometraje sobre la primera liga de béisbol de mujeres, pero el interés por el deporte femenino continúa muy lejos de la afición por el masculino. "Desde hace unos 25 años han salido películas con las que la gente ha dicho 'Esto cambiará las cosas'. Pero no lo hicieron", ha comentado Davis.
Por ello, considera que es esencial concienciar a los medios de la influencia que tienen sobre las personas, especialmente sobre las niñas, debido a que siguen exhibiendo una serie de estereotipos que agravan la desigualdad de género. La actriz insiste en que se puede trabajar en ello: "Conocemos muchos ejemplos de imágenes en los medios que pueden ser increíblemente poderosas y positivas, pero esto se consigue si se molestan en trabajar en ello".
El estudio también advierte de la discriminación racial que hay dentro de la industria. La mitad de las protagonistas eran blancas y el resto se repartía entre negras, latinas, asiáticas e indias. Ninguna era de origen árabe. Además, solo un personaje era bisexual. 
Aparte de la desigualdad entre actrices y actores, las mujeres sufren discriminación en otros cargos. En 2018, ellas representaron el 20% del conjunto de todos los directores, guionistas y productores, un 2% más que el año anterior. Pero el número de directoras ha descendido un 3% respecto a 2017, habiendo solo un 8% entre las películas más taquilleras. Sin contar a las actrices, solo el 1% de las películas contrataron a diez o más mujeres.
Davis ya criticó la situación de las mujeres que trabajan detrás de las cámaras este mismo mes en el Festival de Cine de Deauville, en Francia. “Creo que escuché que en Francia hay un 24% de directoras y en Estados Unidos solo el 4%. Quiero decir, 24% tampoco es suficiente, pero 4% es una vergüenza”, declaró la actriz durante la promoción de su documental This Changes Everything, que muestra entrevistas con actrices como Meryl Streep, Reese Witherspoon, Jessica Chastain y Tiffany Haddish.
El estudio elaborado por su organización también destaca que las producciones protagonizadas por hombres recaudaron más: 387 millones de dólares (más de 355 millones de euros) en comparación con los 253 millones (más de 232 millones de euros) que consiguieron las películas con protagonistas femeninas. No obstante, el dato cambia cuando el largometraje lo lideran tanto un hombre como una mujer: 764 millones de dólares (más de 700 millones de euros). Un dato positivo que suma al hecho de que los roles femeninos se caracterizan por ser más trabajadores e inteligentes. 
La intérprete ha defendido el movimiento #MeToo, que ha ayudado a las mujeres a denunciar hechos de violencia sexual y reveló la prevalencia del acoso sexual y los ataques contra las mujeres en todo el mundo. David confesó que en sus comienzos se las desalentaba a las actrices a contar lo que les pasaba advirtiéndoles de que siempre habría alguien dispuesto a asumir sus papeles: "Te decían que siempre habría una actriz más barata o lo que sea...pero no solo con las agresiones sexuales, en general, con todo tipo de discriminación".

¿Su bebé suda mucho? Entonces preste atención

 

Hay algunos bebés que sudan más que otros, en la mayor parte de los casos este aumento de la sudoración aumenta mientras duermen, ya que el cuerpo libera el exceso de energía que deja de ser necesaria durante el sueño, en forma de calor provocando el sudor.

Lea también : ¿Mal olor en el entrepiernas? Aplica estos fáciles trucos caseros para eliminarlo 

Aunque muchas madres se preguntan si es normal que su bebé sude o tal vez algo malo le sucede.
¿Es normal que los bebés suden tanto?
La sudoración es la forma en la que el cuerpo regula su temperatura. Sin embargo, si observas que el sudor es demasiado o aumentó repentinamente con respecto a otros días, podría deberse a un problema de salud.
De acuerdo con la Asociación Internacional de Hiperhidrosis, algunas situaciones cotidianas pueden provocar que el bebé sude más de lo común: abrigarlo más de lo necesario o dormirlo en tus brazos (ya que al cuerpo le cuesta más eliminar el calor corporal).
Su temperatura corporal también puede aumentar debido a una cena abundante, o correr o jugar durante el día. La fiebre es otra causa del sudor abundante, por lo que es necesario tomar su temperatura e identificar su origen.
Si tu bebé suda demasiado sin motivo aparente, podría deberse a un trastorno llamado hiperhidrosis.
¿Qué es la hiperhidrosis?
la hiperhidrosis es una sudoración excesiva y anormal que puede desarrollarse en bebés, niños y adultos.
Esto ocasiona que el sudor sea abundante, aún cuando no hay un desencadenante como ejercicio físico o un aumento de temperatura en el ambiente.
Para identificar si se trata de alguno de estos problemas, hay que reconocer otros síntomas en el pequeño, como fatiga constante, piel pálida, falta de apetito y malestar en general, que puede traducirse en llanto sin motivo aparente.
Si existen este u otros signos anormales, es fundamental acudir con el pediatra para descartar cualquier otro problema de salud.
Precauciones que debes tomar si tu bebé suda mucho
El sudor abundante puede causar deshidratación en tu pequeño, para evitarlo pon en práctica estos sencillos consejos:
La ropa que utiliza
Viste a tu bebé con algodón o ropa de tejidos naturales. Evita los zapatos de goma o plástico.
El medio ambiente
No salgas con tu bebé cuando las temperaturas son muy altas. Protégelo del sol con un sombrero y con protector solar adecuado para su edad.
Alimentación
Prepárale cenas ligeras, como frutas o verduras.
Con información de Vix

Uno de los fugitivos más buscados de Europa, detenido mientras celebraba su cumpleaños en Puerto Banús

Cihan Guzel, la persona más buscada en Luxemburgo, fue arrestado el pasado sábado en Marbella


Málaga 
Cihan Guzel fugitivo
Cihan Guzel, huido de la justicia luxemburguesa, detenido el pasado fin de semana en Málaga. RTL TODAY
El belga Cihan Guzel cumplió 35 años el pasado sábado. Lo quiso festejar a lo grande. Así que se marchó a Marbella (Málaga) con varios amigos para celebrarlo. La guinda del pastel era una fiesta nocturna en un lujoso club de Puerto Banús, la zona más exclusiva de la Costa del Sol. Lo que Guzel no se podía imaginar era que la mayor sorpresa de la noche no iba a ser precisamente un regalo. A las dos y media de la madrugada, varios agentes de Policía Nacional se sumaron a la celebración. El alcohol dejó de correr. La música se silenció. Y, entre el desconcierto, los policías se lo llevaron detenido por una condena pendiente de 22 años en Luxemburgo. El cumpleaños acabó en la comisaría marbellí, con el arrestado —que portaba documentación falsa y vestía pantalón vaquero y sudadera oscura manchándose los dedos de tinta para dejar sus huellas dactilares.
Guzel era, hasta este fin de semana, el fugitivo más buscado de Luxemburgo, cuya justicia le había sentenciado a una pena de 22 años de prisión. De 182 centímetros de altura, se le consideraba “peligroso” y las autoridades policiales avisaban de que podría estar armado. Su cara y su nombre han formado parte hasta su detención de las 66 personas más buscadas de Europa. En su perfil en la web Europe’s Most Wanted, perteneciente a Europol (agencia de la Unión Europea en materia policial), se le acusa de tentativa de asesinato, robo organizado con violencia, pertenencia a organización criminal y tráfico ilícito de armas, municiones y explosivos. Sobre él recaía una Orden Europea de Detención y Entrega (OEDE) interpuesta por las autoridades luxemburguesas.
Su historia criminal arrancó otra madrugada, en este caso la del 3 abril de 2013. Con 29 años, Guzel participó en un espectacular atraco en las oficinas centrales de G4S, una empresa de seguridad y transporte de dinero ubicada en el distrito de Gasperich, al sur de Ciudad de Luxemburgo, capital del país. Para acceder al edificio, los atracadores —entre cinco y siete— que participaron en el asalto detonaron cargas explosivas en las puertas de acceso. Posteriormente, dispararon a las diferentes medidas de seguridad con armas automáticas. Pero, a pesar de los esfuerzos, no pudieron entrar al búnker donde se guardaba el dinero.
Minutos más tarde, alertados por los equipos de seguridad de la empresa, llegaron al lugar tres patrullas de policía. Fueron recibidos por ráfagas de armas automáticas cuando se encontraban a menos de cien metros de distancia del edificio. Las balas no impactaron en los vehículos policiales, pero sí en los bloques de viviendas cercanos. Posteriormente, los agentes contabilizaron 38 disparos. En ese momentos, los autores escaparon a la carrera y huyeron en dos vehículos de gran cilindrada en dirección a Bélgica.
Cuando una patrulla se cruzó con ellos, los atracadores actuaron “como un comando militar”, según explicó la policía: les tendieron una emboscada en un bosque y les dispararon “una docenas de veces” con armas automáticas. Cuando los refuerzos llegaron, los delincuentes habían huido, dejando uno de sus coches en llamas. A pesar de los esfuerzos policiales posteriores a un lado y otro de la frontera entre Luxemburgo y Bélgica, los atracadores consiguieron esfumarse.
Cihan Guzel estaba entre los huidos desde entonces. Finalmente, fue detenido junto a dos compañeros y en enero de 2018, “tras un largo juicio”, según Europol, fue sentenciado a 22 años de prisión. Pero antes de cumplir su condena, desapareció y, desde entonces, encabezaba la lista de fugitivos más buscados en Luxemburgo. Y así fue hasta el sábado pasado. Ese día la Policía Nacional malagueña recibió el aviso de que el criminal se encontraba en la Costa del Sol. Las primeras investigaciones sirvieron para averiguar que aquel día era su cumpleaños y que lo podría estar celebrando en Marbella. Así fue, aquella misma madrugada fue detenido. Quizás nunca llegó a soplar las velas. Tiempo tendrá en los 22 años de prisión que le solicita la justicia luxemburguesa.

Resucitados para el trabajo del presente

  Montañas Dolomitas, Italia. Fotografía por Charles F. Stanley Por la gracia de Dios, somos una nueva creación, hechos para buenas obras. 2...