La semana pasada vimos cómo las apps Telegram y Telegram X desaparecían de la App Store de forma inesperada. Unas horas después, se supo que se debía a que la decisión de Apple se debía a que la app había compartido contenido inadecuado entre sus usuarios. Y ahora sabemos qué tipo de contenido se trataba: pornografía infantil.
Phil Schiller aclara la desaparición de Telegram

En un email enviado por un lector de 9to5Mac, comprobado y publicado por ésta, Phil Schiller respondía a un usuario de iOS acerca de la retirada de Telegram de la App Store. El email completo y traducido se encuentra a continuación:
Las apps de Telegram fueron retiradas de la App Store porque el equipo de la App Store fue alertado de la existencia de contenido ilegal, en concreto, pornografía infantil en las apps. Después de verificar la existencia de contenido ilegal, el equipo retiró las apps de la tienda, avisó al desarrollador y notificó a las autoridades pertinentes, incluyendo la NCMEC (Centro Nacional para los Niños Desaparecidos y Explotados).
El equipo de la App Store trabajó con el desarrollador para que retiraran el contenido de las apps y expulsaran a los usuarios que publicaron este contenido horrible. Sólo después de que se verificó que el desarrollador había tomado estas acciones y puso más controles para evitar que este tipo de actividad ilegal sucediera de nuevo, las apps volvieron a la App Store.
Nunca permitiremos que se distribuya contenido ilegal a través de las apps de la App Store y tomaremos medidas inmediatas en cuanto tengamos conocimiento de actividades de este tipo. Por encima de todo, tenemos tolerancia cero sobre cualquier actividad que ponga a los niños en riesgo, siendo la pornografía infantil el caso más grave de lo que nunca debería suceder. Es malvado, ilegal e inmoral.
Espero que valores positivamente la importancia de nuestras acciones sobre no distribuir apps en la App Store cuando contienen contenido ilegal y que hayamos tomado medidas con rapidez contra cualquier app involucrada en el contenido que pone a los niños en riesgo.
Que Apple haya tomado medidas en este asunto con tanta rapidez, haya colaborado con el desarrollador para eliminar el problema y evitar que vuelva a suceder es una gran noticia. Ante casos tan graves como este, sólo cabe actuar con celeridad y sin demora sin importar quién está implicado.
Las apps de telegram volvieron a la App Store unas horas después de ser retiradas, lo cual no debe confundirse con que las apps dejaran de funcionar. Cuando Apple retira una app de su tienda, quienes ya la han descargado pueden seguir utilizándola sin problemas. De modo que esto sólo evita que nuevos usuarios la descarguen y fuerza al desarrollador a corregir el problema cuanto antes.
En Applesfera | Poca broma con el nuevo reproductor de Telegram: puede ser un auténtico servicio musical en la nube.
Ver 31 comentarios
31 comentarios
kiskillas
No entiendo. Telegram es un WhatsApp pero con un cifrado más fuerte. ¿Como descubrieron que se estaba compartiendo material ilegal? Fue entre usuarios? Había algo dentro del código del programa?
No entiendo como han podido “verificar la existencia de contenido ilegal” en un programa de mensajería... Pero si retiraran todas las apps desde las que se puede compartir este tipo de contenidos, no quedaría ninguna en pie. Mail, Safari, fotos... todas.
Lo que hay que perseguir es el mal uso por parte de algunos usuarios, no las apps.
marty.mexico
Que raro... Justo la semana pasada escuchaba a un podcaster mexicano decir que había sido “baneado” de WhatsApp por haber compartido una grabación personal de un fragmento de canción de un concierto al que había asistido. Sabía que ese era el motivo porque incluso recibió mensaje del equipo de la app... ¿Cómo se enteran que compartimos? ¿No se supone que nadie puede husmear en nuestras conversaciones? Que raro...
Saludos.
sundancekid
Puede ser que la traduccion sea mala o que yo este entendiendo de más, pero lo que dice Phil Schiller es que habia pornografía infantil en la app. Entiendo que en la propia app, no en lo que se comparta utilizandola por millones de personas, es decir que estaría dentro de ella, tal vez alguna foto en el archivo de recursos de la app, o algo parecido, algun enlace a una web,...
oletros
" no distribuir apps en la App Store cuando contienen contenido ilegal "
De verdad esto cuela en este caso?
Uti
Yo creo que fue más matar al mensajero que otra cosa.
Los desarrolladores de Telegram no pueden tener culpa de que un usuario use la aplicación para enviar ficheros pornográficos o de lo que sea.
espabilao
¿La Constitución permite que salga gente a la calle que lo vuelve a hacer?
No creo.
No pongamos excusas absurdas.
En estos temas no.
Usuario desactivado
Me parece perfecto, que pongan medidas muy duras contra los canales y usuarios que distribuyan este tipo de contenidos. Telegram es un servicio, no una simple aplicación, el propietario del servicio debe garantizar que existan mecanismos efectivos para frenar la distribución de este material, como hace Facebook o Twitter por ejemplo.
CCartola
Tolerancia cero con ese tipo de cosas.
espabilao
Tolerancia cero.
Ojalá.
Ahora mismo en España hay tres partidos que no quieren que está y otra gente tengan cadena perpetua.
Que pena.