Un vídeo que circula por Internet afirma que un trabajador de la limpieza llamado Samuel salvó a un recién nacido de un camión de la basura. Según el vídeo, Samuel, un veterano trabajador con 25 años de experiencia, realizaba su ruta habitual a primera hora de la mañana cuando oyó un lamento agudo procedente de la tolva del camión.
Según la descripción del vídeo, Samuel se acerca a la palanca para compactar la basura cuando su compañero grita de repente: "¡Sam, espera! Me ha parecido oír algo". Aquí es donde aumenta la tensión del vídeo. Samuel oye un gemido agudo y delgado que no parece el de un gatito ni el ruido habitual de la calle. Su corazón se acelera mientras se apresura a ver el origen del sonido, preparando el escenario para un rescate supuestamente dramático.
Entonces Samuel se asoma a la tolva del camión de la basura. Dentro de una bolsa de lona empapada, envuelto en una toalla manchada, hay un bebé recién nacido. Según la narración, Samuel, que es abuelo, levanta al bebé con sorprendente delicadeza a pesar de sus manos ásperas y sucias. Su compañero llama al 911 mientras Samuel acuna y consuela al niño, susurrándole palabras tranquilizadoras.
Poco después aparecen los paramédicos, y el vídeo lo presenta como un momento real en el que un trabajador sanitario salva una vida en una situación inesperada.
El vídeo no muestra dónde ni cuándo ocurrió supuestamente el incidente. No hay nombres de ciudades, señales de calles ni marcas de tiempo, que suelen estar presentes en los vídeos de rescates reales.
La mano derecha del bebé parece carecer de pulgar durante los primeros segundos, y no parece estar oculto tras los demás dedos. Este tipo de errores son habituales en los vídeos generados por IA.
Las etiquetas blancas y naranjas del camión de la basura son ilegibles. Desde esta distancia, estas palabras deberían ser al menos un poco claras si el vídeo fuera real.
Un coche en el fondo hacia el final del vídeo se ve borroso y poco natural. Este tipo de incoherencias visuales son típicas en los contenidos generados por IA, especialmente durante movimientos complejos.
El sonido, la textura y el efecto general del vídeo se asemejan a contenidos generados por IA, en particular vídeos realizados con herramientas como Sora AI. Un ligero desenfoque, un movimiento inusual y una iluminación poco natural son signos comunes.
A pesar de lo dramático de la historia, no hay cobertura de este suceso en ningún medio de comunicación. Los medios de comunicación locales o nacionales se harían eco con toda seguridad del rescate de un bebé en la vida real.
La cuenta de Facebook que publicó el vídeo, Dailystories, tiene un historial de subir contenidos generados por IA. Este patrón refuerza la sospecha de que el vídeo de Samuel también es inventado. Las cuentas que publican repetidamente contenidos generados por IA o manipulados digitalmente suelen producir vídeos diseñados para convertirse en virales, aprovechando la narración emocional y los efectos visuales dramáticos para atraer visitas y shares.
Después de examinar el vídeo de cerca, está claro que el clip de Samuel salvando a un bebé de un camión de la basura no es real. El bebé, el camión y todo el escenario han sido creados digitalmente para que parezcan convincentes, pero son totalmente ficticios. Aunque la historia de un trabajador sanitario que salva heroicamente a un niño es convincente, en este caso se trata de contenido generado por la IA.
Este vídeo viral sirve como recordatorio de la creciente sofisticación de las herramientas de IA que pueden crear vídeos de aspecto realista y de gran carga emocional. También subraya la importancia de verificar el contenido en línea antes de compartirlo, especialmente cuando se trata de escenarios diseñados para provocar fuertes respuestas emocionales.