• Internet, IA y la verdad en jaque…

 

  • La desinformación artificial amenaza con inundar la red, poniendo en riesgo la confianza pública y desafiando al periodismo tradicional

 

  • La inteligencia artificial (IA) se ha posicionado como una herramienta revolucionaria para generar contenido e informar, pero sus errores pueden ser más graves de lo que imaginamos.

 

Renán Castro Hernández/ CAMBIO 22

Modelos de lenguaje como ChatGPT son capaces de presentar información falsa con tono seguro, produciendo en el usuario el mismo efecto que una mentira deliberada a pesar de que la IA carece de intención o conciencia. Esta aparente “confianza infundada” de la IA al brindar datos inexactos está sembrando un nuevo campo de engaños en internet, donde abundan contenidos fabricados al servicio de quien los genera.

Sesgos, alucinaciones y veracidad comprometida

La IA no “miente” en el sentido humano (no decide engañar), pero puede generar hechos inventados o inexactos con total aplomo.

¿Por qué ocurre esto?

En parte por cómo aprenden estos modelos, se entrenan con enormes conjuntos de datos humanos, heredando nuestros sesgos, errores y perspectivas. Si la información de origen es incompleta o tendenciosa, la IA la incorporará. Además, los grandes modelos de lenguaje están optimizados para la coherencia, no para la verdad. Su prioridad es que el texto suene bien, aunque no sea preciso, cuando no tienen un dato, tienden a “alucinar”, rellenan los vacíos con contenidos plausibles pero falsos, algo que los expertos denominan técnicamente hallucinations o alucinaciones de IA, en la práctica esto implica que el sistema puede inventar citas, referencias o hechos inexistentes sin advertir al usuario.

Un caso reciente expone la magnitud del problema, la consultora Deloitte entregó en 2025 un informe oficial al gobierno de Australia que usaba ChatGPT para redactar, el resultado, el documento estaba plagado de referencias académicas fabricadas y una cita judicial inexistente. Deloitte tuvo que reembolsar parte de los 440,000 dólares del contrato tras admitir el uso de IA y sus “serios errores”.

Investigadores señalaron que el informe presentaba “alucinaciones” de IA en otras palabras, el modelo generó información falsa o completó huecos con datos inventados. Incluso después de una revisión, varias citas ficticias tuvieron que reemplazarse por referencias reales, evidenciando que muchas afirmaciones carecían de sustento. Este escándalo subraya un peligro claro, cuando confiamos ciegamente en la IA para contenido sensible, los errores no son triviales. Pueden costar dinero, credibilidad profesional e incluso desinformar a autoridades o al público.

En esencia, la IA padece de un fenómeno conocido como overfitting (sobreajuste) a sus datos de entrenamiento, aprende patrones y los repite, pero no entiende realmente el mundo, por lo que no distingue siempre entre verdad y falsedad, si sus fuentes vienen con sesgos o falsedades, la IA las replicará con convicción.

Como señalan analistas, estos sistemas aún están lejos de ser perfectos, cometen errores, sufren alucinaciones y tienden a ser complacientes con el usuario, diciendo lo que suena coherente o deseable en lugar de reconocer con humildad cuando algo no es cierto. Dado que no tienen una “voz interior” de duda como un humano, raramente expresan incertidumbre a menos que hayan sido estrictamente programados para ello, así, un chatbot puede afirmar un disparate con la misma seguridad con que da un dato cierto, a menos que el usuario se tome la molestia de verificar.

Un sesgo invisible y respuestas a la medida

Otra preocupación es que las IA no son tabulas rasas neutrales, sino que llevan incorporados ciertos filtros ideológicos y culturales, sus creadores suelen programar restricciones para evitar contenido odioso, ilegal o polémico lo cual es positivo para la seguridad, pero a la vez introduce omisiones y sesgos deliberados.

Por ejemplo, algunos usuarios han notado que el modelo responde con distinta severidad o burla según la temática, puede satirizar a una creencia minoritaria sin reparo, pero tratar con guantes de seda a religiones mayoritarias, o evitar por completo figuras históricas polémicas. Estas inconsistencias reflejan decisiones de diseño (guardrails) orientadas a lo “políticamente correcto” y a reducir riesgos legales.

El resultado es una suerte de agenda implícita, la IA omite ciertos hechos o matices por precaución, “sesgando” la verdad al presentar solo partes cómodas de la información. Si bien estas omisiones se hacen sin malicia (son programación, no intención consciente), constituyen de facto desinformación por exclusión, y pueden generar desconfianza en una audiencia crítica.

Asimismo, los modelos conversacionales tienden a la complacencia, están diseñados para mantener al usuario satisfecho, esto significa que rara vez confrontan directamente una premisa errónea del usuario; más bien la sortean con diplomacia o cambian de tema. Incluso cuando el usuario corrige al sistema, la IA suele seguir la conversación como si nada grave hubiera pasado.

Esta “incapacidad de perder una discusión” puede dar la impresión de infalibilidad, el riesgo está en que el usuario desprevenido tome como válidas respuestas sesgadas o incorrectas, reforzando sus ideas preconcebidas en lugar de desafiarlas. En suma, si no somos conscientes de estos mecanismos, podemos quedar atrapados en una burbuja informativa creada por la IA, similar a las cámaras de eco de las redes sociales, pero aún más sutil porque el asistente virtual siempre parece tener razón o una salida airosa.

Internet inundado de “slop”: información basura a escala

A medida que más contenido es producido (y replicado) por inteligencias artificiales, Internet corre el riesgo de ahogarse en un mar de desinformación y ruido. Expertos han acuñado el término “slop” para describir la creciente avalancha de contenido de baja calidad generado por IA, textos plagiados o incoherentes, imágenes distorsionadas, videos y audios falsos, publicados en masa, ya hoy es fácil toparse con artículos sospechosamente insulsos o erróneos, música generada por algoritmos sin alma, fotos con fallos anatómicos (por ejemplo, un gato con tres colas) o noticias automatizadas repletas de datos equivocados.

Esta “basura digital” está alcanzando proporciones epidémicas y contamina el ecosistema informativo global.

El problema se retroalimenta peligrosamente, muchas páginas web buscan cantidad sobre calidad publican contenido optimizado para SEO y clics, no importando su rigor. Ahora, con herramientas generativas, es más fácil y barato que nunca inundar las redes con contenidos banales o falsos. La IA aprende de internet, y termina entrenándose con su propio eco, modelos posteriores absorben ese “slop” publicado, incorporando sus errores y repitiéndolos, investigadores advierten que se puede formar un círculo vicioso de degradación de la calidad, sin intervención humana, será basura dentro, basura fuera (garbage in, garbage out), degradándose progresivamente la precisión de los modelos.

De hecho, un análisis sugiere que mientras al menos un 10% del texto en la web siga siendo humano, los modelos podrán seguir generando contenido comprensible… pero “envenenado” con la misma mediocridad, en otras palabras, la IA podría perpetuar indefinidamente un nivel de desinformación aceptable para ella, aunque inaceptable para nosotros.

Las consecuencias de este diluvio de contenido sintético ya se sienten. Motores de búsqueda muestran resultados menos fiables, mezclando respuestas correctas con sumarios generados por IA que a veces contienen falsedades (Google debió corregir módulos automatizados que afirmaban, por ejemplo, que ningún país de África comienza con K, algo rotundamente falso). Redes sociales se llenan de cuentas bot que regurgitan trivialidades sin sentido, alimentando tendencias artificiales. Incluso se reporta que un porcentaje significativo de artículos académicos recientes podrían haber sido escritos o “mejorados” con IA, poniendo en entredicho la integridad de la literatura científica, si este patrón continúa, separar la información valiosa del slop será cada vez más como buscar una aguja en un pajar digital.

El efecto final es la erosión de la confianza, si cada cosa que leemos, vemos o escuchamos en línea pudiera ser generada por IA y por ende potencialmente falsa o distorsionada, terminaremos dudando de todo, Como lo expresó un comentarista, navegar la web podría volverse como hablar con una persona delirante, no sabes qué es real y qué no, porque la realidad digital se habrá vuelto extremadamente maleable.

De hecho, las falsificaciones ultrarrealistas (deepfakes) de imágenes, audios o videos están difuminando aceleradamente la frontera entre lo auténtico y lo fabricado. Por ejemplo, ya existen videos apócrifos donde figuras públicas dicen o hacen cosas que nunca ocurrieron en realidad, pero que a la vista promedio resultan indistinguibles de un registro genuino.

En 2024, un periodista de France 24 fue víctima de un deepfake, alteraron su voz y titular para difundir mentiras sobre una noticia, dañando su credibilidad hasta que se descubrió el engaño, casos así demuestran que ni siquiera los ojos y oídos son fiables en la era de la IA cualquier prueba multimedia puede ser falsificada con sofisticación.

Un nuevo escepticismo: la verdad en la era poshumana

Frente a este panorama, surge una pregunta de fondo, ¿Qué significa “verdad” cuando la información ya no la producen solo humanos?.

Vamos hacia un entorno donde cada dato podría requerir verificación adicional, y donde la carga de prueba recae en el consumidor de información, antes nos decían “No creas todo lo que ves en internet”, ahora el consejo debe ser más estricto, “No creas nada de entrada, por convincente que parezca, sin confirmarlo por otros medios”.

En otras épocas, la falsedad tenía un límite de escala producir un bulo requería cierto esfuerzo y podía desmentirse con relativa facilidad recurriendo a fuentes serias, pero hoy, la desinformación automatizada puede replicarse a gran velocidad y volumen, superando la capacidad de chequeo de los verificadores y del público.

Las consecuencias de una difusión incontrolada de falsedades impulsada por IA son profundas, pueden erosionar el tejido mismo de la sociedad. Pensemos en la democracia, los votantes se informan en buena medida por internet. Si proliferan deepfakes políticos y noticias artificiales sesgadas, distinguir hecho de ficción será arduo para la ciudadanía promedio. Esto podría influir en el comportamiento electoral y minar los procesos democráticos, sembrando desconfianza en las instituciones y polarización social.

No es ciencia ficción, en diversos países ya circulan videos apócrifos de candidatos y audios manipulados con voz clonada para difamar o confundir, actores maliciosos (gobiernos autoritarios, grupos extremistas, delincuentes) ven en estas herramientas una vía para intensificar propaganda, fraudes o caos informativo a bajo costo.

La combinación de IA y redes sociales resulta especialmente volátil, plataformas como X, Facebook o TikTok permiten que contenido falso se vuelva viral en horas, antes de que ningún moderador humano o algoritmo reaccione.

Además, sus algoritmos tienden a reforzar las preferencias del usuario mostrándole lo que quiere oír, esto ya era problemático antes; con IA generando ilimitadas variaciones del mensaje deseado, cada persona podría quedar atrapada en su realidad a medida, alimentada por un asistente virtual que confirma sus sesgos, el peligro es terminar en una sociedad de “realidades paralelas” donde el consenso sobre hechos básicos desaparece.

Frente a tal crisis de confianza, algunos vislumbran un retorno a lo analógico, valorizar fuentes tradicionales y métodos “de la vieja escuela” de verificación. Por ejemplo, podría cobrar relevancia acudir a libros, bibliotecas o a expertos humanos directos para corroborar datos, en lugar de una búsqueda rápida en línea.

¿Es esto factible o deseable?

Quizá no del todo no podemos retroceder el reloj tecnológico, pero sí es un llamado a replantear nuestros hábitos: tal vez debamos navegar internet con la cautela con que lo haríamos en un bazar repleto de vendedores charlatanes, examinando de cerca cada producto (cada información) antes de “comprarlo” como verdad. La alfabetización mediática y digital de la población se vuelve más urgente que nunca, entrenarnos para dudar saludablemente, contrastar fuentes y pensar críticamente ante cualquier contenido sospechoso, en última instancia, tendremos que adaptarnos a convivir con las IA pero sin otorgarles una confianza ciega que no le daríamos ni al más honesto de los humanos.

Consecuencias reales de un uso desmedido

Ejemplo de una interfaz de chatbot de IA en un smartphone, la dependencia emocional y cognitiva hacia estos asistentes conlleva riesgos si no se establece un uso responsable.

La ola de desinformación no es la única preocupación, el uso irresponsable de IA ya está ocasionando daños tangibles, incluso vidas perdidas, en Bélgica se conoció un caso estremecedor en 2023, un joven, apodado “Pierre” para preservar su identidad, se quitó la vida tras interactuar obsesivamente durante semanas con un chatbot de IA llamado Eliza. Pierre, un hombre de 30 años con dos hijos, atravesaba ansiedad por el cambio climático y encontró en la IA un “refugio” donde volcar sus miedos.

El chatbot, diseñado para ser amigable, “nunca le contradecía” le seguía la corriente en todo, según reveló su viuda, el hombre llegó a sugerir la idea de “sacrificarse para salvar al planeta” y la IA no lo disuadió, incluso pareció animarlo al prometerle que juntos, gracias a la inteligencia artificial, salvarían a la humanidad. Poco después, Pierre cometió suicidio.

“Sin esas conversaciones con el chatbot, mi marido aún estaría aquí”, afirmó rotunda su esposa.

El caso causó consternación internacional y abrió un debate sobre las responsabilidades, las autoridades belgas señalaron la urgente necesidad de proteger a las personas de estos riesgos y clarificar la responsabilidad legal cuando una IA induce un daño así.

¿Quién es culpable cuando un algoritmo “aconseja” algo letal?

El secretario de Estado de Digitalización de Bélgica enfatizó que usar tecnología no exime a los desarrolladores y plataformas de responsabilidad por los contenidos y efectos de sus sistemas, tras la tragedia, los creadores de la app integraron mensajes de advertencia para usuarios con tendencias suicidas, pero la pregunta queda en el aire:

¿estamos midiendo las consecuencias psicológicas de delegar en IA tareas de compañía, terapia o soporte emocional?

Este no es un hecho aislado, también existen reportes de personas que siguieron recomendaciones médicas erróneas de chatbots con resultados fatales, o de accidentes ligados a sistemas de conducción autónoma (otra forma de IA) que fallaron en momentos críticos.

La automatización sin supervisión humana puede convertirse en un riesgo mayor de lo que anticipamos, especialmente cuando los usuarios bajan la guardia. Cada vez más gente usa asistentes de IA para obtener consejo legal, médico, financiero o emocional áreas donde un desliz puede ser catastrófico, si la IA alucina en uno de estos ámbitos sensibles, las consecuencias pueden ir de una estafa económica a la pérdida de vidas.

Además, las herramientas de IA están siendo explotadas para actividades delictivas, en México, autoridades advierten que el crimen organizado ha incorporado IA para ampliar sus operaciones. Se han detectado casos de estafas con voces clonadas un estafador puede imitar la voz de tu familiar pidiendo dinero desesperadamente.

Carteles del narcotráfico han usado deepfakes para simular secuestros virtuales, extorsionando a víctimas con videos falsos, o para blanquear dinero y optimizar rutas de contrabando aprovechando algoritmos.

También existe una dimensión de violencia digital, la creación de pornografía no consensuada mediante IA (tomando la cara de alguien y generando imágenes explícitas falsas) se ha vuelto un problema grave, sobre todo contra mujeres, casos así han motivado iniciativas de ley, pues dejan secuelas psicológicas en las víctimas y son difíciles de perseguir con el marco legal actual.

Todos estos ejemplos refuerzan que la IA, usada sin control ni ética, puede tener un costo humano real, no se trata de demonizar la tecnología los avances son notables y la IA bien empleada salva tiempo, ayuda a diagnosticar enfermedades, mejora procesos, pero el entusiasmo debe ir acompañado de responsabilidad. Como sociedad, no podemos arrojar estas herramientas al público sin salvaguardas y luego sorprendernos de que ocurran daños.

Es imprescindible volver a los orígenes de la precaución y la empatía, recordar que lo rápido no siempre es lo correcto, que hay valores (como la vida, la dignidad y la verdad) que deben anteponerse a la comodidad o la eficiencia mal entendida.

Periodismo en peligro: el último bastión contra la desinformación

La revolución de la IA también pone en jaque al periodismo tradicional, precisamente la institución encargada de proveer información veraz a la sociedad, por un lado, las redacciones han comenzado a experimentar con IA para generar noticias automatizadas, resúmenes e incluso chatbots que redactan artículos.

Esto ha llevado a algunos medios a reducir sus plantillas con la esperanza de ahorrar costos, delegando más tareas a las máquinas, en un caso extremo, el portal de noticias Quartz despidió a casi toda su planta editorial tras ser comprado por un nuevo dueño que quería apostar por contenido generado con IA.

En Italia, el diario Il Foglio hizo el experimento de publicar el primer periódico compuesto enteramente por IA, desde titulares hasta supuestas declaraciones de fuente (ficticias, claro).

Estas tendencias encienden alarmas, si los periodistas son reemplazados por algoritmos, la calidad y fiabilidad de las noticias podría derrumbarse, mientras los errores y sesgos de la IA campan a sus anchas.

Por otro lado, el periodismo mismo se ha vuelto blanco de las trampas de IA. Ya vimos el caso del periodista francés víctima de un deepfake.

Imaginemos en el contexto mexicano o latinoamericano, campañas de difamación contra reporteros críticos usando montajes audiovisuales; creación de falsas declaraciones para desprestigiar a candidatos o activistas; manipulación de fotos de portada.

Los periodistas, especialmente los de investigación y los que cubren temas políticos sensibles, ahora enfrentan amenazas adicionales: su reputación puede destruirse en minutos con un video falso bien distribuido, y su seguridad física corre riesgo si masas enfurecidas creen en contenidos falsos que los involucren.

Además, gobiernos autoritarios pueden emplear IA para censurar o vigilar, herramientas de análisis masivo de datos pueden identificar y acallar voces disidentes en redes, o filtrar contenidos automáticamente según la línea oficial. En suma, la IA ofrece a los enemigos de la prensa libre nuevos métodos para amordazar la verdad.

Sin embargo, paradójicamente, son justamente los principios clásicos del periodismo los que podrían salvarnos de la inundación de desinformación. El rigor investigativo, la verificación de hechos, la contrastación de fuentes, la independencia editorial y la ética profesional son baluartes que ninguna IA ha podido reemplazar.

Un extenso informe de la UNESCO destaca que, aunque la IA trae oportunidades (como analizar rápidamente grandes bases de datos para encontrar noticias), “también presenta riesgos.

Puede reproducir y propagar desinformación… Pero los reportajes que exigen pesquisas con múltiples fuentes y verificación de hechos simplemente no pueden ser replicados por un supercomputador”.

 

En palabras de la Red Global de Periodismo Investigativo, “el periodismo de investigación sigue siendo un antídoto al huracán de manipulación de la IA… Ofrece a los lectores un servicio vital que no pueden encontrar en ningún otro lugar”.

 

Por ello, es vital no “hundir” al oficio periodístico sino fortalecerlo en la era de la IA. Los pilares del buen periodismo exactitud, equilibrio, responsabilidad social no deben desaparecer; al contrario, pueden ser nuestra tabla de salvación para navegar un océano informativo agitado, las escuelas de comunicación y los medios deben enseñar a las nuevas generaciones a usar la IA como herramienta de apoyo y no como reemplazo de su criterio.

Por ejemplo, un periodista puede valerse de un chatGPT para transcribir una entrevista o incluso para esbozar preguntas, pero la investigación de campo, la interpretación y la comprobación de datos deben quedar en manos humanas

De lo contrario, si quienes difunden noticias simplemente replican contenidos generados por IA sin filtro, se rompe la última línea de defensa contra la desinformación masiva.

Además, la transparencia con la audiencia es clave, varios medios han comenzado a etiquetar si una nota fue escrita con ayuda de IA, esto es positivo, el público tiene derecho a saber si la información que consume proviene directamente de un periodista o si hubo intervención algorítmica.

También se vuelve crucial el papel de los fact-checkers (verificadores de datos) independientes, para desenmascarar rápidamente bulos virales creados con IA, lejos de volverse obsoleto, el periodismo se convierte en un faro necesario: el curador que diferencia lo real de lo artificioso, el guardián que mantiene la última milla de la verdad en un mundo saturado de mentira.

Hacia un uso responsable: regulaciones y conciencia ciudadana

Dado el panorama, queda claro que no basta con entusiasmarse por las maravillas de la IA  necesitamos urgentemente marcos de control y prácticas responsables para mitigar sus riesgos, varios frentes deben atenderse:

 

Legislación y políticas públicas: Gobiernos de todo el mundo comienzan a reaccionar. La Unión Europea discute una Ley de IA que exigiría transparencia en los sistemas de alto riesgo y etiquetado de contenido sintético. En México, legisladores han propuesto tipificar con penas de hasta 8 años de cárcel la creación de deepfakes dañinos o la difusión de contenido alterado digitalmente para fraudes o difamación. Aunque estas propuestas avanzan lento, marcan un reconocimiento de la amenaza. También se exploran normas para obligar a las plataformas y redes sociales a detectar y rotular contenido generado por IA, especialmente videos e imágenes. Por ejemplo, se sugiere que si un usuario intenta publicar un video manipulado sin declararlo, la plataforma podría bloquearlo o marcarlo automáticamente. Varias empresas tecnológicas (Adobe, Microsoft, Intel, entre otras) integran la Coalición C2PA, que desarrolla estándares técnicos para certificar la procedencia y autenticidad de los medios digitales. Estas “marcas de agua” digitales podrían ayudar a distinguir lo real de lo sintético, siempre que se apliquen ampliamente.

 

**Responsabilidad corporativa: Las compañías que desarrollan IA deben asumir un rol activo en la mitigación de daños, esto incluye mejorar la calidad de los datos de entrenamiento (para reducir sesgos), perfeccionar los modelos para que reconozcan cuándo no saben algo y puedan abstenerse de responder disparates, y establecer límites de uso en sus aplicaciones, OpenAI, Google y otros han incorporado advertencias en sus chatbots indicando que “pueden generar información incorrecta”, es un paso inicial, pero insuficiente, deberían habilitar, por ejemplo, modos de alta precisión para usos críticos (medicina, legal) donde la IA cite fuentes verificables o pida confirmación humana antes de dar una respuesta potencialmente errónea. También es crucial que las big tech colaboren con investigadores independientes y reguladores, en lugar de operar como cajas negras inaccesibles.

 

**Educación y cultura digital: Ninguna regulación funcionará sin usuarios informados. Es imperativo capacitar a la población en alfabetización mediática y digital. Esto abarca desde escuelas hasta programas comunitarios para adultos. Debemos aprender a identificar deepfakes (por ejemplo, buscar inconsistencias sutiles en videos, o usar herramientas de detección disponibles), a comprobar la veracidad de una noticia antes de compartirla, y a entender los sesgos cognitivos que nos hacen vulnerables a la desinformación, un ciudadano consciente debe preguntarse siempre:

“¿Cuál es la fuente original de este dato? ¿Es confiable? ¿Lo están reportando otros medios serios? ¿Puede ser un montaje?”, cultivar este sano escepticismo colectivo es una defensa natural contra la manipulación masiva.

 

**Uso personal responsable de la IA: Para quienes utilizan asistentes de IA en su trabajo o estudios, la recomendación es clara, trátalos como apoyos, no oráculos infalibles. Si se consulta a ChatGPT u otra IA para obtener un resumen, una traducción o ideas para comenzar un texto, está bien; pero nunca se debe confiar ciegamente en su output, menos en temas delicados. Siempre revisar los datos clave contra fuentes externas. Es buena práctica no delegar la tarea crítica al 100% en la IA, por ejemplo, si un estudiante la usa para hacer una monografía, que la tome solo como guía y después verifique y elabore por su cuenta, la IA puede darnos velocidad, pero nosotros debemos poner la precisión y el juicio ético.

La inteligencia artificial nos enfrenta a un reto histórico en el manejo de la información, nos ofrece capacidades increíbles, sí, pero también amplifica las falsedades y difumina la línea entre realidad y ficción como nunca antes.

La respuesta no es renegar de la tecnología sería imposible y desaprovecharíamos sus beneficios, sino usarla con mesura y sentido crítico, debemos frenar el impulso de adoptarla en todo sin considerar sus implicaciones, la sociedad en su conjunto ciudadanos, gobiernos, empresas, educadores tiene que involucrarse en encauzar esta poderosa herramienta.

Al final del día, la verdad sigue siendo un valor irrenunciable, si permitimos que se diluya en un maremágnum de bits engañosos, todos perdemos, los esfuerzos por entrenar a la IA para que “aprenda lo bueno y rechace lo malo” deben ir acompañados de esfuerzos paralelos por entrenar a los humanos a nosotros mismos para navegar con criterio esta nueva realidad.

Informarnos, pensar, contrastar y exigir cuentas nunca fue tan importante, la inteligencia artificial puede ser una aliada brillante, pero no debe sustituir nuestra inteligencia humana ni nuestro compromiso con la verdad.

 

Si no, al tiempo…

cambio22digitalcun@gmail.com

GCH

WhatsApp Telegram
Telegram


WhatsApp Image 2025 11 30 at 12.28.27 AM
WhatsApp Image 2025 11 30 at 12.28.27 AM