La historia de cómo las promesas de ingresos estables conducen a la ruina financiera.
En Bangladesh, estafadores utilizaron la marca OpenAI para crear un esquema de criptomonedas, atrayendo a las personas con la promesa de empleo y un ingreso estable. A los trabajadores se les ofrecía realizar tareas en línea sencillas a través del sitio "OpenAi-etc" y ganar beneficios diarios según la cantidad invertida. Las comunicaciones internas se llevaban a cabo en Telegram, y el proceso incluía una intensa motivación para invertir más fondos y atraer nuevos participantes.
Una de las víctimas convenció a más de 150 personas para unirse, formando un grupo con una inversión total en criptomonedas de aproximadamente 50.000 dólares. El esquema parecía convincente: tras el impacto de un ciclón en Bangladesh en mayo, los organizadores incluso supuestamente brindaron ayuda a los afectados. Sin embargo, una mañana, el sitio web, el dinero y todo el equipo de OpenAi-etc desaparecieron sin dejar rastro.
Esquemas fraudulentos similares operan bajo un principio parecido: en las primeras etapas, los inversores realmente ven ganancias, lo que los impulsa a invertir más. Pero en un determinado momento, todos los fondos desaparecen. La Comisión Federal de Comercio de EE. UU. (FTC) recibió 11 quejas de víctimas en Bangladesh, siete de las cuales mencionaban a "Aiden de OpenAI" como una figura clave en el esquema. Algunos participantes informaron haber trabajado en la plataforma durante hasta seis meses.
La investigación de WIRED reveló que OpenAi-etc estaba registrada en Colorado y figuraba en el registro de instituciones financieras de EE. UU., y su oficina supuestamente se encontraba en el Empire State Building. Sin embargo, el sitio web de los estafadores operaba en una plataforma de alojamiento china, lo que dificulta significativamente su rastreo. La FTC se negó a comentar si se está llevando a cabo una investigación sobre el caso.
OpenAI declaró que está investigando la situación, pero no reveló detalles. Telegram, donde se llevaban a cabo todas las comunicaciones, afirma que combate activamente a los estafadores mediante IA y aprendizaje automático. Sin embargo, como se puede notar, este sistema automatizado aún no funciona de manera óptima.
En Asia, estos esquemas son cada vez más frecuentes, ya que muchas personas buscan desesperadamente un trabajo confiable. En el caso de OpenAi-etc, se estima que más de 6.000 personas fueron afectadas. Así, esta historia sirve como otro recordatorio de que incluso las promesas más convincentes y el uso de nombres de empresas reconocidas pueden encubrir esquemas fraudulentos, dejando a miles de personas sin recursos económicos.