La propaganda sintética creada por la inteligencia artificial desafía la forma en que las empresas comerciales cuantitativas evalúan la validez de las noticias.
Una imagen de una aparente explosión en el Pentágono hizo que el S&P 500 se tambaleara 0,3% en 30 minutos y alertó a las empresas comerciales de que sus herramientas de agregación de noticias necesitaban trabajo.
Las empresas luchan para contener las consecuencias de las deepfake
Si bien es cada vez más probable que los algoritmos de las empresas comerciales filtren información errónea, el panorama de amenazas se está convirtiendo en un juego del “gato y el ratón” de alto riesgo para el que pocos anticipan soluciones a corto plazo.
Crecimiento del comercio algorítmico por región | Fuente: Mercados y Mercados
El científico de datos de RavenPack, Peter Hafez, dice que las empresas tienen dos preocupaciones inmediatas.
“Vemos que los cuantitativos enfrentan dos obstáculos: imágenes falsas que pueden engañar a un periodista e informes de imágenes falsas que engañan al propio algoritmo”.
Es probable que la lucha contra las falsificaciones profundas a gran escala requiera importantes inversiones tecnológicas para amortiguar el caos comercial, especialmente para las empresas comerciales de alta velocidad que benefician a los clientes a través de diferencias mínimas en los precios de los instrumentos financieros.
Mientras tanto, algunas empresas están recurriendo a fuentes de datos que agregan noticias de diferentes fuentes en una puntuación de sentimiento.
Otras empresas operan utilizando tendencias en lugar de movimientos bruscos de precios impulsados por las redes sociales y las noticias actuales. Las empresas también están cambiando los algoritmos para verificar la validez de las fuentes.
La desinformación prospera con el consumo de datos
Un informe reciente de la ONU describió cómo la colusión del sector público y privado podría impulsar campañas de desinformación para lograr agendas políticas o financieras.
El informe alertó específicamente al público sobre cómo las falsificaciones profundas generadas por IA pueden avivar los disturbios civiles.
Según el Laboratorio Forense de Medios de la Universidad de Buffalo, generar un deepfake solo requiere alrededor de 500 imágenes o diez segundos de video.
Sin embargo, MIT Technology Review argumenta que la opinión predominante es que la IA funciona mejor con más datos. El modelo GPT -2 de OpenAI usó 40 gigabytes, mientras que GPT-3 usó 570 GB.
La firma no ha revelado la cantidad de datos que utiliza su modelo GPT-4. Más datos pueden potencialmente generar deepfakes más realistas. Un proyecto de ley reciente de la Unión Europea pide a las empresas que revelen las fuentes de datos que utilizan sus algoritmos de IA para generar contenido.
El laboratorio forense de Buffalo detecta deepfakes mediante la identificación de movimientos oculares anormales. Por otro lado, la herramienta FakeCatcher de Intel puede evaluar el contenido visual para determinar el flujo sanguíneo humano auténtico.
Las próximas herramientas de metadatos y marcas de agua de Google pueden ayudar a identificar el contenido sintético. Los metadatos adjuntos a un archivo brindan contexto para el contenido, mientras que la marca de agua incorpora datos iniciales resistentes que pueden sobrevivir a ediciones modestas.
El post La carrera de IA golpea los algoritmos de trading de Quant Hedge Funds fue visto por primera vez en BeInCrypto.