La postura de Meredith Whittaker sobre el enfrentamiento de seguridad de Telegram y los 'edge lords' en OpenAI

Meredith Whittaker está harta de la facción 'frat house' de la industria tecnológica. Me senté con la Presidenta de Signal en VivaTech en París para repasar la amplia gama de temas serios y de adultos que la sociedad enfrenta, desde la desinformación, hasta quién controla la IA, hasta el avance del estado de vigilancia. En el transcurso de nuestra conversación, nos sumergimos en la reciente guerra de palabras de Signal con Elon Musk, Pavel Durov de Telegram, y, dada su controversial confrontación con Scarlett Johanson, los pensamientos sinceros de Whittaker sobre el liderazgo en OpenAI, al que comparó con 'payasadas de dormitorio'.

Entre otras cosas, Whittaker está preocupada por la concentración de poder en las cinco principales plataformas de redes sociales, especialmente en un año en el que el mundo enfrenta una gran cantidad de elecciones generales, sobre todo en EE. UU. y la dependencia de Europa de gigantes tecnológicos estadounidenses. Ella argumentó que flexibilizar las regulaciones de la UE no ayudará realmente a Europa a competir con los gigantes tecnológicos de EE. UU., ni será bueno para la sociedad. Criticó la obsesión de los medios con deepfakes impulsados por IA, mientras a menudo ignoran cómo las plataformas de redes sociales priorizan el compromiso hiperbólico sobre los hechos.

También discutimos la publicidad de vigilancia, las implicaciones del Proyecto de Ley de Seguridad en Línea del Reino Unido, las propuestas de la UE sobre CSAM ("absolutamente peligrosas") y si Pavel Durov de Telegram debería pasar más tiempo haciendo que su plataforma sea segura que siendo seguido por un fotógrafo para su cuenta de Instagram ("está lleno de mierda").

Y al final, reveló por qué va a pasar los próximos seis meses en Europa. (Mis preguntas están en cursiva):

Últimamente has estado hablando sobre la concentración de poder en la IA, y que esto era importante en el contexto europeo. ¿Te gustaría expandirte sobre eso?

La respuesta muy corta es que eso es importante en el contexto europeo, porque ese poder no está concentrado en Europa. Sí, ese poder está concentrado en manos de un puñado de empresas que residen en EE. UU., y luego algunas más en China. Pero cuando hablamos de este contexto, estamos hablando de EE. UU. La dependencia de Europa, de las startups europeas, de los gobiernos europeos, de las instituciones europeas, en la IA es en última instancia una dependencia de infraestructuras y sistemas que son creados, controlados y revierten a los beneficios y crecimiento de estas empresas.

Ahora, el contexto en el que estamos hablando es mayo de 2024. Ahora, no sé cuántos meses faltan para las elecciones y me niego a recordarlo en este momento. Pero estamos viendo la posibilidad muy real de un régimen Trump y de un gobierno estadounidense más autoritario y esa parte del [Partido Republicano] ha tenido la mirada puesta en controlar la tecnología y particularmente las redes sociales por mucho tiempo. Entonces, esas son consideraciones que deberían tomarse todas juntas en un análisis de qué es la IA. ¿A quién sirve la IA? Y nuevamente, ¿por qué debería preocuparse Europa por el poder concentrado en la industria de la IA?

Hay un debate en Europa en torno al aceleracionismo y a la aceleración de las tecnologías. Algunos emprendedores europeos están frustrados por la regulación europea. ¿Crees que sus preocupaciones sobre una posible regulación europea, quizás de la UE ralentizando el ritmo del progreso tecnológico, están justificadas?

Permíteme, vengo de La Academia. Así que soy muy meticuloso con las definiciones. Quiero desempaquetar eso un poco. ¿La premisa aquí es que sin tales ataduras, Europa estaría libre de construir competidores igual a los gigantes tecnológicos de EE. UU.? Si esa es la suposición, eso no es verdad. Saben que esto no es verdad. Cualquiera que entienda la historia, los modelos de negocio, la profunda arraigada de estas empresas también sabe que eso no es verdad.

Puede haber frustración con la regulación 'ralentizando su serie B'. Pero creo que necesitamos mirar una definición de 'progreso' que se base en desechar todas las salvaguardias que gobernarían el uso y abuso de tecnologías que actualmente están siendo asignadas para tomar determinaciones increíblemente sensibles; actualmente vinculadas con infraestructuras de vigilancia masiva que están acelerando nuevas formas de control social; que se utilizan para degradar y disminuir el trabajo. ¿Es eso lo que queremos? ¿Es eso el progreso? Porque si no definimos nuestros términos, creo que podemos quedar atrapados en estos cuentos de hadas.

Seguro, algunos chicos van a ser sólidamente de clase media después de salir, y eso es bueno para ellos. Pero no debemos confundir eso con progreso hacia un futuro viable. Progreso hacia una estructura de gobernanza socialmente beneficiosa, progreso hacia una tecnología que realmente sirva las necesidades humanas, que realmente sea responsable ante los ciudadanos.

Has mencionado el ejemplo de la desinformación sobre contenido generado por IA sobre Zelensky y su esposa. Como videos deepfake y sitios web generados por IA.

El enfoque en deepfakes en un vacío en realidad está perdiendo el bosque por los árboles, siendo el 'bosque' el hecho de que ahora confiamos en cinco enormes plataformas de redes sociales como los árbitros. [TikTok, Facebook, Instagram, Twitter/X y YouTube]

Estas enormes plataformas homogéneas de redes sociales tienen incentivos para calibrar sus algoritmos para el compromiso porque quieren más clics, más vistas de anuncios, que están incentivados a elevar contenido de mierda, contenido bombástico, contenido hiperbólico, contenido completamente falso, ¿verdad? Y es ahí donde vemos, en mi opinión, que la IA se utiliza para la desinformación de una manera mucho más poderosa. Ahí es donde encontrarías un deepfake. Nadie va a un sitio web en estos días. Vas a Twitter, YouTube, buscas, ves qué hay allí.

Ves un titular y haces clic en él, haces clic en alguien que publica desde ese sitio web. No creo que podamos tener una conversación sobre desinformación sin tener una conversación sobre el papel de las enormes plataformas homogéneas que han canibalizado nuestro ecosistema mediático y de información en servicio del beneficio y crecimiento de un puñado de empresas.

En el Reino Unido, tenemos la Autoridad de Normas Publicitarias. En Alemania, no puedes publicitar objetos de la Alemania nazi, por ejemplo en eBay. ¿Habría formas de regular la industria publicitaria y, por lo tanto, generar mejores reglas y mejores resultados de las plataformas que dependen de la publicidad como modelo de negocio?

Creo que prohibir la publicidad de vigilancia sería un primer paso muy bueno. Realmente estaríamos cortando de raíz las patologías con las que estamos lidiando de la industria tecnológica, que es esta vigilancia masiva en nombre de la influencia, influencia para vender algo, influencia para convencer a alguien de votar por algo, influencia para desinformar a alguien. En última instancia, ese es el juego.

Los datos de entrenamiento para esa vigilancia masiva, como lo has puesto, se hicieron muy evidentes con la historia sobre el uso de OpenAI de la voz de IA 'Sky' que sonaba bastante similar a Scarlett Johansson. Más tarde reveló que Sam Altman la había contactado sobre el uso de su voz. ¿Tienes alguna opinión sobre quién ganó ese incidente?

Publiqué esto en Twitter, pero es simplemente ... tonterías de 'Edge Lord'. Es tan irrespetuoso. Es tan innecesario. Y realmente desgarra el velo de esta mitología de que todos ustedes son personas serias en la cúspide de la ciencia construyendo a la siguiente deidad, cuando está muy claro que la cultura es payasadas de dormitorio incitadas por un montón de 'yes men' que piensan que cada broma que dices es divertida, porque les pagan para hacerlo, y nadie allí está tomando a este liderazgo por los hombros y diciendo '¡¿Qué mierda estás haciendo?!'

El año pasado en TechCrunch Disrupt hubo una discusión contigo sobre la Ley de Seguridad en Línea del Reino Unido (ahora Act), que sugería que podría pedir a las empresas tecnológicas que construyeran puertas traseras en su cifrado de extremo a extremo. ¿Cuál es tu posición ahora que la ley ha sido aprobada?

Nunca lo haríamos. Nunca lo vamos a hacer. Lo que dijimos fue que si se movían para hacer cumplir esa parte de la ley, que podría ser utilizada por Ofcom para decirle a Signal 'tienen que construir una puerta trasera, tienen que implementar escaneo en el lado del cliente' - que es una puerta trasera - nos iríamos [del Reino Unido]. Porque no vamos a hacerlo. Nunca vamos a traicionar a las personas que confían en Signal, especialmente dado que tantos de ellos dependen de ella, en contextos donde la seguridad digital es una cuestión de vida o muerte.

Lo que parece claro es que Ofcom recibió una bolsa gigante de tonterías salvajes, algunas interesantes, otras no, que se fueron acumulando como un árbol de Navidad, donde cada uno le había agregado su adorno favorito. Se aprobó debido a la inercia política, no a ningún apoyo real. Cada MP con el que había hablado antes de la ley era como 'Sí, sabemos esa mierda, pero nadie va a hacer nada al respecto'. Y ahora Ofcom tiene que lidiar con hacer cumplirla. Y así... cada par de meses caen otras 1,700 páginas que necesitas a alguien para leer.

Entonces, ¿todavía no has tenido presión de Ofcom?

No, y mi experiencia con el liderazgo de Ofcom es que son bastante razonables. Ellos entienden estos problemas. Pero de nuevo, les entregaron este proyecto de ley y ahora están tratando de lidiar con qué hacer allí.

Hubo un desarrollo reciente, donde están consultando sobre IA para la seguridad en línea. ¿Tienes algún comentario al respecto?

Estoy muy preocupado por el control de edad. Y esta idea de que necesitamos una base de datos, [por ejemplo] dirigida por Yoti, una empresa estadounidense que está presionando mucho por estas infraestructuras, que haría identificación biométrica o alguna magia inexacta de aprendizaje automático, o tener una base de datos de identificaciones, o lo que sea, lo que significa que efectivamente tienes que iniciar sesión con tu identidad real y tu edad y cualquier otra información que quieran, para visitar un sitio web.

Estás hablando de un régimen de vigilancia masiva increíble. En EE. UU. durante mucho tiempo los bibliotecarios mantuvieron la línea de no revelar lo que la gente sacaba prestado porque esa información era tan sensible. Puedes mirar el caso de Robert Bork y sus alquileres y compras de videos y lo sensible que era esa información. Lo que ves aquí con estas disposiciones es simplemente el fomento de algo que ignora completamente una comprensión de lo sensible que son esos datos y crea una [situación] en la que tienes que registrarte con las autoridades antes de poder usar un sitio web.

La Comisión Europea ha propuesto una nueva Directiva para recastar las reglas de derecho penal en torno al Material de Abuso Sexual Infantil (EU-CSAM). ¿Cuál es tu opinión sobre esta propuesta?

Sinceramente, no parece haber la voluntad política [para ello]. Pero es notable que parece haber esta contigencia rabiosa, que a pesar de la investigación incriminatoria que muestra cuánto poder tuvieron los grupos de presión de la industria de escaneo y biometría en redactar esta legislación. Esto, a pesar de toda la comunidad de expertos - cualquier persona destacada que investigue en seguridad o criptografía y entienda estos sistemas y sus limitaciones - que sale y dice que esto es absolutamente inviable. De lo que estás hablando es una puerta trasera en las infraestructuras centrales en las que confiamos para el gobierno, para el comercio, para la comunicación.

Es absolutamente peligroso, y oh, espera, no hay datos que muestren que esto realmente vaya a ayudar a los niños. Hay una gran falta de financiamiento para los servicios sociales, educación. Hay problemas reales para ayudar a los niños. Esos no están siendo abordados. En cambio, hay una fijación en una puerta trasera en el cifrado, en romper la única tecnología que tenemos que puede garantizar la confidencialidad, la autenticidad y la privacidad. Así que los argumentos están claros. Está muy claro que están equivocados. Está muy claro que este proceso ha sido corrupto, por decir lo menos. Y sin embargo, parece haber esta facción que simplemente no puede dejar ir ese hueso.

Claramente estás preocupado por el poder de las plataformas de IA centralizadas. ¿Qué piensas de la llamada 'IA descentralizada' de la que ha hablado Emad Mostaque, por ejemplo?

Escucho un eslogan. Dame un argumento. Dame una arquitectura. Dime qué significa realmente eso. ¿Qué se está descentralizando específicamente? ¿Cuáles son los beneficios que acompañan a tu versión especial de descentralización?

Obviamente, hubo recientemente una confrontación con Elon Musk sobre Telegram versus Signal. Alejándonos y saliendo de esa experiencia: ¿Viste a algún activista dejar Signal? ¿Cuáles son tus opiniones sobre lo que dijo Pavel Durov?

Parece que Pavel podría estar demasiado ocupado siendo seguido por un fotógrafo profesional para tener sus hechos correctos. No sé por qué amplificó eso. Sé que está lleno de mierda cuando se trata de sus puntos de vista o sus afirmaciones sobre Signal. Y tenemos todos los recibos de nuestro lado. Así que el jurado está deliberando. El veredicto está claro.

Lo que es lamentable de esto es que, a diferencia de otros casos de discursos de mierda de ejecutivos tecnológicos - con los que estoy bien involucrado y realmente no me importa - este realmente daña a personas reales y es increíblemente imprudente. Junto con varias personas con las que trabajamos en coalición, hemos tenido que estar en contacto con defensores de derechos humanos y comunidades de activistas que legítimamente estaban asustadas por estas afirmaciones porque estamos en una industria, en un ecosistema, donde tal vez hay 5000 personas en el mundo con las habilidades para realmente sentarse y validar lo que hacemos, y lo hacemos lo más fácil posible para las personas que tienen esa estrecha experiencia de validar lo que Signal está haciendo.

Nuestro protocolo es de código abierto. Nuestro código es de código abierto. Está bien documentado. Nuestras implementaciones son de código abierto. Nuestro protocolo está formalmente verificado. Estamos haciendo todo lo posible. Pero hay muchas personas que tienen diferentes habilidades y diferentes conocimientos, que tienen que tomar la palabra de los expertos. Somos afortunados porque hemos trabajado abiertamente durante una década. Hemos creado la tecnología de cifrado estándar de oro, tenemos la confianza de la comunidad de seguridad, hacker, InfoSec, criptografía y esas personas son como un sistema inmunológico. Pero eso no significa que no tengamos que hacer un verdadero trabajo de control de daños y cuidado con las personas que confían en Signal. Muchas veces vemos estas campañas de desinformación dirigidas a comunidades vulnerables para obligarlas a optar por una opción menos segura y luego someterlas a la vigilancia y el control social y otras formas de daño que provienen de ese tipo de asimetría de la información armada. Así que estaba furiosa, estoy furiosa, y creo que es simplemente increíblemente imprudente. Jueguen sus juegos, pero no los lleven a mi corte.

He hecho mucho inform