Imagen del metaverso imaginado por Meta
Tiempo de lectura: 6 minutos

Bloomberg Opinión — Cuando Mark Zuckerberg describió el metaverso el año pasado, conjuró una imagen de conexiones sociales armoniosas en un mundo virtual inmersivo. Pero las primeras iteraciones del espacio de su empresa no han sido muy armoniosas.

Varias mujeres han denunciado incidentes de acoso, entre ellos el de una probadora de la versión beta que fue manoseada virtualmente por un desconocido y el de otra que fue violada virtualmente por un grupo de personas a los 60 segundos de entrar en la plataforma social Horizon Venues de Facebook. He tenido varios momentos incómodos con desconocidos en aplicaciones sociales de Meta Platforms Inc. (FB antes conocida como Facebook Inc.) y Microsoft Corp. (MSFT) cuando las visité en diciembre.

El metaverso está en sus inicios, pero ése es precisamente el problema. Si la seguridad no se incorpora desde el principio al diseño de una nueva plataforma social, es mucho más difícil garantizarla en el futuro.

Empresas de juegos como Riot Games Inc., creadora de League of Legends, por ejemplo, se han enfrentado a una ardua batalla tratando de rescatar una comunidad virtual de comportamientos tóxicos. Facebook también conoce bien este problema: Le costó volver a guardar al genio dentro de la botella en lo que respecta a la desinformación de la vacuna contra el Covid-19, como puso de manifiesto una denunciante el año pasado. Si la empresa hubiera sido más rápida a la hora de diseñar un aviso en el que se pidiera a los usuarios que se detuvieran y leyeran ciertos enlaces antes de compartirlos, eso podría haber evitado que las publicaciones antivacunas se hicieran virales y costaran vidas.

PUBLICIDAD

Resulta que Facebook ha tenido dificultades a nivel interno con la construcción de características de seguridad en sus nuevos servicios metaversos. En 2016 lanzó Oculus Rooms, una aplicación en la que cualquier persona con un visor Oculus podía pasar el rato en un apartamento virtual con amigos y familiares. A pesar de los avatares de aspecto caricaturesco, quedar con un amigo en Rooms era una experiencia cautivadora. Pero el servicio estaba destinado a seguir siendo un nicho, dado que poca gente cuenta con esos dispositivos. La forma de fomentar un mayor crecimiento era reunir a los propietarios de auriculares que no se conocían entre sí, según Jim Purbrick, que fue director de ingeniería en los productos de RV de Facebook entre 2017 y 2020.

En 2017, Facebook construyó Oculus Venues (ahora Horizon Venues), un espacio virtual donde proyectaba películas o partidos deportivos profesionales con la esperanza de que los visitantes se mezclaran y establecieran conexiones. Fue un cambio crítico, que fortaleció la capacidad de la compañía para hacer crecer su nueva plataforma de RV - pero también la abrió a nuevos riesgos.

Purbrick recuerda que los ingenieros y los directores de producto empezaron a reunirse para debatir cómo podían diseñar características de seguridad en Venues, algo que no habían hecho al diseñar Rooms. Los directivos prestaron mucha atención a la seguridad, me dice. Por ejemplo, la gente tenía que ver un vídeo de seguridad antes de entrar en las salas. Pero había algunos problemas notables. Sólo uno de cada 10 ingenieros y uno de cada cuatro jefes de producto que trabajaban en la realidad virtual en Facebook eran mujeres, según Purbrick. Meta dijo que no desglosaba los datos demográficos por equipo.

PUBLICIDAD

Purbrick también advirtió a los ingenieros desde el principio que los avatares deberían desvanecerse y desaparecer cuando se acercaran demasiado a otro usuario, para ayudar a resolver la inquietante sensación de tener a alguien acercándose a milímetros de tu propio avatar. La idea les gustó, dice, pero nunca se llevó a cabo. “Todo el mundo tenía demasiado que hacer”, recuerda Purbrick.

Una portavoz de Facebook no dijo por qué la empresa no había implementado una función de desvanecimiento y desaparición, y en su lugar destacó su nueva herramienta de “límites personales”, que impide que ciertos avatares se acerquen a un radio de dos pies virtuales del tuyo.

La herramienta de límites puede ser contraproducente, dice Purbrick, señalando cómo se ha abusado de características similares en los juegos. “Puedes acabar con una situación con bandas de personas creando anillos alrededor de otras, dificultando su salida”, dice. “Si hay una gran multitud y tienes un montón de límites personales, se hace más difícil la navegación”. Meta dijo que los avatares aún podrían avanzar con la herramienta de límites.

“Oculus definitivamente se preocupó por que la gente tuviera buenas experiencias en la RV y entendió que una mala primera experiencia podría alejar a la gente de la RV para siempre, pero creo que subestimaron el tamaño del problema”, añade Purbrick.

PUBLICIDAD

En su opinión, Meta debería facilitar a los usuarios la búsqueda de elementos de seguridad -como un extintor- y trabajar en la introducción de voluntarios que puedan ayudar oficialmente a controlar el comportamiento, lo que podría incluso convertirse en una nueva rama de gobierno para la plataforma. Los juegos, a pesar de su historial de comportamientos tóxicos, tienen algunos modelos útiles: El juego de rol EVE Online, por ejemplo, tiene un consejo de 10 voluntarios elegidos que se reúnen con los desarrolladores del juego para discutir regularmente los problemas de la plataforma.

Hasta ahora, Meta ha centralizado la tarea de moderación de contenidos en Facebook, pero le costará adoptar el mismo enfoque con millones de habitantes de un nuevo mundo virtual.

La empresa tiene “la estructura de toma de decisiones más centralizada” que jamás se haya encontrado en una gran empresa, según uno de los primeros patrocinadores, una descripción que se ve subrayada por el control de Mark Zuckerberg del 57% de las acciones con derecho a voto de la empresa. Pero los mundos virtuales son comunidades humanas en su esencia, lo que significa que la gente querrá tener más voz en su gestión. Renunciar a parte de ese control centralizado podría ayudar a Meta a mitigar el acoso.

PUBLICIDAD

También lo haría educar a los visitantes sobre lo que constituye un comportamiento potencialmente delictivo. Holly Powell Jones, criminóloga y profesora de la City University de Londres, ha descubierto que un número alarmante de niños y adolescentes se encogen de hombros ante el acoso o el intercambio de imágenes indecentes porque no tienen idea de que son delitos. Es “casi seguro” que la gente ya ha sido acosada a nivel penal en la realidad virtual, afirma.

“El acoso en los espacios digitales no es nada nuevo, y es algo que nosotros y otros en la industria hemos estado trabajando para abordar durante años”, dijo la portavoz de Meta. “Constantemente lanzamos nuevas funciones basadas en los comentarios de la gente”.

Dado que la policía ya se ha visto desbordada por los casos de las redes sociales y el mundo offline, las empresas tecnológicas deberían probar soluciones más radicales para abordar el acoso en el metaverso ahora, antes de que el tema se arraigue. La escasez de mujeres en el proceso de desarrollo de la realidad virtual no ayuda en absoluto y podría solucionarse.

Tanto Horizon Venues, de Facebook, como AltspaceVR, de Microsoft, han hecho vagas advertencias sobre el comportamiento -recordando a los visitantes que deben tratar a otros avatares como seres humanos, por ejemplo- antes de entrar. Pero Microsoft anunció el miércoles una medida más drástica para combatir el acoso: Estaba cerrando varias de sus plataformas para socializar con extraños, incluyendo Campfire, silenciando a todos los asistentes cuando se unían a un evento y activando “burbujas de seguridad” por defecto.

PUBLICIDAD

Eso demuestra que Microsoft se toma en serio la idea de impedir que la toxicidad se convierta en la norma. Facebook debería considerar una revisión igualmente audaz de sus plataformas de socialización para el metaverso. De lo contrario, el sueño que conjuró Zuckerberg nunca pasará de ser sólo eso.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.