Valve ha actualizado el formulario de developer disclosure relacionado con IA generativa en Steam, afinando qué usos deben declararse y cuáles no. El cambio, señalado por Simon Carless (GameDiscoverCo), reescribe de forma notable las directrices para reducir ambigüedad: no tendrás que declarar “AI powered tools” usados solo para eficiencia de flujo de trabajo (por ejemplo, asistentes de código), pero sí cualquier IA que genere contenido que acabe dentro del juego o en sus materiales asociados

La nueva redacción establece, en la práctica, una frontera clara entre herramientas de productividad y contenido generado:

  1. Sin declaración obligatoria (workflow): si la IA se utiliza como herramienta de apoyo sin que su salida se convierta en “contenido” publicado (p.ej., ayudas de programación o automatizaciones internas), Valve indica que no hace falta declararlo
  2. Declaración obligatoria (contenido generado para el juego): si se usa IA “para generar contenido para el juego”, el estudio debe describirlo en un campo de texto, y esa declaración aplica tanto al propio juego como a materiales asociados como creatividades de marketing o la página de Steam. Es decir: si la IA generativa aparece en el producto final o en cómo lo presentas, hay disclosure. 
  3. Declaración obligatoria (IA generativa durante el gameplay): si el juego genera en tiempo real imágenes, texto u otro contenido mediante IA durante la partida, el desarrollador debe marcar un checkbox específico

Este ajuste encaja con la arquitectura que Valve ya tenía en Steamworks: el Content Survey incluye un apartado de “Generative Artificial Intelligence Content” que separa entre Pre-Generated (contenido creado con IA durante desarrollo) y Live-Generated (contenido creado con IA mientras el juego está corriendo). Para el caso live, Valve añade un requisito extra: explicar qué mecanismos existen para evitar que el sistema genere contenido ilegal o infractor. 

Por qué importa (más allá del “check”)

Para estudios y publishers, el matiz es importante por tres motivos:

  • Cumplimiento y revisión: Valve deja claro que revisará el output de IA igual que cualquier otro contenido y lo contrastará con lo que prometes en el acuerdo de distribución (no infracción/ilegalidad y coherencia entre build y marketing). 
  • Transparencia de cara al usuario: en Steam ya existe un rastro visible de estas declaraciones (incluyendo etiquetas derivadas de la disclosure). SteamDB, por ejemplo, identifica juegos que han declarado IA generativa “en el producto o en marketing” a partir del texto requerido en la página. 
  • Riesgo reputacional: a medida que crece la sensibilidad del público, el “cómo” y el “dónde” uses IA generativa influye en percepción, reviews y conversación en redes. Que Valve acote el criterio a “si llega al juego o a su presentación” reduce incertidumbre, pero también hace más difícil esconderlo.

En el contexto de juegos competitivos y los esports, el apartado de IA generativa “durante gameplay” es especialmente delicado: cualquier sistema que produzca texto/imagen dinámicos puede afectar moderación, seguridad y, en algunos casos, integridad competitiva. La dirección de Valve parece clara: si el jugador lo ve o el juego lo genera en vivo, se declara y se controla