El avance de la inteligencia artificial ha proporcionado diversas aplicaciones prácticas, y los generadores de IA se están volviendo cada vez más populares, desde la creación de imágenes hasta respuestas a consultas de búsqueda.
Ahora, Google está solicitando a los desarrolladores de aplicaciones que sean más cautelosos al utilizar este tipo de IA con el fin de moderar su impacto en internet.
Karina Newton, directora sénior de políticas de productos globales de Android, publicó que los desarrolladores ahora deben informar o señalar cualquier contenido potencialmente ofensivo generado por la IA. El objetivo principal es mejorar la filtración y moderación de contenido.

«A principios del próximo año, exigiremos a los desarrolladores que brinden la posibilidad de informar o marcar contenido ofensivo generado por IA sin tener que salir de la aplicación. Debe utilizar estos informes para informar sobre el filtrado y la moderación de contenido en sus aplicaciones, similar al sistema de informes en la aplicación requerido hoy en día según nuestras políticas de contenido generado por el usuario».
La política de Google para contenido generado por IA en aplicaciones enviadas a la Google Play Store actualmente se aplica a productos finales de aplicaciones de texto a texto, texto a imagen, voz a imagen e imagen a imagen.
Esto también incluye grabaciones de voz y video creadas por aplicaciones que utilizan IA. Sin embargo, las aplicaciones y juegos que no utilizan IA para generar contenido están exentos de esta política, incluso si utilizan medios creados por IA.
Las aplicaciones de productividad que se basan en IA tampoco entran en esta categoría, al igual que aquellas que resumen contenido no generado por IA.
Otros cambios incluyen restricciones en el acceso de aplicaciones a fotos y videos, a menos que sea necesario para la funcionalidad de la aplicación, y limitaciones relacionadas con notificaciones en pantalla completa.