Mi opinión: tengo un canal totalmente limpio, sin palabras relacionadas con nada ofensivo ni "odioso" y he llegado a la conclusión de que muchas detecciones automáticas se basan en las imágenes. Creo que Youtube trabaja para detectar contenidos en las propias imágenes de los vídeos, y por ahora se producen muchos errores. Por ejemplo si envías un vídeo con simplemente una silueta (hombre o mujer) de color carne, youtube va a detectarlo por sistema como sexual o erótico, hasta que la revisión manual decida si lo es o no. Me ha pasado con vídeos absolutamente limpios pero que en algún momento hay imágenes que pueden confundirse con desnudos, bikinis, etc. simplemente por el color.
Y por el lado de las palabras, si usas una palabra, por ejemplo Irak, Siria, Unión Soviética, cosas así, automáticamente lo detectan como material bélico o polémico, hasta que la revisión manual lo vea. Y así en un montón de campos más (palabras ofensivas, insultos, palabras sexuales, palabras discriminatorias, etc). Por ejemplo si usas en el título "orgasmo de fútbol" para un vídeo de fútbol, automáticamente te lo van a poner en cuarentena.
Al final nos van a obligar a subir sólo vídeos que puedan ser vistos por un público infantil exclusivamente, ya veréis.