uhmmm no entiendo mucho respecto a lo que me mencionas, podrias explicarme pleaseee :$
Claro.
El contenido de los sitios web, puede ser proveído de dos formas, por humanos, o puede estar automatizado para que lo provean otros ordenadores.
Suponte en un blog donde tienes un panel tipo Microsoft Word, en donde redactas cierto artículo. O en tu caso en un panel en donde agregas una nueva película. Eso lo puede hacer un algoritmo que funciona dentro de un computador sin supervición humana.
El contenido tambien puede ser extraido por personas, pero son muchas películas, muchas fotos, etc, una persona requeriría mucho tiempo. Por eso es que algunos le delegamos ésta tarea a los algoritmos, ésto se llama
automatizar el trabajo.
Cuando las extracciones son realizadas por algoritmos, hablamos de algoritmos dedicados al
scraping web, o sea que recolectan datos desde internet.
La conclusión:
Tu contenido debe permitir que los usuarios lo consuman, pero, no le debe dar facilidad a alguien para que automatize una extracción de el, usando un algoritmo de scraping (o algoritmo extractor). Con la cantidad de artículos que tienes, alguien con un sitio funcionando, podría agregar todas las pelis, series, etc, que hallas subido a su sitio en cuestión de minutos.