A
Akatzia
No recomendado
Verificado por Whatsapp
¡Ha verificado su Paypal!
Verificado por Binance
¡Usuario popular!
Estoy pensando montar una plataforma de interacción social, pero me surge una duda, ya que al ser contenido generado pro usuarios y pienso monetizarla, requiero un proceso de reporte y estoy planeando 3:
1. Contenido revisado manualmente: Es la forma común de reporte, tú reportas algo, la plataforma lo pasa a "revisión" y alguien, ya sea una IA o humano, decide si eliminarla o mantenerla
2. Contenido suprimido en base a reportes: En esta forma, he pensado que al alcanzar equis número de reportes, el contenido se elimine automáticamente o hacer un % entre reportes y acciones en la publicación (aunque creo costará mucho en programación)
3. Contenido intermediado: Es una mezcla de ambos, el contenido solo pasará a moderación cuando hay un número equis de reportes
He llegado a pensar en esa forma de moderación por el tal llamado "políticamente correcto"
Entonces no quiero que se enciendan contra la plataforma por permitir ciertas cosas, pero tampoco quiero darles por su lado a la gente con ideas locas o extremistas xD
Tampoco confío en el buen juicio de quien ponga a supervisar, por ejemplo, tal vez el post esté dando su punto de vista sobre temas de feminismo a modo polémico pero no insultando, y quién revise, resulta ser alguien con pensamientos de feminismo extremo y decide eliminarlo
En cuanto a gastos, creo que la 2 aumentaría el costo en la creación, pero disminuiría el costo de personal, aunque siempre existe el complot para reportar una publicación
Entonces ¿Cuál sería la más viable para ustedes?
1. Contenido revisado manualmente: Es la forma común de reporte, tú reportas algo, la plataforma lo pasa a "revisión" y alguien, ya sea una IA o humano, decide si eliminarla o mantenerla
2. Contenido suprimido en base a reportes: En esta forma, he pensado que al alcanzar equis número de reportes, el contenido se elimine automáticamente o hacer un % entre reportes y acciones en la publicación (aunque creo costará mucho en programación)
3. Contenido intermediado: Es una mezcla de ambos, el contenido solo pasará a moderación cuando hay un número equis de reportes
He llegado a pensar en esa forma de moderación por el tal llamado "políticamente correcto"
Entonces no quiero que se enciendan contra la plataforma por permitir ciertas cosas, pero tampoco quiero darles por su lado a la gente con ideas locas o extremistas xD
Tampoco confío en el buen juicio de quien ponga a supervisar, por ejemplo, tal vez el post esté dando su punto de vista sobre temas de feminismo a modo polémico pero no insultando, y quién revise, resulta ser alguien con pensamientos de feminismo extremo y decide eliminarlo
En cuanto a gastos, creo que la 2 aumentaría el costo en la creación, pero disminuiría el costo de personal, aunque siempre existe el complot para reportar una publicación
Entonces ¿Cuál sería la más viable para ustedes?