Si le metes un bloqueo por robots.txt a URLs que ya están indexadas, probablemente no desaparecerán todas del buscador (sobre todo si alguna de ellas tiene enlaces entrantes). Es mejor tener bien los index y no index. Luego ya puedes (opcionalmente) toquetear tu robots.txt para optimizar el presupuesto de rastreo, pero mucho ojo con esto.
Creo que estás utilizando Rank Math. Lo primero y más directo es que entres en los menús de Rank Math y revises qué contenidos tienes en index y no deberían estarlo (y los cambies a no index, claro).
Lo segundo que puedes hacer, para asegurarte de que no te dejas nada, es entrar en tu Search Console y tomarte un tiempo para revisar una a una qué URLs estás indexadas. Hazte una lista de las que sobran y luego ordénala, agrupando URLs similares. Con eso podrás sacar conclusiones. Habrá URLs a las que tal vez les tengas que poner en no index de forma manual (tipo página de términos y condiciones y cosas así).