En primer lugar, tené en cuenta que bloquear al googlebot desde robots.txt no
necesariamente lo frena, como sí lo hace la etiqueta meta robots con noindex. Entonces, si el objetivo es desindexar esas URL, lo ideal es hacerlo de esa forma (con meta robots). Más info:
https://support.google.com/webmasters/answer/93708?hl=es&ref_topic=2370588
"Es importante que tengas en cuenta que, incluso si utilizas un archivo robots.txt para impedir que las arañas rastreen contenido de tu sitio, Google podría descubrir ese contenido de otras formas y añadirlo al índice. Por ejemplo, es posible que otros sitios sigan incluyendo enlaces a ese sitio."
Aclarado eso, no siempre lo ideal es desindexar, en muchos casos canonicalizar es más productivo porque se unifica la relevancia de distintas páginas generadas en una sóla.
En este sentido no hay una regla general, los carros de compras y los sitios con navegación por filtros son complejos y dependiendo del caso es mejor desindexar mucho, poco, nada, canonicalizar, u otras alternativas.
Te recomiendo que leas esto:
4 Protips: Optimizing Faceted Navigation For SEO
Si ya tenés un tráfico de buscadores más o menos decente, usá Analytics de guía para asegurarte de no desindexar nada que esté posicionando, muchas veces páginas con filtros aplicados posicionan bien y al aplicar una regla general se bloquea a Google, perdiendo ese tráfico.