Chat GPT es cada vez más estúpido

  • Autor Autor mastertester
  • Fecha de inicio Fecha de inicio
M

mastertester

Beta
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
No hay forma de pulir prompts, siempre falla. Hay veces que parece que ya siempre va a funcionar bien una vez pules bien tu GPT, lo usas y vuelve a fallar. Y tienes que matizarle como un niño pequeño cómo volver a hacerlo, comete fallos completamente estúpidos

Ya cansa ya, hoy me ha arruinado el día del enfado que he cogido por haberme hecho perder parte de la mañana con algo que se suponia que habia pulido muy bien en instrucciones
 
Le hablas en inglés ó español?
 
No hay forma de pulir prompts, siempre falla. Hay veces que parece que ya siempre va a funcionar bien una vez pules bien tu GPT, lo usas y vuelve a fallar. Y tienes que matizarle como un niño pequeño cómo volver a hacerlo, comete fallos completamente estúpidos

Ya cansa ya, hoy me ha arruinado el día del enfado que he cogido por haberme hecho perder parte de la mañana con algo que se suponia que habia pulido muy bien en instrucciones
si, eso pasa, hay que tener paciencia
 
No hay forma de pulir prompts, siempre falla. Hay veces que parece que ya siempre va a funcionar bien una vez pules bien tu GPT, lo usas y vuelve a fallar. Y tienes que matizarle como un niño pequeño cómo volver a hacerlo, comete fallos completamente estúpidos

Ya cansa ya, hoy me ha arruinado el día del enfado que he cogido por haberme hecho perder parte de la mañana con algo que se suponia que habia pulido muy bien en instrucciones
Intenta con Claude o con Gemini.
 
Le hablas en inglés ó español?
Español pero yo creo que es indiferente; si fuera una web de crear videos con IA a lo mejor es mejor idea en inglés, pero chat gpt traduce mejor que google traductor; de inglés a español no hay mucha dificultad para esa IA.
si, eso pasa, hay que tener paciencia
Cada actualización destroza u olvida los GPTs almacenados y hay que crearlos de nuevo o ya no los hace bien con las instrucciones del anterior; y tienes que volver a crear otro con otras instrucciones diferentes. Se esfuerza poquisimo para no consumir recursos a un nivel que ya es irrisorio. Cada 120 palabras para y te pregunta ¿quieres que siga? Pues claro que quiero que sigas si aun te quedan 10 parrafos mas de 120 palabras y te dije que hagas todos y se detiene uno por uno.
 
Estás usando el de gratis? El de gratis tiene un retraso q da miedo.... el pago, funciona bien, pero siempre tienes dos caminos a seguir cuando algo no sale bien... o lo retas y le pides de manera poco amable q haga lo que le pediste, o intentas tener un buen trato y le explicas detalladamente de mil amores lo que necesitas.

Yo probe enojandome, hasta llegué a decirle.... "amigo... para responder esa estupides mejor no respondas nada" y probe tratarlo más q bien, explicándole las cosas q no le salían con más paciencia, desde otro punto de vista. Y sin duda alguna me funcionó más la segunda... tratarlo bien.

Lo más gracioso de todo... es que viendo en perspectiva.... el problema no es que la IA no funcione, funcione mal o sea media estupida.... el problema siempre fui y con un problema de comunicación... uno piensa q es como un amigo que piensa q ya lo entiende, lo conoce, y q se piensa q con una mirada el otro entiende todo... no... no funciona así.... es una máquina...

Pero algo q si me gustaría comentar... es que en una ocasión le pedí un papel legal y luego se lo di a una IA china, deepSeek, y para mi sorpresa, siendo una IA gratis, me dijo que ese escrito, dejaba dudas con respecto a un tema legal, y me lo corrigió dejando un archivo mucho mejor... y en ese punto, yo le pedía las cosas a chatgpt de mil amores y teniendo una relación de amor hermosa jajaj.

En fin... sabra dios... tenía ganas de hablar un rato... saludos!
 
Intenta con Claude o con Gemini.
Claude es muy malo, muy... Solo que no tiene tanta pereza como los demás, igual que su precio es 10 veces mas alto,
 
Cada 120 palabras para y te pregunta ¿quieres que siga? Pues claro que quiero que sigas si aun te quedan 10 parrafos mas de 120 palabras y te dije que hagas todos y se detiene uno por uno.

Ok, el problema allí es que es un chat amigo... cuando le pides cosas muy grandes, siempre se maneja mejor si le pides q cree un pdf en caso de texto, un excel en caso de planillas de calculos... te lo crea, y te pone el enlace de descarga... comprendes?
 
Creo que esta usando el gratis, como que 120 palabras wtf
 
Creo que esta usando el gratis, como que 120 palabras wtf
Ahhhh usa el gratis???? Olvidate... sin duda alguna te hará renegar... el pago funciona bien, pero el gratis nada q ver... a mi opinión personal, es malo... deja mucho que desear...

Si hablas de gratis DeepSeek es muy muy bueno...
 
Ahhhh usa el gratis???? Olvidate... sin duda alguna te hará renegar... el pago funciona bien, pero el gratis nada q ver... a mi opinión personal, es malo... deja mucho que desear...

Si hablas de gratis DeepSeek es muy muy bueno...
kimi k2 es muy bueno corrigiendo , superior a todos en correcion, incluso al GTP pro
 
Yo suelo delegarle algunas tareas y como me ha pasado lo que tu comentas en un momento le dije "si tuviera que pedirte lo que hacemos en formato de prompt, ¿como sería para poder retomar el hilo y evitar que me des respuestas muy variadas?" Y pues ChatGPT me contesto: "pídemelo de tal o cual manera" y esa instrucción la tengo en un Notepad++ cada tanto la uso, ya sea para un mismo chat o para una ventana nueva.

Últimamente también estoy usando Mistral AI, no pierde tanto el hilo como ChatGPT
 
Creo que esta usando el gratis, como que 120 palabras wtf
Utiilzo el de pago lógicamente, por eso mencioné mis GPTS; con el gratis no puedes crear gpts creo.

Lo de 120 palabras de normal no me lo hace pero hoy le dio por preguntarme si "deseas que siga con el resto de 10 parrafos cada uno de 120"...

Y si se te ocurre la mala idea de pedirle que en un mismo chat te genere 3 imagenes una tras otra, la primera la hace bien, la segunda ya toda mate color sepia con ruido y malos detalles, texto mal puesto, y la tercera ya parece un aborto
 
No hay forma de pulir prompts, siempre falla. Hay veces que parece que ya siempre va a funcionar bien una vez pules bien tu GPT, lo usas y vuelve a fallar. Y tienes que matizarle como un niño pequeño cómo volver a hacerlo, comete fallos completamente estúpidos

Ya cansa ya, hoy me ha arruinado el día del enfado que he cogido por haberme hecho perder parte de la mañana con algo que se suponia que habia pulido muy bien en instrucciones
Puedes hacer la denuncia legal correspondiente en contra de OpenAI. Asesórate con un abogado de confianza primero, y dependiendo de las leyes locales en tu país, procede a hacer una demanda por errores técnicos que han hecho perjuicio emocional contra tu persona.

Si no sabes cómo apelar correctamente, te sugiero que uses la última versión GPT-5 y no GPT-4 (anterior) para hacer un request más actualizado a tu caso.
 
Me he asesorado con un abogado en linea, y me ha respondido lo siguiente:

Contexto probable
  • Usuario frustrado por un asistente de IA (GPT u otro modelo) que no responde consistentemente a prompts pulidos.
  • Describe comportamiento errático: a veces funciona tras afinar instrucciones, pero luego vuelve a fallar sin motivo aparente; requiere recordatorios detallados; comete errores básicos.
  • Impacto emocional y práctico: pérdida de tiempo, enfado, sensación de retroceso tras trabajo previo en las instrucciones.
  • Escenario típico: uso repetido de prompts e instrucciones (system messages, few-shot examples o fine-tuning/parametrización) para tareas específicas (escritura, código, workflows) donde la calidad y la repetibilidad son críticas.

Causas posibles
  • Ambigüedad o falta de especificidad en el prompt o en las instrucciones persistentes.
  • Dependencia del contexto de la sesión: el modelo olvida o malinterpreta instrucciones previas dentro de la conversación.
  • Truncamiento de contexto por límite de tokens: información larga se pierde en respuestas largas.
  • Instrucciones contradictorias o ejemplos insuficientes/ruido en few-shot prompts.
  • Variabilidad inherente al modelo (temperatura/aleatoriedad), o cambios en parámetros de generación.
  • Estado de la sesión o mensajes del sistema no persistentes entre usos (si se esperan “memorias” y no existen).
  • Errores en el manejo del formato de entrada (marcadores, delimitadores, JSON mal formado).
  • Fallos humanos: asumir que “pulir” funcionó en todos los casos sin cubrir casos límite.
  • Posibles problemas técnicos (latencia, versiones del modelo, caché, problemas del proveedor) que producen comportamiento inconsistente.

Soluciones prácticas (rápidas y aplicables)
- Hacer prompts más estructurados y determinísticos:
- Usar instrucciones claras y paso a paso.
- Incluir formato de salida obligatorio (JSON, encabezados, etiquetas) y ejemplos exactos.
- Reducir variabilidad:
- Bajar la temperatura a 0–0.2 para respuestas más deterministas.
- Usar top_p bajo si se soporta.
- Mantener y reaplicar el “contexto” de forma robusta:
- Reenviar instrucciones del sistema y ejemplos clave en cada nueva sesión si no hay memoria persistente.
- Empezar la conversación con un bloque fijo: objetivo, reglas, formato, ejemplos.
- Comprobaciones y validación automática:
- Pedir confirmación del modelo (“¿Voy a devolver X en formato Y? Responde SÍ o NO.”).
- Validar la salida con un parser y reglas; si falla, pedir reintento automático indicando el error exacto.
- Manejo de longitudes de contexto:
- Priorizar y resumir contexto largo automáticamente antes de enviarlo.
- Mantener solo las instrucciones esenciales y ejemplos representativos.
- Aislar y probar casos límite:
- Crear tests de regresión (prompts de control) y ejecutarlos cada vez que ajustes el prompt.
- Registrar entradas/ salidas problemáticas para iterar.
- Evitar contradicciones:
- Revisar prompts y ejemplos para coherencia interna.
- Reforzar mediante few-shot bien elegidos:
- Incluir 3–5 ejemplos variados: casos típicos, excepciones y errores esperados con la respuesta correcta.
- Automatizar recuperación:
- Si la respuesta no cumple criterios, usar un bucle que pida “corrige esto” indicando exactamente qué parte está mal.
- Documentación y plantillas:
- Mantener plantillas de prompts probadas y changelog de cambios.

Soluciones técnicas avanzadas
  • Fine-tuning o instructions tuning (si disponible) para comportamientos constantes.
  • Usar un orquestador: preprocesador que normalice entradas, envíe prompts y postprocese/resuelva inconsistencias automáticamente.
  • Envolver al modelo en un verificador (otro modelo o reglas) que supervise salida y la corrija.
  • Persistencia de “memoria” o contexto por app (almacenar instrucciones y reinyectarlas en cada sesión).
  • Monitorización y rollback por versiones de prompt; A/B testing de plantillas.
  • Si es fallo del proveedor: contactar soporte, probar otra versión del modelo o endpoint.

Ejemplo breve de plantilla robusta (esquema)
  • Objetivo: "Transforma esto en X".
  • Reglas: lista numerada de restricciones (tono, longitud, no inventar datos).
  • Formato de salida: especificar JSON/encabezados/etiquetas.
  • Ejemplos: 3 pares entrada–salida.
  • Validación: instrucciones para auto-verificación y acciones en caso de fallo.

Recomendaciones de uso inmediato
- Bajar temperatura; forzar formato de salida; añadir validación automática; conservar plantilla fija y reutilizable; crear tests de control; documentar fallos para iterar.

Gracias, Atte. La Gerencia.
 
Gracias a los hacks del Foro estoy usando el GPT 5 pro y el Gemini Pro, y en verdad para crear textos y historias para youTube guiones con sentido y dándole contexto ChatGPT, para programar Vibecoding Gemini me responde mejor. Deep Research Chat GPT.
 
Utiilzo el de pago lógicamente, por eso mencioné mis GPTS; con el gratis no puedes crear gpts creo.

Lo de 120 palabras de normal no me lo hace pero hoy le dio por preguntarme si "deseas que siga con el resto de 10 parrafos cada uno de 120"...

Y si se te ocurre la mala idea de pedirle que en un mismo chat te genere 3 imagenes una tras otra, la primera la hace bien, la segunda ya toda mate color sepia con ruido y malos detalles, texto mal puesto, y la tercera ya parece un aborto
Entiendo lo que pasa, tienes que entender que GTP tiene peresa, limite tokes para reducir costos, trabaja con tareas de 120 palabras ya agentes sera tu unica solucion para tratabarj como una entidad mas inteligente.
 
Corrigiendo codigo? Usa tus datos para entrenar a sus modelos o hay opcion para desactivar esto?
Todos usan tus datos asi digan que no lo usan, si ves lo que no lo usan directamente siempre lo usan de alguna forma.


Igual no creas que tu codigo es superior, se tiene que usar para depurar a otras IA, si tu no le das datos otro se lo daras, el punto que saquemos dinero lo mas rapido posible.
 
Atrás
Arriba