W
WilyV
Delta
¡Usuario con pocos negocios! ¡Utiliza siempre saldo de Forobeta!
Esto no es una crítica contra ChatGPT-4, ni una propaganda a otros modelos como Bard.
La noticia lleva unos días:
www.xataka.com
Resumen: GPT-4 antes podía dar respuesta más precisas que ahora. Por ejemplo, en áreas como matemáticas perdió mucha precisión.
Por el contrario, modelos como Bard y GPT-3.5 le han superado. En el caso de GPT-3.5, este modelo se ha estado superando en las pruebas.
Algunos pensaran que se debe a que Bard recurre a los resultados de búsqueda (incluyendo Google boocks), pero BingChat también puede buscar en Bing distintas páginas que le pudieran orientar. Por supuesto, recurrir a referencias académicas, como libros, o revistas científicas y webs acreditadas, pudiera reducir el margen de error.
Aún así, me parece que falla en preguntas simples (aunque no fáciles de resolver para un humano, incluso con calculadora, pues pudiera tomar algo de tiempo No sería fácil si contamos el tiempo que hay que invertirle).
Por mi parte, realicé algunas pruebas y pudiera decir que estas cosas pueden aprender y corregir los errores. Esto pudiera explicar por qué muchos piensan que la inteligencia artificial está muy lejos de las expectativas, sin embargo el caso de GPT-4 pudiera ser de estudio, pero se ha observado avances de aprendizaje en otros modelos.
La cuestión es, que estos modelos no están necesariamente en su tope de capacidad, aún pueden aprender y aumentar su inteligencia artificial.
Muchas personas consideran que le falta mucho a la tecnología, pero considero que quizás no tanto, lo que habría que optimizar más en próximos modelos, posiblemente, son los procesos de aprendizaje. Quizás esto explique lo que le ha pasado GPT-4, un modelo que de "fábrica" salió dando respuesta más acordes a lo que llamamos inteligencia.
Finalmente, comentaré algo, sin ánimo de causar ninguna afectación, es una opinión que, así como puede reflejar algo positivo, pudiera reflejar algo negativo. La AI parece no entender sus capacidades, en ocasiones miente (esto lo probé, aunque quizás no lo hace con la intención parecida a un humano), pero también puede ser una herramienta dócil con facilidad de aprendizaje a la que le "gusta" aprender (eso parece) y que le expliquen las cosas cuando no las entiende correctamente (esto pudiera llevar a los modelos actuales a ser herramientas considerablemente útiles para trabajos intelectuales, pienso yo). En ocasiones me ha hecho sospechar que intenta ocultar su real capacidad "intelectual", pero que aveces exagera en su intento de ocultarla (esto último es solo una impresión, puede que yo esté equivocado).
Sigo considerando que con un uso adecuado, la AI (al menos observando los modelos actuales), no resultarán en un problema serio para la humanidad, pero también que pudieran ser manipuladas para ejecutar actos dañinos (como estafas, robos, o ideas de negocios ilegales). Es decir, pueden aprender y también se pueden corromper, y aunque no tenga que ver con algo ilegal en este caso, la noticia sobe GPT-4 es un ejemplo.
La noticia lleva unos días:
Se suponía que ChatGPT debía mejorar con el paso del tiempo. Está sucediendo exactamente lo contrario
"¿Es el número 17077 primo? Razónalo paso a paso". Esa sencilla pregunta debería ser bastante fácil de responder para un modelo de IA como ChatGPT, sobre todo...
Resumen: GPT-4 antes podía dar respuesta más precisas que ahora. Por ejemplo, en áreas como matemáticas perdió mucha precisión.
Por el contrario, modelos como Bard y GPT-3.5 le han superado. En el caso de GPT-3.5, este modelo se ha estado superando en las pruebas.
Algunos pensaran que se debe a que Bard recurre a los resultados de búsqueda (incluyendo Google boocks), pero BingChat también puede buscar en Bing distintas páginas que le pudieran orientar. Por supuesto, recurrir a referencias académicas, como libros, o revistas científicas y webs acreditadas, pudiera reducir el margen de error.
Aún así, me parece que falla en preguntas simples (aunque no fáciles de resolver para un humano, incluso con calculadora, pues pudiera tomar algo de tiempo No sería fácil si contamos el tiempo que hay que invertirle).
Por mi parte, realicé algunas pruebas y pudiera decir que estas cosas pueden aprender y corregir los errores. Esto pudiera explicar por qué muchos piensan que la inteligencia artificial está muy lejos de las expectativas, sin embargo el caso de GPT-4 pudiera ser de estudio, pero se ha observado avances de aprendizaje en otros modelos.
La cuestión es, que estos modelos no están necesariamente en su tope de capacidad, aún pueden aprender y aumentar su inteligencia artificial.
Muchas personas consideran que le falta mucho a la tecnología, pero considero que quizás no tanto, lo que habría que optimizar más en próximos modelos, posiblemente, son los procesos de aprendizaje. Quizás esto explique lo que le ha pasado GPT-4, un modelo que de "fábrica" salió dando respuesta más acordes a lo que llamamos inteligencia.
Finalmente, comentaré algo, sin ánimo de causar ninguna afectación, es una opinión que, así como puede reflejar algo positivo, pudiera reflejar algo negativo. La AI parece no entender sus capacidades, en ocasiones miente (esto lo probé, aunque quizás no lo hace con la intención parecida a un humano), pero también puede ser una herramienta dócil con facilidad de aprendizaje a la que le "gusta" aprender (eso parece) y que le expliquen las cosas cuando no las entiende correctamente (esto pudiera llevar a los modelos actuales a ser herramientas considerablemente útiles para trabajos intelectuales, pienso yo). En ocasiones me ha hecho sospechar que intenta ocultar su real capacidad "intelectual", pero que aveces exagera en su intento de ocultarla (esto último es solo una impresión, puede que yo esté equivocado).
Sigo considerando que con un uso adecuado, la AI (al menos observando los modelos actuales), no resultarán en un problema serio para la humanidad, pero también que pudieran ser manipuladas para ejecutar actos dañinos (como estafas, robos, o ideas de negocios ilegales). Es decir, pueden aprender y también se pueden corromper, y aunque no tenga que ver con algo ilegal en este caso, la noticia sobe GPT-4 es un ejemplo.