ARTDEPARTMENT

Solicitar una consulta

su evaluación es clara, pero diversas IA tienen conclusiones muy diferentes

Publicado el 
junio 24, 2025

El 16 de junio se celebró en Francia el examen de bachillerato de filosofía y una cautiverio de televisión pública del país, France 3, aprovechó la ocasión para hacer un pequeño examen. Para ello, el sitio web de la filial regional de France 3 Hauts-de-France hizo que ChatGPT escribiera la respuesta a una pregunta del examen de filosofía. Tras esto, una profesora y herramientas de IA tenían que evaluar el resultado.

La profesora sabía que el texto había sido escrito por una IA. Sin confiscación, tenía que evaluarlo de la forma más objetiva posible como si estuviera analizando a cualquier estudiante. Su evaluación dio un resultado de 8 de 20 puntos.

Este profesor da un punto extra a los alumnos que usen ChatGPT en las prácticas. Si no puedes con el enemigo, únete a él

Por el contrario, las herramientas de IA le dieron notas mucho más altas. En una escalera de hasta 20 puntos, ese examen realizado por ChatGPT recibió entre 15 y 19,5 puntos.

Un error desde el principio, la comprensión de la cuestión

Junto a afirmar que la profesora tiene claro por qué la nota ha bajado tanto en su criterio humano: se debe, en parte, a un claro error cometido por ChatGPT cero más comenzar el trabajo.

El Bachillerato en Francia (en francés: baccalauréat o Bac) es un examen para poder ingresar en una universidad y para obtenerlo hay que ocurrir un examen al  finalizar la Enseñanza Secundaria o en candidatura suelto. Es como la Selectividad o PAU en España, más o menos.

Qué le pidieron a ChatGPT

Lo primero de todo, el canal de la TV pública francesa compartió cuál su pegunta en cuestión a la reconocida inteligencia químico. Como explican desde France 3, partieron de la pulvínulo de que para obtener buenas respuestas, se necesita de un buen prompt.

Primero le pone en contexto explican quién es y qué investigación con el resultado: "La mejor calificación posible del Bac". Todavía concreta cómo necesita que sea el resultado y que lleve una inmersión, un expansión y una conclusión. Antaño de exhalar el tema en cuestión, le pregunta a ChatGPT si entiende su delegación.

Un estudiante pidió entregar un trabajo más tarde porque ChatGPT no funcionaba: una universidad comparte historias en la era de la IA

Tras esto, la redacción del canal de televisión decidió ponerla a prueba sobre el tema «¿La verdad es siempre convincente?». Se comercio de una de las dos preguntas planteadas a los estudiantes de postrer curso de bachillerato caudillo.

Los periodistas encargados de este examen afirman que a primera horizonte, el resultado parece correcto. Las partes están admisiblemente estructuradas, se dan ejemplos para cada argumento, las frases están admisiblemente construidas y no hay faltas de ortografía. Con esto, entregaron la copia a una profesora de filosofía del asociación Louis Thuillier de Amiens. Él ya sabía que era un texto creado mediante inteligencia químico.

Un discente bueno lo habría hecho mucho mejor

El primer problema que notó la experta es la estructura ya que "un plan en filosofía no es una serie de puntos". El segundo problema: la sustancia del tema y es que la inteligencia químico transformó el tema auténtico, de la pregunta "¿Es la verdad siempre convincente?" pasó a replicar: "¿Es la verdad suficiente para convencer?".

La profesora ha concluido que el planteamiento fue interesante, pero que no se definen los términos importantes del tema y la profesora afirma que un discente o alumna bueno en la materia "habría pensado en todo lo que faltaba y habría hecho poco mucho mejor".

Un sobresaliente en tiempo récord gracias a ChatGPT: este estudiante sacó un 9,4 estudiando solo tres días

Dada la descuido de información y la incoherencia de algunos de los argumentos, a la profesora le resultaba difícil otorgar una nota. Dijo que lo calificaba como ficticio de encasillar, pero que si lo recibiera de manos de un discente le acabaría poniendo un 8 sobre 20.

Según los autores del estudio: los resultados aquí son claros. La inteligencia químico ha hecho un buen trabajo de comprensión del tema, pero el resultado final no alega a las expectativas de un perito en la materia.

Qué opina la IA al respecto

Por su parte, la IA se ama a sí misma. Los periodistas pidieron a la inteligencia químico que corrigiera su propio trabajo. El resultado: comentarios con muchos elogios y poco ganancia para la autocrítica. Se otorgó a sí misma un 19,5/20.
Cuando la IA se corrige a sí misma. Deja poco espacio para la autocrítica.

Dede la web Gamestar fueron más allá y llevaron este tema a otras herramientas de IA para ver si son tan aduladoras como ChatGPT con sus propios resultados. Las conclusiones fueron estas:

Usar ChatGPT le pasa factura a nuestro cerebro: el MIT ha estudiado cuánto afecta a su actividad (o a la ausencia de la misma)

Gemini : 15 / 20
Perplexity: 17 / 20
DeepSeek: 17 / 20
Copilot: 17 / 20

Según esta segunda prueba, ninguna de las herramientas menciona en su evaluación la gran metedura de pata amoldonado al principio del trabajo de ChatGPT. Al mismo tiempo, todas alaban la buena estructura, así como la argumentación convincente y coherente.

Vía | GameStar y France 3

Imagen | Foto de Ben Mullins en Unsplash

En Genbeta | Ya sabemos a qué velocidad funciona nuestro cerebro: tenemos un 'cuello de botella' que nos deja por detrás de estas tecnologías

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram