
ARTDEPARTMENT

Hace unos días conocimos cuál es la principal competencia en el mercado para ChatGPT y de cualquier otro chatbot que conocemos: desde China llegó DeepSeek con muchas sorpresas. Entre ellas, su maniquí de código extenso u Open Source.
Adicionalmente de la novedad presentación desde China, OpenAI anunció el tiro de su nuevo maniquí, llamado o3-mini, hace unos días y, para presentarlo, varios directivos de la empresa decidieron replicar cualquier duda a los seguidores de la empresa en el foro Reddit. Y una de las respuestas ha llamado especialmente la atención entre los amantes de software.

Se llevó a cabo un Ask Me Anything (AMA o pregúntame lo que quieras, anunciado previamente en su perfil de X) que no le viene cero mal ahora mismo al CEO de OpenAI, Sam Altman para acercarse a su conocido.
El líder está envuelto en una gran polémica justo y de acusaciones públicas con Elon Musk (que ha yeguada mucho poder en la esfera política de Estados Unidos) sobre si le mintió durante la creación de la empresa, además con Meta y con antiguos directivos, creadores y trabajadores de la empresa que se fueron yendo, poco a poco, con quejas abiertas a OpenAI.
En una de las preguntas que le hicieron a Altman le consultan si consideraría divulgar algunos modelos y algunas investigaciones. Y la respuesta del CEO de OpenAI es que, unido a su equipo, lo están discutiendo.
Y afirmó que "personalmente creo que hemos estado en el banda desacertado de la historia y necesitamos encontrar una logística diferente de código extenso; No todos en OpenAI comparten esta opinión y siquiera es nuestra máxima prioridad coetáneo".

Al mismo tiempo, tal y como recuerda Xataka, OpenAI tiene poco de "extenso" y que aunque en sus inicios, GPT-1 y GPT-2 presentaban más transparencia y permitían a la comunidad beneficiarse de ellos, con GPT-3 y sucesivos modelos casi no hubo información de detalles técnicos para evitar que los competidores accedieran a esa información. De hecho, en Genbeta publicamos un estudio hecho al respecto.
Hay que memorar, como ya recogimos en Genbeta, en febrero de 2019, OpenAI anunció el lanzamiento de GPT-2, un 'maniquí de jerga', que aseguraba que era capaz de producir textos tan convincentes que "podría ser utilizada para la desinformación o la propaganda", razón por la que sólo iban a poner a disposición del conocido una lectura mutilada de la misma (de 117 millones de parámetros, frente a los 1.500 millones del maniquí completo).
Vía | Xataka
Imagen | Foto de Den Evstratov en Unsplash
En Genbeta | Convencieron a un chatbot open source de que era ChatGPT… e inmediatamente mejoró un 6% su rendimiento
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!