Motor de IA de código abierto:
Incluye modelos como gpt-oss-120b y gpt-oss-20b, destacados en tareas exigentes como programación, cálculos y análisis, completamente personalizables.
Chat History
No chat history yet. Start a new conversation!
Desata tu creatividad con GPT-OSS de OpenAI: accesible, rápido y completamente personalizable.

¡Hola! ¿En qué puedo ayudarte?
GPT-OSS es la nueva línea de modelos de OpenAI con pesos abiertos, la primera oferta de código abierto desde GPT-2. Utiliza un enfoque Mixture-of-Experts (MoE) para lograr alta eficiencia con menor activación de parámetros.
Incluye modelos como gpt-oss-120b y gpt-oss-20b, destacados en tareas exigentes como programación, cálculos y análisis, completamente personalizables.
Optimizado para dispositivos cotidianos como portátiles y tarjetas gráficas, ofreciendo acceso a IA profesional sin depender de servidores externos.
Distribuido bajo licencia Apache 2.0, facilita ajustes, mejoras e implementación en diversos escenarios, desde proyectos personales hasta grandes infraestructuras.
Reduce el consumo de recursos sin sacrificar el razonamiento avanzado, lo que acelera la ejecución en equipos convencionales.
Permite la ejecución en computadoras personales y GPUs de consumo, ofreciendo interacciones seguras e inmediatas de IA, sin depender de conexiones en línea.
Ofrece una capacidad de 128K tokens, ejecución de scripts y búsqueda en línea para potenciar aplicaciones prácticas.
Diseño Mixture-of-Experts (MoE) Utiliza MoE para activar solo los elementos esenciales, ofreciendo razonamiento optimizado y premium comparable a sistemas cerrados como o4-mini.
Procesamiento a Nivel de Dispositivo Ejecuta gpt-oss-20b en notebooks o tarjetas gráficas convencionales para un manejo rápido y confidencial de IA, sin gastos ni retrasos externos.
Pensamiento Complejo Paso a Paso Destaca en operaciones secuenciales, compilando ideas para resultados precisos en desarrollo, ecuaciones y deducción.
Mejoras Integradas Incluye características como la ejecución de código y consultas en internet, mejorando la eficiencia en situaciones dinámicas.
Flexibilidad de Ajustes La licencia Apache 2.0 permite ajustes fáciles para áreas específicas, desde estudios hasta herramientas corporativas.
Capacidad de Entrada de 128K Tokens Gestiona datos a gran escala para diálogos y evaluaciones complejas, manteniendo la consistencia.
Incorpora GPT-OSS en entornos de programación para la creación instantánea de scripts, corrección de errores y mejoras, acelerando las iniciativas tecnológicas.
Aprovecha su capacidad analítica para formular teorías, revisar datos y modelar ensayos en campos como ciencias de la vida y mecánica.
Diseña agentes o asistentes digitales personalizados que funcionen sin conexión para actividades seguras como planificación o educación.
| Característica/Modelo | GPT-OSS (120b/20b) | Meta Llama 3 | Modelos de IA de Mistral | DeepSeek V2 |
|---|---|---|---|---|
| Architecture | MoE for optimization | Standard Transformer | MoE options | MoE with refinements |
| Reasoning Capability | Close to top benchmarks like MMLU, superior in sequential logic | Solid yet behind in intricate chains | Effective for languages, weaker in core analysis | Strong in scripting, prone to inaccuracies |
| On-Device Support | Tuned for notebooks/GPUs (20b on basic setups) | Demands ample memory | Resource-friendly but scope-restricted | Requires premium hardware |
| Context Length | 128K tokens | Up to 128K in bigger versions | Differs, max 32K | Up to 128K |
Configurar GPT-OSS es fácil. Aquí tienes una guía para hacerlo en tu dispositivo:
Visita el sitio de OpenAI o Hugging Face para obtener los archivos de gpt-oss-20b o 120b. Asegúrate de que tu configuración se ajuste a las especificaciones (por ejemplo, GPU de 80GB para el modelo 120b).
Usa Ollama, Hugging Face Transformers (v4.55+) o LM Studio para instalar rápidamente. Usa pip install transformers si es necesario.
Inicia con algo como ollama run gpt-oss-20b y comienza a interactuar a través de la API o la interfaz de usuario.
Conecta con tu aplicación usando interfaces estilo OpenAI, o personaliza con datos únicos para aplicaciones específicas.

FlintSH
@xFlintSHx
La serie gpt-oss es increíble. Creo que ahora realmente estoy convencido de que la IA local puede ser excelente. Los modelos anteriores me decepcionaron. Deepseek fue bueno, pero incoherente (según mi experiencia). El rendimiento del modelo 20b es impresionante y es ideal para el 99.99% de las personas.

Engineer Faisal
@PyeparFaisal
Claro que los nuevos GPT-OSS son gratuitos y pueden ejecutarse en tu portátil... Estamos a punto de vivir una nueva era de minería de datos a nivel extremo 😅. Un pequeño paso para la humanidad, un ENORME bucle para la IA.

Logan Campbell
@LoganAMCampbell
El nuevo modelo GPT-OSS 20b es increíble, pero al menos en una MacBook M3 base, funciona extremadamente lento y no es funcional en la práctica. Solo procesa 1.17 tokens/seg. Dicen que puede ejecutarse en 'la mayoría de portátiles', pero en su estado actual, es demasiado lento.

Kevin Kern
@kregenrek
Probé GPT-OSS tanto en Cursor como en Cline. (Primeras impresiones) La función de llamadas a herramientas no dio resultados. En modo de preguntas, responde increíblemente rápido, pero solo 1 de cada 3 peticiones se completan. Se topa con los mismos errores de API o se queda atrapado en bucles infinitos. En general, por ahora no me aporta ningún valor. Aun así, me alegra que OpenAI esté lanzando modelos con pesos abiertos.

Theo - t3.gg
@theo
Según OpenAI, el nuevo formato de respuesta ('Harmony') no debería preocuparte si usas un proveedor de API o herramientas como Ollama. En mi experiencia, ambos modelos GPT-OSS son MUY deficientes al usar herramientas. ¿La implementación varía según el proveedor?

BB
@builder__babu
GPT-OSS — Primeras impresiones: bien que alcanzó un límite y no pudo continuar desde ahí, lo normal, supongo. Me encantó cómo seguía razonando mientras trataba de entender lo que necesitaba... durante unos 35 segundos.