OpenAI ha lanciato Flex Processing, una nuova opzione dell’API pensata per chi deve gestire workload a bassa priorità e può tollerare latenza più elevata o momentanee indisponibilità: in cambio ottiene un taglio immediato del 50% sui costi di calcolo.
In beta per i modelli o3 e o4‑mini, Flex Processing è ideale per attività non critiche come test di benchmark e lavori asincroni. Su o3 la tariffa scende a 5 dollari per milione di token in input e 20 dollari in output; su o4‑mini cala a 55 centesimi in input e 2,20 dollari in output.
Flex Processing consente a imprenditori, CTO e marketer data-driven di ottimizzare la spesa: i task “lenti ma indispensabili” possono passare su Flex, mentre i flussi real‑time restano sul piano standard.
OpenAI ridisegna la propria line‑up di modelli
La società lancia o3, o4-mini e o4-mini-high, presenta le API…
