
Nowe modele GPT-4.1 od OpenAI
OpenAI zaprezentowało trzy nowe modele sztucznej inteligencji z rodziny GPT-4.1, wyposażone w kontekst o pojemności aż miliona tokenów. Pozwala to na przetwarzanie całych baz kodu lub krótkich powieści za jednym razem. W skład zestawu wchodzą wersje GPT-4.1 Standard, Mini oraz Nano, skierowane głównie do środowisk deweloperskich.
Znacząca poprawa efektywności modeli
W porównaniu do wcześniejszego GPT-4o, nowy GPT-4.1 osiąga 55% skuteczności w teście SWEBench, co oznacza znaczny wzrost względem 33% poprzednika. Dodatkowo, nowy model jest tańszy w użyciu o 26%. Szczególne zainteresowanie budzi wersja Nano, która za zaledwie 12 centów za milion tokenów zapewnia najszybsze i najtańsze działanie spośród dotychczasowych modeli.
Brak opłat za wykorzystanie długiego kontekstu
Wszystkie warianty GPT-4.1 oferują pełne wykorzystanie miliona tokenów bez dodatkowych opłat. Firma podkreśliła, że nie przewiduje żadnych podwyżek cen za przetwarzanie długich dokumentów. Dzięki temu możliwe jest np. analizowanie dużych zbiorów danych lub materiałów edukacyjnych bez ograniczeń kontekstowych.
Demonstracja praktycznego zastosowania
Podczas prezentacji GPT-4.1 zaprezentowano jego możliwości w czasie rzeczywistym. Model wygenerował kompletną aplikację internetową analizującą 450 000-tokenowy plik logów NASA z 1995 roku. Według OpenAI, model osiąga niemal stuprocentową dokładność nawet przy maksymalnym wykorzystaniu kontekstu.
Lepsze rozumienie instrukcji
GPT-4.1 wyróżnia się także znacznie lepszym przestrzeganiem poleceń użytkownika. Model skrupulatnie przestrzega formatowania i struktury instrukcji, eliminując wcześniejsze problemy z „twórczym interpretowaniem” poleceń, co ma istotne znaczenie dla edukacji i zastosowań technicznych.
Chaos w systemie nazewnictwa modeli
Pomimo wysokiej jakości nowych modeli, polityka nazewnictwa OpenAI budzi konsternację. Wprowadzenie GPT-4.1 po GPT-4.5 wywołało porównania do nieuporządkowanej chronologii filmów Star Wars. Kolejne wersje, takie jak GPT-4o, o1 i o3, potęgują dezorientację użytkowników.
Nazewnictwo, które przeczy logice
Model GPT-4o był „normalnym” LLM, natomiast OpenAI o1 skupiał się na rozumowaniu. Mimo to, następnym krokiem była wersja o3, przy całkowitym pominięciu o2 – decyzję tę tłumaczono żartobliwym szacunkiem dla firmy Telefónica. Wersje takie jak o3 mini-high jeszcze bardziej komplikują całą serię, łącząc sprzeczne określenia w jednej nazwie.
Planowane wycofanie GPT-4.5
OpenAI ogłosiło, że model GPT-4.5 zostanie wycofany z API w ciągu trzech miesięcy, by uwolnić zasoby GPU potrzebne nowym rozwiązaniom. W rezultacie 4.5 stanie się najkrócej funkcjonującym dużym modelem językowym w historii platformy.
Nowe modele dostępne tylko przez API
Aktualnie GPT-4.1 oraz jego warianty są dostępne poprzez API oraz w narzędziu Playground. Nie są jeszcze zintegrowane z interfejsem ChatGPT, jednak można przypuszczać, że to tylko kwestia czasu.