Google rozszerza rodzinę Gemini 2.5 o nowy model. Będzie najtańszy, ale czy też najlepszy?

6 godziny temu 1
Reklama 3 tysiące złotych na miesiąc.

Wojna na modele AI trwa w najlepsze

Rynek sztucznej inteligencji przypomina obecnie wyścig zbrojeń. OpenAI ma swoje modele GPT-4 i rodzinę o1, Anthropic stawia na Claude, a Microsoft wspiera te wszystkie rozwiązania w swoich produktach. Google, mimo że AI rozwijało od lat, przez długi czas pozostawało w tyle za konkurencją w kwestii modeli językowych dostępnych publicznie.

Sytuacja zmieniła się jednak w ostatnich miesiącach. Seria Gemini 2.5 to próba odrobienia strat i pokazania, że Mountain View wcale nie zamierza oddawać pola rywalom. Wprowadzenie Flash-Lite to element szerszej strategii – Google chce mieć model na każdą kieszeń i każdy przypadek użycia.

Flash-Lite – szybko i tanio, ale z ograniczeniami

Nowy model Gemini 2.5 Flash-Lite został zaprojektowany z myślą o zastosowaniach wymagających przetwarzania na masową skalę, gdzie kluczowa jest szybkość działania. Google podkreśla, że Flash-Lite ma obsługiwać zadania takie jak tłumaczenie czy klasyfikacja danych w ogromnych ilościach.

Cennik z pewnością przyciągnie uwagę deweloperów – Flash-Lite kosztuje zaledwie 0,10 dolara za milion tokenów wejściowych i 0,40 dolara za milion tokenów wyjściowych. To czyni go najtańszą opcją w całej rodzinie Gemini 2.5, znacznie tańszą od modeli Flash czy Pro.

Czy za tę cenę dostajemy odpowiednią jakość? Tutaj zaczynają się kompromisy. W standardowych testach rozumowania Flash-Lite wypada dość słabo – w trudnym teście Humanity’s Last Exam osiąga zaledwie 5,1% poprawnych odpowiedzi. To znacznie mniej niż pozostałe modele z rodziny.

Tryb “Thinking” – ukryty as w rękawie

Najciekawszą funkcją nowego modelu jest tryb “Thinking”. Gdy go włączymy, model potrzebuje więcej czasu na przetworzenie zapytania, ale jego możliwości dramatycznie rosną.

Na przykład w trudnym teście matematycznym AIME 2025 wyniki Flash-Lite skaczą z 49,8% do 63,1% po włączeniu trybu Thinking. Podobnie w zadaniach wyszukiwania informacji w dużych dokumentach – skuteczność niemal się podwaja.

To pokazuje, że Google implementuje rozwiązania podobne do tych stosowanych przez OpenAI w swoich modelach, gdzie dłuższe “myślenie” przekłada się na lepsze wyniki.

Dostępność dla deweloperów i użytkowników

Gemini 2.5 Flash-Lite w wersji preview jest już dostępny dla deweloperów przez Google AI Studio i platformę Vertex AI. Jednocześnie Google udostępnił stabilne wersje modeli 2.5 Flash i 2.5 Pro nie tylko deweloperom, ale także zwykłym użytkownikom w głównej aplikacji Gemini.

Co ciekawe, Google już wykorzystuje własne modele Flash-Lite i Flash do obsługi części swojej wyszukiwarki. To pokazuje, że firma ma pełne zaufanie do swoich rozwiązań i testuje je w rzeczywistych, wymagających scenariuszach.

Implikacje dla rynku

Wprowadzenie Flash-Lite może mieć szersze konsekwencje. Jeśli Google rzeczywiście oferuje rozsądną jakość za ułamek ceny konkurencji, może to wywołać wojnę cenową na rynku AI. To z kolei oznaczałoby przyspieszenie adopcji technologii AI w biznesie – szczególnie w tych segmentach, gdzie dotychczas koszty były barierą.

Z drugiej strony, tanie modele AI mogą też oznaczać demokratyzację dostępu do zaawansowanych technologii. Małe firmy i indie deweloperzy zyskają możliwość eksperymentowania z AI bez dużych inwestycji początkowych.

Strategia Google na rynku AI

Wprowadzenie Flash-Lite to klarowna strategia: Google chce oferować modele na każdy budżet i przypadek użycia. Flash-Lite to opcja dla zastosowań masowych, gdzie liczą się przede wszystkim koszty i szybkość. Model Flash pozostaje złotym środkiem, a Pro jest flagowym rozwiązaniem dla najbardziej wymagających zadań.

Czytaj też: Gemini wprowadza planowanie zadań, ale nie dla wszystkich

Czy Google uda się przekonać deweloperów do tej najtańszej opcji? Wszystko będzie zależało od tego, jak Flash-Lite sprawdzi się w praktycznych zastosowaniach, szczególnie z włączonym trybem Thinking.

Przeczytaj źródło