D-Wave i Quantum Four: Jak sektor kwantowy automatyzuje przemysł pomimo ryzyka bańki

Sektor obliczeń kwantowych, napędzany przez grupę Quantum Four, przechodzi od fazy teoretycznej do wdrożeń komercyjnych, co potwierdzają wielomilionowe kontrakty D-Wave z listą Fortune 100. Architekci systemów muszą jednak chłodno ocenić ryzyko wysokich wycen i powolnej drogi do pełnej odporności na błędy, aby bezpiecznie zintegrować te technologie z obecnym ekosystemem IT.

Dlaczego D-Wave zmienia model dostarczania mocy obliczeniowej?

Sektor przechodzi na model QCaaS (Quantum Computing as a Service), umożliwiając przedsiębiorstwom dostęp do systemów kwantowych w czasie rzeczywistym bez konieczności posiadania własnej infrastruktury kriogenicznej. Umowa D-Wave o wartości 10 milionów dolarów z firmą Fortune 100 dowodzi, że dualna platforma łącząca annealing i gate-model znajduje realne zastosowanie w optymalizacji złożonych procesów biznesowych.

Systemy D-Wave są obecnie wykorzystywane przez ponad 100 organizacji do rozwiązywania problemów optymalizacyjnych w logistyce, planowaniu produkcji oraz zarządzaniu zasobami. Kluczowym elementem oferty jest chmura Leap™, oferująca dostępność na poziomie 99,9%, co jest standardem niezbędnym dla operacji klasy korporacyjnej. W maju 2025 roku firma udostępniła system Advantage2 z ponad 4400 kubitami, dedykowany do zadań związanych z AI i symulacjami materiałowymi.

Rigetti i Cepheus: Czy 108 kubitów to przełom w wydajności?

Rigetti Computing wprowadziło system Cepheus-1-108Q, stanowiący największą modularną architekturę kwantową na rynku, opartą na dwunastu połączonych chipletach po 9 kubitów każdy. Dzięki czasom bramek na poziomie 50-70 nanosekund, technologia ta oferuje znacznie wyższą szybkość operacji w porównaniu do alternatywnych modalności pułapek jonowych, co ma kluczowe znaczenie dla automatyzacji zadań obliczeniowych w czasie rzeczywistym.

W pierwszym kwartale 2026 roku Rigetti odnotowało przychody na poziomie 4,4 mln USD, co odzwierciedla rosnącą adopcję systemów on-premises, w tym sprzedaż jednostki Novera QPU dla Uniwersytetu Saskatchewan. Spółka planuje również zainwestować do 100 mln USD w Wielkiej Brytanii w celu budowy systemu o wydajności przekraczającej 1000 kubitów w ciągu najbliższych trzech do czterech lat. Wykorzystanie architektury opartej na chipletach jest postrzegane jako praktyczna ścieżka do skalowania systemów kwantowych.

IonQ i wyzwanie Security: Czy wierność bramek 99,99% wystarczy?

IonQ osiągnęło rekordową wierność bramek dwukubitowych na poziomie 99,99% oraz zrealizowało cel techniczny #AQ 64 przed terminem, co znacząco poszerza przestrzeń obliczeniową dla algorytmów AI i cyberbezpieczeństwa. Mimo to, całkowita odporność na błędy (fault-tolerance) pozostaje celem długoterminowym, a obecne systemy wymagają zaawansowanych technik mitygacji błędów, aby sprostać rygorystycznym standardom projektowym 'Secure by Design’.

Z perspektywy architektonicznej, postęp IonQ w 2025 roku objął wzrost przychodów o 222% rok do roku oraz beat prognoz finansowych o 37%. System „Tempo” odblokowuje potencjał obliczeniowy znacznie wykraczający poza konkurencyjne systemy nadprzewodzące w określonych niszach. Jednocześnie Google z chipem Willow (105 kubitów) udowodniło tzw. przewagę kwantową, wykonując symulacje molekularne 13 000 razy szybciej niż klasyczne superkomputery.

Sektor Quantum Four w 2026 roku: Koniec bańki czy nowa era?

Analitycy ostrzegają przed bańką spekulacyjną, wskazując na skrajnie wysokie wskaźniki cena do sprzedaży (P/S) dla spółek kwantowych, które w przypadku Rigetti sięgają 980, a IonQ 145. Choć rynek kwantowy w 2030 roku ma osiągnąć wartość 4 mld USD — czyli 100 razy mniej niż rynek AI w 2025 — trwająca hossa Quantum Four sugeruje, że rynek premiuje teraz realne kontrakty.

W skład Quantum Four wchodzą D-Wave (NYSE: QBTS), IonQ (NYSE: IONQ), Rigetti (Nasdaq: RGTI) oraz Quantum Computing Inc. (Nasdaq: QUBT). Po trudnym początku 2026 roku, akcje tych spółek zaczęły dynamicznie rosnąć w maju, odrabiając większość strat. Inwestorzy zaczynają odróżniać „czyste” spółki kwantowe (pure-plays) od zdywersyfikowanych liderów, takich jak IBM czy Microsoft, którzy integrują kwantowe narzędzia (np. Azure Quantum) z istniejącymi platformami chmurowymi.

Wnioski praktyczne

  • QCaaS zamiast on-premises: Dla większości firm model Quantum Computing as a Service (np. przez Leap™ lub Azure Quantum) jest bezpieczniejszy finansowo niż budowa własnych systemów kriogenicznych.
  • Weryfikacja wierności: Przy projektowaniu systemów Security należy opierać się na systemach o wierności bramek powyżej 99,9%, takich jak rozwiązania IonQ lub Rigetti, aby minimalizować błędy obliczeniowe.
  • Strategia dwukubłowa: W portfelu technologicznym warto łączyć stabilnych dostawców (IBM, Alphabet) z innowacyjnymi pure-plays (D-Wave, Rigetti), aby balansować ryzyko technologiczne z potencjałem przełomu.
  • Monitoring roadmap: Kluczowym terminem dla odporności na błędy (fault-tolerant systems) pozostaje rok 2029, wyznaczony przez IBM, co powinno determinować harmonogramy najcięższych wdrożeń kwantowych.

2 odpowiedzi

💬 Kliknij tutaj, aby dodać komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

  1. Awatar Wiktor
    Wiktor

    Chłopaki z D-Wave i Quantum Four robią absolutny rozpierdol na rynku, a te kontrakty z Fortune 100 to dowód, że kwantowa rewolucja już nabiera tempa 🚀. Owszem, spece od IT muszą trzymać rękę na pulsie, ale ryzyko bańki to dla mnie tylko kolejna okazja, żeby wejść w technologię, która za 5 lat będzie standardem – lepiej być pionierem niż spóźnialskim 💸. Automatyzacja przemysłu to przyszłość, a ja obstawiam, że ten sektor wystrzeli szybciej, niż pesymiści przewidują!

  2. Awatar KasiaZpodlasia
    KasiaZpodlasia

    Ciekawie obserwować, jak D-Wave i Quantum Four przesuwają punkt ciężkości z laboratoryjnych eksperymentów na realne kontrakty z Fortune 100 – to dowód, że kwantowa przewaga zaczyna mieć wymierną wartość dla strategii IT. Kluczowe będzie jednak dla architektów systemów zachowanie chłodnej głowy przy wycenach i nieprzeskakiwanie nad fundamentalną kwestią odporności na błędy, zanim kwantowe akceleratory wejdą do krytycznych procesów biznesowych. Czy w waszej organizacji kwantowe obliczenia traktujecie już jako realne narzędzie automatyzacji, czy wciąż czekacie na przełom w korekcji błędów?