Sztuczna inteligencja stoi przed poważnym wyzwaniem energetycznym. Centra danych obsługujące modele AI zużywają obecnie 10-20% całkowitej energii amerykańskich centrów danych, a prognozy wskazują na wzrost zapotrzebowania o 50% rocznie do 2030 roku. W odpowiedzi na ten kryzys naukowcy z University of Florida opublikowali we wrześniu 2025 roku przełomowe badanie w Advanced Photonics, przedstawiając chip fotoniczny, który może zwiększyć efektywność energetyczną obliczeń AI nawet 100-krotnie.
Technologia wykorzystująca światło zamiast elektronów do przetwarzania informacji otwiera nowe możliwości dla zrównoważonego rozwoju sztucznej inteligencji. Chip opracowany przez zespół prof. Volkera J. Sorgera integruje komponenty optyczne bezpośrednio na krzemowej płytce, wykonując operacje splotowe – kluczowe dla rozpoznawania obrazów i przetwarzania języka naturalnego – przy użyciu światła laserowego i mikroskopijnych soczewek Fresnela.
W artykule przeanalizujemy zasady działania chipów fotonicznych, ich potencjalne zastosowania oraz wyzwania stojące przed komercjalizacją tej technologii, która może zmienić oblicze centrów danych i obliczeń AI w nadchodzącej dekadzie.
Zasady działania chipów fotonicznych
Tradycyjne układy elektroniczne wykorzystują przepływ elektronów do przesyłania i przetwarzania sygnałów, co generuje znaczną ilość ciepła i ogranicza prędkość działania. Chipy fotoniczne wykorzystują fotony – cząstki światła – które poruszają się znacznie szybciej i generują minimalnie straty energii podczas transmisji danych.
Kluczową innowacją chipów fotonicznych są falowody optyczne zastępujące tradycyjne przewody elektryczne. Te mikroskopijne kanały kierują światło przez chip, umożliwiając wykonywanie złożonych operacji matematycznych przy wykorzystaniu właściwości fizycznych światła. Badacze z MIT wykazali, że ich fotoniczny procesor może wykonywać wszystkie kluczowe obliczenia sieci neuronowej optycznie na chipie, osiągając ponad 92% dokładności w zadaniach klasyfikacji w czasie krótszym niż pół nanosekundy.
Zespół z University of Florida skoncentrował się na operacjach splotowych, które stanowią rdzeń algorytmów uczenia maszynowego. Ich chip wykonuje te operacje przy użyciu transformacji Fouriera, naturalnie realizowanej przez właściwości optyczne. To podejście eliminuje potrzebę intensywnych obliczeń cyfrowych, drastycznie redukując zużycie energii.
Integracja z systemami elektronicznymi
Praktyczne wdrożenie chipów fotonicznych wymaga płynnej integracji z istniejącymi systemami elektronicznymi. MIT opracowało hybrydowe rozwiązanie łączące optyczne jednostki funkcjonalne nieliniowe (NOFUs) z tradycyjnymi układami elektronicznymi. Te komponenty wykonują nieliniowe operacje poprzez przekierowanie niewielkiej części światła do fotodiod, które konwertują sygnały optyczne na prąd elektryczny.
Proces ten umożliwia pozostanie w domenie optycznej przez większość obliczeń, co zapewnia ultra-niskie opóźnienia charakterystyczne dla chipów fotonicznych. Dopiero na końcu, podczas odczytu wyniku, system przechodzi do domeny elektronicznej, minimalizując straty energetyczne i maksymalizując wydajność.
Efektywność energetyczna i wpływ środowiskowy
Najważniejszą zaletą chipów fotonicznych jest ich ekstremalna efektywność energetyczna. Columbia Engineering opracowało 3D platformę fotonično-elektroniczną osiągającą zużycie energii na poziomie zaledwie 120 femtodżuli na bit przy przepustowości 800 Gb/s i gęstości pasma 5,3 Tb/s/mm². To przedstawia radykalną poprawę w porównaniu z tradycyjnymi rozwiązaniami elektronicznymi.
Q.ANT, niemiecka firma technologiczna, już komercjalizuje fotoniczne akceleratory AI obiecujące do 90-krotnie niższe zużycie energii na zadanie obliczeniowe. Ich Native Processing Server (NPS) działa jako karta PCI Express, oferując do 30-krotną efektywność energetyczną i 50-krotny wzrost wydajności w złożonych obliczeniach przy zachowaniu 16-bitowej precyzji floating point.
Redukcja zużycia energii ma bezpośrednie przełożenie na zmniejszenie emisji dwutlenku węgla. Przy obecnym tempie wzrostu zapotrzebowania na AI, centra danych mogą stać się jednym z największych konsumentów energii na świecie. Zastosowanie chipów fotonicznych w skali przemysłowej mogłoby znacząco przyczynić się do realizacji międzynarodowych celów klimatycznych.
Wpływ na architekturę centrów danych
NVIDIA zaprezentowała na GTC 2025 przełomowe przełączniki sieciowe wykorzystujące technologię co-packaged optics (CPO), które integrują fotoniczne komponenty bezpośrednio z układami przełączającymi. Quantum-X Photonics oferuje 144 porty o przepustowości 800 Gb/s każdy, zapewniając 3,5-krotnie niższe zużycie energii w porównaniu z tradycyjnymi rozwiązaniami.
Ta technologia eliminuje potrzebę osobnych procesorów sygnałów cyfrowych (DSP), redukuje liczbę komponentów i minimalizuje degradację sygnału. Rezultatem są gęstsze, bardziej zrównoważone infrastruktury AI, które mogą skalować się do obsługi miliona GPU w pojedynczej „fabryce AI”.
Zastosowania w akceleracji AI
Chipy fotoniczne znajdą zastosowanie w najważniejszych obszarach sztucznej inteligencji, gdzie szybkość i efektywność energetyczna są kluczowe. Operacje splotowe, stanowiące podstawę głębokich sieci neuronowych, mogą być wykonywane optycznie z wielokrotnie większą efektywnością niż w przypadku tradycyjnych układów.
IEEE opublikowało w 2025 roku badanie pokazujące, że platformy oparte na fotonicznych układach scalonych (PICs) oferują lepszą skalowalność i efektywność energetyczną w porównaniu z architekturami opartymi na GPU. Dr Bassem Tossoun z Hewlett Packard Labs wykazał, że optyczne sieci neuronowe działające z prędkością światła przy minimalnych stratach energii mogą stanowić fundamentę dla przyszłych akceleratorów AI.
Praktyczne testy chipów fotonicznych w zadaniach rozpoznawania obrazów pokazują obiecujące rezultaty. Prototyp z University of Florida osiągnął 98% dokładności w klasyfikacji ręcznie napisanych cyfr, co jest porównywalne z tradycyjnymi chipami elektronicznymi, ale przy znacznie niższym zużyciu energii.
Obliczenia brzegowe i urządzenia mobilne
Efektywność energetyczna chipów fotonicznych otwiera możliwości dla zaawansowanych obliczeń AI bezpośrednio na urządzeniach końcowych. Edge computing może skorzystać z fotonicznych procesorów, umożliwiając wykonywanie złożonych algorytmów uczenia maszynowego lokalnie, bez konieczności przesyłania danych do chmury.
To ma szczególne znaczenie dla aplikacji wymagających niskich opóźnień, takich jak autonomiczne pojazdy, systemy nadzoru w czasie rzeczywistym czy aplikacje rozszerzonej rzeczywistości. Możliwość przetwarzania danych lokalnie zwiększa również prywatność użytkowników i redukuje obciążenie sieci.
Wyzwania technologiczne i produkcyjne
Mimo obiecujących wyników laboratoryjnych, chipy fotoniczne stoją przed znaczącymi wyzwaniami przed masową komercjalizacją. Precyzja produkcji jest kluczowa – wyrównanie elementów optycznych w skali wymaganej do masowej produkcji pozostaje jednym z największych wyzwań technologicznych.
Obecne procesy produkcyjne są często manualne, co nie nadaje się do skalowania i jest kosztochłonne. Potrzeba rozwoju zautomatyzowanych rozwiązań produkcyjnych oraz lepszej integracji z innymi technologiami, takimi jak procesory graficzne i jednostki pamięci, aby w pełni uwolnić potencjał fotonicznych chipów.
TSMC opracowało technologię Compact Universal Photonic Engine (COUPE), która łączy 65-nanometrowy procesor elektroniczny z fotonicznymi układami scalonymi. Ta technologia umożliwia NVIDIA produkcję zaawansowanych przełączników fotonicznych, ale wymaga dalszego rozwoju dla szerszych zastosowań.
Koszty i łańcuch dostaw
Obecnie technologia fotoniczne jest kosztowna i wymaga zaawansowanego sprzętu oraz specjalistycznej wiedzy. Rynek chipów fotonicznych ma wartość 2,65 miliarda dolarów w 2025 roku i przewiduje się jego wzrost do 9,65 miliarda dolarów do 2030 roku przy rocznym tempie wzrostu 29,5%.
Obniżenie kosztów produkcji i zbudowanie stabilnego łańcucha dostaw będzie niezbędne dla powszechnego zastosowania. Firmy takie jak OpenLight Photonics oferują platformę krzemu fotonického jako usługę, umożliwiając mniejszym firmom dostęp do tej technologii bez konieczności rozwijania własnego IP.
Perspektywy rozwoju i komercjalizacji
Branża fotonicznych chipów rozwija się w szybkim tempie, a pierwsze komercyjne produkty już trafiają na rynek. Q.ANT oferuje Native Processing Server jako pierwszą komercyjną platformę fotonicznych procesorów dla obciążeń AI i HPC, podczas gdy NVIDIA planuje wprowadzenie swoich fotonicznych przełączników w różnych konfiguracjach między 2025 a 2026 rokiem.
MIT i inne instytucje badawcze kontynuują prace nad skalowaniem technologii dla bardziej złożonych zadań oraz integracją z istniejącą elektroniką. Zespoły badawcze eksplorują również algorytmy dostosowane do systemów optycznych, które mogłyby zwiększyć zarówno szybkość treningu jak i efektywność energetyczną.
Imec, wiodący europejski ośrodek badawczy, dąży do osiągnięcia gęstości przepustowości ponad 1 Tbps/mm przy zużyciu energii poniżej 1 pJ/bit do końca dekady. Ich program Optical I/O wykorzystuje dziesięciolecia doświadczeń w integracji CMOS oraz zaawansowane technologie integracji 3D.
Ekosystem startupów i innowacji
Rośnie liczba startupów specjalizujących się w technologiach fotonicznych dla AI. Ayar Labs opracowuje chip TeraPHY z 2 Tbps przepustowości poprzez osiem 256 Gbps silników fotonicznych krzemu, zaprojektowany do integracji obok przełączników, GPU lub innych procesorów.
Oriole Networks z Wielkiej Brytanii zastępuje tradycyjne przełączanie elektryczne przełączaniem fotonicznym w celu zwiększenia efektywności treningu i inferencji dużych modeli językowych. Te i inne firmy tworzą żywy ekosystem innowacji, który może przyspieszyć adopcję technologii fotonicznych.
Przyszłość obliczeń AI i fotonicznych chipów
Integracja chipów fotonicznych z infrastrukturą AI ma potencjał fundamentalnej zmiany sposobu projektowania i działania systemów sztucznej inteligencji. Możliwość wykonywania obliczeń przy niemal zerowym zużyciu energii może umożliwić rozwój znacznie bardziej zaawansowanych i złożonych modeli AI bez proporcjonalnego wzrostu kosztów energetycznych.
Co-packaged optics (CPO) ma szansę transformacji architektury centrów danych, z przewidywanymi wdrożeniami na dużą skalę między 2028 a 2030 rokiem. Ta technologia integruje transceivery optyczne bezpośrednio z przełącznikami ASIC lub procesorami, umożliwiając połączenia o niskim poborze mocy i wysokiej przepustowości.
Długoterminowe prognozy wskazują na potrzebę połączeń optycznych zbliżających się do 10 Tbps/mm gęstości przepustowości przy zużyciu energii znacznie poniżej 1 pJ/bit do końca dekady. Te ambitne cele wymagają dalszych przełomów w materiałoznawstwie, procesach produkcyjnych oraz architekturze systemów.
Rozwój chipów fotonicznych może również umożliwić nowe paradygmaty obliczeniowe, gdzie fizyka światła jest bezpośrednio wykorzystywana do rozwiązywania problemów matematycznych, otwierając drogę do „natywnych” obliczeń fotonicznych, które nie wymagają tłumaczenia na sygnały cyfrowe.
Wpływ na przyszłość sztucznej inteligencji
Chipy fotoniczne reprezentują fundamentalną zmianę w podejściu do obliczeń AI, oferując ścieżkę do zrównoważonego rozwoju sztucznej inteligencji w erze rosnących wymagań energetycznych. Połączenie ultraszybkich obliczeń, ekstremalnej efektywności energetycznej oraz możliwości integracji z istniejącą infrastrukturą czyni tę technologię kluczową dla przyszłości AI.
Sukces komercjalizacji chipów fotonicznych zależy od współpracy całego ekosystemu – od projektantów chipów przez integratorów systemów po operatorów centrów danych i dostawców energii. Potrzebne są standardy branżowe, zautomatyzowane procesy produkcyjne oraz edukacja rynku o korzyściach płynących z tej technologii.
W miarę dojrzewania technologii można spodziewać się jej zastosowania w coraz szerszym zakresie aplikacji – od przyśpieszenia treningu najnowszych modeli AI po umożliwienie zaawansowanych obliczeń na urządzeniach brzegowych. Fotoniczne chipy mogą stać się kluczowym elementem infrastruktury potrzebnej do realizacji wizji wszechobecnej, efektywnej energetycznie sztucznej inteligencji.
Przełom w technologii chipów fotonicznych oznacza początek nowej ery w obliczeniach AI – ery, w której moc obliczeniowa może rosnąć bez proporcjonalnego wzrostu zapotrzebowania na energię, otwierając drogę do bardziej zrównoważonej i dostępnej sztucznej inteligencji.