- Unconventional AI zamyka rundę finansowania o wartości 475 milionów dolarów i wycenę na poziomie 4.500 miliarda dolarów
- Startup projektuje inspirowane biologicznie układy scalone i komputery AI, aby osiągnąć ekstremalną efektywność energetyczną
- Jej architektura łączy w sobie obliczenia analogowe, neurony impulsowe i mieszane układy SoC z pamięcią nieulotną
- Naveen Rao przewodzi elitarnemu zespołowi i planuje zebrać do 1.000 miliarda dolarów w tej początkowej fazie

Przybycie Niekonwencjonalna sztuczna inteligencja Wstrząsnęło to krajobrazem sprzętu opartego na sztucznej inteligencji za sprawą rundy finansowania, która jest już przedmiotem dyskusji w każdym kręgu branżowym. ma zaledwie kilka miesięcy, firma Udało mu się przyciągnąć uwagę najpotężniejszych funduszy w świecie technologii.stawiając na pomysł, który na papierze obiecuje zmienić sposób projektowania i wykorzystywania zasobów obliczeniowych dla sztucznej inteligencji.
Firma nie chce skupiać się na coraz większych i bardziej drapieżnych modelach, lecz chce rozwiązać problem u źródła: efektywność energetyczna i architektura fizyczna układów scalonychJego propozycja jest wyraźnie inspirowana biologią i funkcjonowaniem mózgu, Celem jest zbliżenie się do systemu, który będzie w stanie zapewnić ogromną moc obliczeniową, zużywając przy tym ułamek energii wymaganej obecnie. duże centra danych.
Największa w tym roku runda finansowania sprzętu AI

Unconventional AI zamknęła rundę finansowania o wartości 475 milionów dolarówKwota, która nawet na rynku przyzwyczajonym do dużych liczb, wyróżnia się swoją wielkością na tak wczesnym etapie. Transakcja wycenia firmę na około 4.500 milionów dolarów, co czyni go jednym z najbardziej spektakularnych przypadków finansowania zalążkowego w ekosystemie sprzętu AI.
Rundę finansowania poprowadziły fundusze venture capital Andreessen Horowitz (a16z) y Lightspeed Venture PartnersDwóch kluczowych graczy, jeśli chodzi o długoterminowe inwestycje w zaawansowane technologie. Dołączyli do nich inni czołowi inwestorzy, tacy jak Kapitał Lux, DCVC, Databricks i nawet założyciel Amazona, Jeff BezosWzmacnia to poczucie, że projekt jest postrzegany jako długofalowe posunięcie strategiczne.
Oprócz kapitału zewnętrznego, jeden ze współzałożycieli zdecydował się na dołożenie własnych środków. 10 milionów dolarów...na tych samych warunkach, co pozostali główni inwestorzy. Ten ruch, poza kwotą, wysyła wyraźny sygnał zaangażowania i wewnętrznego zaufania do tezy technologicznej i biznesowej firmy.
Według różnych wywiadów ta początkowa transza w wysokości 475 milionów będzie jedynie początkiem planu zbierania funduszy, który może sięgnąć kwoty 1.000 milionów dolarów na tym samym etapie. Skala celu podkreśla rodzaj projektu, przed którym stoją: złożony sprzęt, długie cykle rozwoju i duże początkowe inwestycje w badania i rozwój.
W porównaniu do innych niedawnych transakcji wycena była nieznacznie niższa 5.000 miliardów o których wspominano w pierwszych plotkach, ale nadal plasuje to Unconventional AI w lidze startupów, które, mając niewiele dochodów lub produktów komercyjnych, grają na poziomach kapitału wcześniej zarezerwowanych dla znacznie bardziej dojrzałych firm.
Wizja Naveena Rao i zespół przyzwyczajony do ryzyka technicznego
Liderem projektu jest Naveena RaoRao, znana postać w świecie sztucznej inteligencji, zarówno ze względu na swoją przedsiębiorczość, jak i stanowiska, jakie piastuje w największych firmach technologicznych. odpowiedzialny za platformy sztucznej inteligencji w firmie Intel po zakupie pierwszego startupu, Nervana Systems, specjalizującego się w procesorach do uczenia maszynowego.
Później założyciel podjął kolejny krok, będąc współzałożycielem MozaikaML, platforma do szkolenia modeli, która zyskała popularność w ekosystemie danych i sztucznej inteligencji i ostatecznie została przejęta przez Databricks za około 1.300 miliarda dolarówTe osiągnięcia, z dwoma znaczącymi wyjściami w ciągu niecałej dekady, w dużej mierze przyczyniły się do zbudowania zaufania wśród funduszy, które obecnie wspierają ten nowy projekt.
Wraz z Rao firma włączyła profile wysokiego szczebla z przecięcia sprzęt, oprogramowanie i badania akademickie, Jak Michał Karbin, Sara Achour y MeeLan LeeJest to zespół przyzwyczajony do radzenia sobie z wysokim ryzykiem technicznym, projektami o długim cyklu i problemami, których nie da się rozwiązać za pomocą szybkich iteracji oprogramowania, ale za pomocą złożonych prototypów i bardzo ścisłej integracji pomiędzy architekturą fizyczną i algorytmami.
Sam Rao wyjaśnił, że plan pracy Unconventional AI obejmuje testować wiele prototypów przez kilka latOceniają, który paradygmat najlepiej się skaluje pod względem efektywności i kosztów. Innymi słowy, nie zależy im na szybkim wprowadzeniu produktu na rynek, ale na zbudowaniu fundamentów technologicznych, które mogą mieć wpływ na rozwój sztucznej inteligencji w ciągu następnej dekady.
Ten zakład na tzw. „inżynieria długiego cyklu” Kontrastuje to z typowym podejściem wielu startupów programistycznych, które koncentrują się na jak najszybszej walidacji z klientami i dopracowywaniu produktu poprzez szybkie iteracje. W tym przypadku ścieżka jest bardziej podobna do tej stosowanej przez duże firmy produkujące półprzewodniki lub projekty infrastruktury krytycznej, gdzie zwrot z inwestycji pojawia się później, ale jeśli wszystko pójdzie dobrze, może zredefiniować cały sektor.
Nowy typ maszyny do sztucznej inteligencji

Sednem propozycji Unconventional AI jest zbudowanie radykalnie bardziej energooszczędny komputer dla obciążeń związanych ze sztuczną inteligencją. Rao podsumował ambicje w zdaniu, które przyciągnęło uwagę w branży: zaprojektować system, który jest „tak wydajny jak biologia”biorąc za punkt odniesienia zdolność ludzkiego mózgu do wykonywania skomplikowanych obliczeń przy minimalnym zużyciu energii.
Podczas gdy większość branży nadal naciska na skalowanie modeli — więcej parametrów, więcej danych, więcej procesorów graficznych—, firma wychodzi z założenia, że Ta strategia ma wyraźne ograniczenia pod względem kosztów i dostępnej energiiDuże centra danych już teraz borykają się z ograniczeniami w dostawie prądu, rosnącymi kosztami i problemami związanymi ze zrównoważonym rozwojem, co jest kwestią szczególnie niepokojącą w Europie i Hiszpanii ze względu na cele klimatyczne i regulacyjne.
Aby przełamać tę dynamikę, startup proponuje zmiana paradygmatu w architekturze komputerowejZamiast nadal udoskonalać konwencjonalne architektury cyfrowe, badaj projekty wykorzystujące właściwości fizyczne samego krzemu i zasady inspirowane funkcjonowaniem mózgu, takie jak nieliniowa dynamika neuronów.
W tekście opublikowanym na swojej stronie internetowej firma opisuje swój cel jako stworzenie „nowe podłoże dla inteligencji”Pomysł polega na tym, że poprzez znalezienie właściwej struktury łączącej obliczenia sztuczne z zachowaniem systemów biologicznych możliwe jest osiągnięcie wzrostu wydajności znacznie wykraczającego poza to, co można osiągnąć po prostu poprzez udoskonalanie klasycznych architektur cyfrowych.
Inwestorzy Lightspeed biorący udział w rundzie zgadzają się z tą diagnozą, wskazując na potrzebę aby wyszukać „odpowiedni izomorfizm dla inteligencji” Jeżeli celem jest drastyczne obniżenie zużycia energii przez sztuczną inteligencję, to takie podejście jest zgodne z wysiłkami badawczymi w zakresie obliczeń neuromorficznych i zaawansowanych systemów analogowych, które do tej pory w dużej mierze pozostawały w sferze akademickiej lub w ramach projektów eksperymentalnych dużych producentów.
Architektura: od układów analogowych do pulsujących neuronów

Jednym z najbardziej uderzających aspektów niekonwencjonalnej sztucznej inteligencji jest jej łączone podejście do architektury analogowe, mieszane i neuromorficzneW przeciwieństwie do obecnych układów cyfrowych, które reprezentują informacje za pomocą dyskretnych zer i jedynek, konstrukcje analogowe pozwalają na pracę z wartościami ciągłymi i wykorzystywanie zjawisk fizycznych, które, przy odpowiedniej kontroli, mogą być znacznie bardziej wydajne w przypadku niektórych operacji. To podejście wskazuje na postęp w zaawansowane projektowanie i procesy układów scalonych które dążą do optymalizacji wydajności na bazie fizycznej.
Firma bada układy scalone umożliwiające fizyczne przechowywanie rozkładów prawdopodobieństwazamiast przybliżać je numerycznie, jak to się robi w tradycyjnych procesorach. Otwiera to drogę do bardziej naturalnych reprezentacji modeli probabilistycznych i potencjalnie do redukcja zużycia energii nawet tysiąckrotnie w porównaniu do systemów cyfrowych, które dominują obecnie w centrach danych.
Aby to osiągnąć, zespół wykorzystuje koncepcje z oscylatory, termodynamika i neurony impulsoweTen typ modelu jest inspirowany sposobem, w jaki rzeczywiste neurony są aktywowane przez dyskretne impulsy w czasie. Architektury te, typowe dla pola neuromorficznego, mogą dezaktywować duże fragmenty układu scalonego, gdy nie są używane, radykalnie zmniejszając straty energii w porównaniu z obwodami o stałej aktywności.
To podejście nieco przypomina wcześniejsze wysiłki firm takich jak Intel, które stosowały procesory neuromorficzne, eliminując tradycyjny zegar centralny i umożliwiając układowi asynchroniczne działanie, aktywując tylko niezbędne elementy w zależności od obciążenia. Jednakże, Niekonwencjonalna sztuczna inteligencja chce pójść o krok dalejnie tylko naśladując zachowanie neuronów, ale także ściśle integrując fizyczną konstrukcję krzemu z modelami AI specjalnie zaprojektowanymi dla tego środowiska.
Ta kombinacja Specjalistyczny sprzęt i współprojektowane modele Wskazuje to na przyszłość, w której granica między układem scalonym a algorytmem zaciera się, a wydajność nie będzie już zależeć w tak dużym stopniu od liczby połączonych ze sobą procesorów graficznych, lecz od tego, jak dobrze wykorzystywane są głębsze właściwości fizyczne materiałów i obwodów.
Układ SoC zaprojektowany specjalnie dla kolejnej fali sztucznej inteligencji
Poza ogólnym zarysem, pojawiają się szczegóły techniczne dotyczące rodzaju chipa, który Unconventional AI zamierza wprowadzić do produkcji. Różne ogłoszenia o pracę opublikowane przez firmę wskazują na... akcelerator sztucznej inteligencji oparty na konstrukcji system-on-a-chip (SoC)Oznacza to pojedynczy komponent integrujący kilka wyspecjalizowanych modułów obliczeniowych.
Według tych opisów SoC będzie zawierał procesor centralny (CPU) Odpowiedzialny za zadania wstępne, takie jak organizacja i przygotowanie danych sensorycznych przed przekazaniem ich do bardziej szczegółowych jednostek AI. W oparciu o tę ogólną podstawę, zostaną dodane zoptymalizowane bloki, które wykonają… operacje algebry liniowejktóre stanowią matematyczną podstawę praktycznie wszystkich modeli głębokiego uczenia się, od dużych modeli językowych po systemy przetwarzania obrazu.
Projekt uwzględnia również wykorzystanie własność intelektualna stron trzecich W przypadku niektórych modułów jest to powszechna praktyka w branży półprzewodników, gdzie bardziej efektywne jest licencjonowanie sprawdzonych bloków niż tworzenie ich od podstaw. Od tego momentu wartość dodana Unconventional AI będzie koncentrować się na najbardziej innowacyjnych elementach układu SoC.
Te elementy różnicujące obejmują: obwody sygnałów mieszanychTe układy, zdolne do przetwarzania informacji zarówno analogowych, jak i cyfrowych, są bardzo przydatne do zarządzania danymi z czujników lub do bezpośredniej implementacji operacji inspirowanych fizyką. Ten typ układów jest kluczowy dla wykorzystania przez układ dynamiki nieliniowej i reprezentacji probabilistycznych, nad którymi pracuje firma.
Kolejnym istotnym punktem jest zainteresowanie firmy powstające pamięci nieulotne, takie jak RRAMTechnologie te zachowują informacje nawet po zaniku zasilania. W niektórych scenariuszach mogą one oferować przewagę wydajnościową nad tradycyjną pamięcią flash, choć wciąż napotykają na problemy techniczne, które ograniczyły ich powszechne zastosowanie w centrach danych. Ewolucja rynku pamięci i decyzje producentów, takie jak… Mikron w odniesieniu do linii produktów Podkreślają te wyzwania i szanse.
Współprojektowanie modeli sprzętu i sztucznej inteligencji
Niekonwencjonalna sztuczna inteligencja nie chce ograniczać się wyłącznie do fizycznej warstwy procesora. Strategia zakłada również rozwój modeli sztucznej inteligencji dostosowanych do ich układów scalonych., korzystając z marginesu optymalizacji, jaki daje wspólne tworzenie oprogramowania i sprzętu od samego początku.
To podejście współprojektowanie Zapewnia maksymalną kontrolę nad sposobem reprezentacji danych, wykonywanymi operacjami i dystrybucją pracy w układzie. Zamiast adaptować istniejące modele przeznaczone dla procesorów graficznych ogólnego przeznaczenia, firma może projektować algorytmy wykorzystujące unikalne cechy swoich obwodów analogowych, neuronów pulsujących lub niekonwencjonalnych modułów pamięci.
Firma ma nadzieję, że dzięki tej integracji uda jej się osiągnąć wydajność rzędu 1.000 razy większa w porównaniu z obecnym krzemem Przy określonym obciążeniu pracą. Chociaż dane te będą wymagały weryfikacji po pojawieniu się pierwszych niezależnych prototypów i testów porównawczych, dają one wyobrażenie o skali ambicji, do których dąży zespół.
Ten typ podejścia jest szczególnie istotny w przypadku Europa i Hiszpaniagdzie debata na temat suwerenności technologicznej i zależności od zagranicznych dostawców sprzętu zyskuje na popularności. Nowe, wydajniejsze architektury sztucznej inteligencji otwierają drogę do bardziej zrównoważonych i tańszych centrów danych.Jest to zgodne z priorytetami energetycznymi i regulacyjnymi regionu. Sojusze między głównymi dostawcami usług w chmurze a producentami sprzętu, takimi jak ci, którzy niedawno zmienili oblicze branży, ilustrują kontekst, w którym te rozwiązania mogłyby się znaleźć.współpraca między chmurą a producentami).
Jeśli niekonwencjonalny model sztucznej inteligencji ostatecznie okaże się konkurencyjny, Nie byłoby zaskoczeniem, gdyby europejskie firmy zajmujące się usługami w chmurze, laboratoria badawcze i duże korporacje zaczęły integrować tego typu rozwiązania. w swojej infrastrukturze, poszukując zmniejszyć koszty energii i ślad węglowy bez poświęcania zaawansowanych możliwości sztucznej inteligencji.
Kontekst rynkowy: Megarundy i wyścig o infrastrukturę AI
Przypadek niekonwencjonalnej sztucznej inteligencji wpisuje się w szerszy trend: pojawienie się startupów zajmujących się sztuczną inteligencją, które na bardzo wczesnym etapie pozyskują setki milionów dolarów, z wycenami, które jeszcze kilka lat temu były zarezerwowane dla spółek giełdowych lub spółek o bardzo skonsolidowanych przychodach.
W ostatnich latach pojawiły się takie nazwy jak OpenAI, Antropiczny lub inicjatywy promowane przez takie postacie jak Ilja Suckewer o Mira Murati Brali udział w historycznych rundach finansowania venture capital. W 2025 roku dziesiątki startupów zajmujących się sztuczną inteligencją przekroczyły kamień milowy 100 milionów dolarów finansowaniakonsolidując niespotykany dotąd wolumen inwestycji w tym segmencie.
W ramach tej fali, bitwa o infrastrukturę Chipy, specjalistyczne chmury obliczeniowe, akceleratory i systemy szkoleniowe stały się obszarami najbardziej zaciętych sporów. zależność od procesora Niedobór kilku producentów, a w szczególności producentów zaawansowanych procesorów graficznych, skłonił inwestorów i przedsiębiorców do poszukiwania alternatywnych rozwiązań, które mogłyby złagodzić bariery w podaży i cenach.
Niekonwencjonalna sztuczna inteligencja wkracza do tego wyścigu, proponując inną ścieżkę niż tylko stopniowa konkurencja z głównymi producentami GPUZamiast po prostu walczyć o większą wydajność, skoncentruj się na osiągnięciu rzędów wielkości poprawy efektywności energetycznej, co jest kluczowe w perspektywie średnioterminowej, aby systemy AI mogły się nadal rozwijać, nie przekraczając przy tym fizycznych i ekonomicznych ograniczeń.
W przypadku ekosystemu europejskiego, w którym koszty energii i wymogi regulacyjne dotyczące emisji są szczególnie rygorystyczne, sukces tego typu propozycji może okazać się decydujący. Znacznie wydajniejszy sprzęt AI Wpisywałoby się to w strategie zielonej transformacji, a jednocześnie umożliwiłoby firmom i organom administracji wdrażanie zaawansowanych aplikacji ze sztuczną inteligencją bez zwiększania ich zużycia.
Projekt Niekonwencjonalna sztuczna inteligencja Uosabia wiele najważniejszych trendów chwili: megarundy w fazie zalążkowej, sprzęt projektowany od podstaw z myślą o sztucznej inteligencji, bezpośrednią inspirację biologią oraz obsesję na punkcie efektywności energetycznej, która odpowiada na coraz bardziej oczywistą rzeczywistość. Jeśli firmie uda się zmaterializować swoje obietnice w krzemie, może stać się jednym z kluczowych graczy definiujących sposób szkolenia i uruchamiania modeli sztucznej inteligencji w ciągu następnej dekady, zarówno w Stanach Zjednoczonych, jak i w Europie, a co za tym idzie, na rynkach takich jak Hiszpania.
Jestem entuzjastą technologii, który swoje „geekowskie” zainteresowania przekształcił w zawód. Spędziłem ponad 10 lat mojego życia, korzystając z najnowocześniejszych technologii i majsterkując przy wszelkiego rodzaju programach z czystej ciekawości. Teraz specjalizuję się w technologii komputerowej i grach wideo. Dzieje się tak dlatego, że od ponad 5 lat piszę dla różnych serwisów poświęconych technologii i grom wideo, tworząc artykuły, których celem jest dostarczenie potrzebnych informacji w języku zrozumiałym dla każdego.
Jeśli masz jakieś pytania, moja wiedza obejmuje wszystko, co jest związane z systemem operacyjnym Windows, a także Androidem dla telefonów komórkowych. Moje zaangażowanie jest wobec Ciebie. Zawsze jestem gotowy poświęcić kilka minut i pomóc Ci rozwiązać wszelkie pytania, jakie możesz mieć w tym internetowym świecie.
