Varma yhteys: Syed Mohsin Abbas ja 6G-verkon uusi luotettavuusstandardi

Nopeuden raja ja lähes virheetön luotettavuus
Kun langaton teknologia kiihtyy 5G:stä 6G:hen, maailmalle luvataan nopeampia latauksia ja saumatonta suoratoistoa. Mutta kiiltävien nopeuksien takana on kiireellisempi haaste: toimintavarmuus. Sovelluksissa, joissa viestintävirheet voivat johtaa tosielämän seurauksiin, kuten etäleikkauksissa tai autonomisissa ajoneuvoissa, panokset ovat paljon korkeammat kuin pysähtynyt video. Tämän ratkaisemiseksi Tampereen yliopiston apulaisprofessori Syed Mohsin Abbas suunnittelee järjestelmiä, jotka toimittavat dataa nopeasti ja lähes virheettömästi. Hän selittää, miksi luotettavuus, ei nopeus, on seuraavan sukupolven verkkojen ratkaiseva haaste.
Haaste määrittää Ultra-Reliable Low-Latency Communication -alueen eli URLLC:n suunnittelufilosofian, joka käsittelee viivettä ja virhettä ei hankaluuksina, vaan hyväksymättöminä riskeinä.
– 5G:stä lähtien tämä uusi viestintäskenaario, URLLC, tulee aina olemaan läsnä. Se on suunniteltu sovelluksille, joilla on erittäin tiukat vaatimukset luotettavuudelle ja viiveelle.
Nämä vaatimukset muuttuvat selkeiksi, kun etäisyys ei ole enää abstrakti. Kun viestintä ohjaa fyysistä toimintaa, jopa hetkellinen katko voi johtaa peruuttamattomiin seurauksiin.
– Otetaan esimerkiksi etäleikkaus, jossa robotti operoi potilasta ja lääkäri on toisella puolella maailmaa. Emme voi sallia mitään epäluotettavaa lähetyksen aikana. Luotettavuuden täytyy olla äärimmäinen, ja viiveen pitää olla hyvin, hyvin matala. Viivettä ei saa olla lainkaan, korostaa Abbas.
Universaali lähestymistapa "kohinaan"
Tällaisen luotettavuuden varmistaminen alkaa syvällä vastaanottimessa, jonne signaalit saapuvat kohinan, häiriöiden ja epätäydellisten kanavien vääristäminä. Perinteisesti langattomat järjestelmät suojaavat dataa käyttämällä tiettyjä "kanavan koodaustekniikoita", matemaattisia sääntöjä, jotka auttavat korjaamaan virheitä, yhdistäen jokaisen tekniikan omaan dekooderiinsa – lähestymistapa, joka toimii mutta pirstoo sekä laitteiston että suunnittelutyön.
– Meillä on niin monia erilaisia kanavan koodaustekniikoita, ja niillä kaikilla on omat ainutlaatuiset dekoodausmenetelmänsä. On kuitenkin olemassa erilainen paradigma nimeltä Universal Decoding, jota voidaan käyttää minkä tahansa koodin dekoodaamiseen, toteaa Abbas.
Sen sijaan että yrittäisi ymmärtää jokaista mahdollista koodausstrategiaa, universaali dekoodaus tarkastelee ongelmaa eri tavalla. Se käsittelee itse häiriötä arvoituksena keskittyen tunnistamaan kohinan kuvion ja suodattamaan sen pois.
– Yksi näistä universaaleista dekoodaustekniikoista on nimeltään GRAND: Guessing Random Additive Noise Decoding (eli ‘satunnaisen kohinan arvaamiseen perustuva dekoodaus’). Vuodesta 2020 lähtien olen keskittynyt tähän laitteistototeutuksen näkökulmasta. Suunnittelen arkkitehtuureja sille, miten nämä GRAND:in muunnelmat voidaan tehokkaasti toteuttaa laitteistossa."
Tämä siirtymä dekoodausrakenteesta dekoodaushäiriöön avaa oven joustaville, koodista riippumattomille vastaanottimille. Lupaus on valtava, mutta käytännössä näiden teoreettisten innovaatioiden täytyy silti toimia nykyaikaisen elektroniikan fyysisten rajojen sisällä.
– Suunnittelemani laitteiston täytyy olla matalaviiveinen, erittäin luotettava ja resurssitehokas, ja sen virrankulutuksen täytyy olla alhainen. Kaikki sulautetut järjestelmät, kuten käyttämämme puhelin, ovat rajoitettuja akulla. Haluamme käyttää siruja, jotka kuluttavat vähemmän virtaa mutta tekevät enemmän työtä.
Kuva: Antti YrjönenMissä data asuu: Laskennan uudelleenajattelu
Virrankulutus ei ole vain algoritmeja; se on myös siitä, missä laskenta tapahtuu. Nykyaikainen laskenta kantaa edelleen vanhan arkkitehtonisen kompromissin jälkiä: muisti ja prosessointi ovat erillään, ja energia kuluu datan kuljettamiseen niiden välillä.
– Perinteisissä järjestelmissä meillä on laskenta erikseen ja tallennustila erikseen. Aina kun tarvitsemme laskentaa, poimimme datan muistista, viemme sen prosessorille, ja laskennan jälkeen tallennamme sen takaisin. Tämä haku ja tallennus aiheuttaa valtavan viiveen ja korkeamman virrankulutuksen.
Voidaan kuvitella datan siirtäminen muistin ja prosessorin välillä kuin työntekijä ajaisi tunnin toimistolle vain kirjoittaakseen yhden lauseen ja ajaisi sitten tunnin takaisin kotiin.
Tämän ratkaisemiseksi Abbas tutkii In-Compute Memory -tekniikkaa; upottamalla laskentalogiikan suoraan muistiin suunnittelu eliminoi tämän energiahukan.
– In-Compute Memory on paradigma, jossa yhdistät tallennustilan ja laskennan samaan aikaan, samassa paikassa. Koska et siirrä dataa, voit säästää virtaa, ja koska data prosessoidaan siellä missä se on tallennettu, viive myös vähenee."
Tämä arkkitehtoninen siirtymä muuttuu erityisen merkittäväksi, kun tekoäly tulee viestintäjärjestelmän osaksi.
– Puhumme tekoälyn integroimisesta viestintään. Tekoäly itsessään on hyvin energiasyöppö ja vaatii matalaa viivettä. Yksi tapa ratkaista tämä ongelma on käyttää näitä uusia tallennusarkkitehtuureja.
Tutkimuksen pitkä horisontti
Monet nykyaikaista viestintää määrittävät teknologiat alkoivat ideoina, jotka saapuivat liian aikaisin. Tämä korostaa, miksi teoreettisten ratkaisujen tavoittelu tänään on tärkeää, vaikka käytännön käyttöönotto kestäisi vuosikymmeniä. Nykyisten URLLC-järjestelmien keskeisten low-density parity-check (LDPC) -koodien historia tarjoaa selvän esimerkin tästä aikajanasta.
– Kun professori Robert Gallager esitteli LDPC-koodit 1960-luvulla, ne jätettiin tuolloin suurelta osin huomiotta. Vaikka niiden dekoodausmenetelmä oli teoreettisesti tehokas, sen ajamiseen tarvittava laskentateho ylitti kaukana sen, mitä silloinen laitteisto pystyi käsittelemään. Tämän seurauksena idea jätettiin suurelta osin sivuun 1990-luvulle saakka, jolloin laskennan edistysaskeleet tekivät käytännön toteutusten harkitsemisen mahdolliseksi. Vuoteen 2017 mennessä LDPC:stä tuli osa 5G-standardia.
– Siinä tutkimuksen kauneus. Jotain, joka löydettiin 60-luvulla, tuli osaksi kaupallisia tuotteita pitkän ajan jälkeen. Voimme vain ehdottaa ratkaisuja. Kuka tietää, ehkä muutaman vuoden päästä ne voidaan ottaa käyttöön, tai ehkä vuosikymmenten kuluttua ne löydetään uudelleen.
Tampereen yhteistyöekosysteemi
Tutkimusympäristöllä itsellään on keskeinen rooli näiden innovaatioiden edistämisessä. Perinteisen akateemisen maailman erikoistuneempiin tutkimusympäristöihin verrattuna Tampereen yliopisto tarjoaa selvästi integroidun mallin.
– Aasiassa ja Kanadassa keskityin vain yhteen aiheeseen. Minulla oli vain yksi asia tehtävänä. Suomessa kyse on enemmän yhteistyöstä; kaikki ovat osa kaikkea."
Tämä filosofia konkretisoituu System-on-Chip (SoC) Hubissa, jossa akateeminen tutkimus ja teollinen käytäntö kietoutuvat tarkoituksellisesti yhteen luoden toimivan innovaatioekosysteemin.
– SoC Hub on konsortio professorien, tutkimusryhmien ja suomalaisten yritysten välillä; Nokia on myös osa sitä. He yhdistävät voimansa, ja sitten he luovat tämän järjestelmän. Jos haluat kasvaa täällä, mahdollisuudet ovat rajattomat.
Kirjoittaja: Sujatro Majumdar








