Hyppää pääsisältöön
Tutkimus

Varma yhteys: Syed Mohsin Abbas ja 6G-verkon uusi luotettavuusstandardi

Julkaistu 10.2.2026
Tampereen yliopisto
Mohsin Abbas in Hervanta campus
Kuva: Antti Yrjönen
6G lupaa ennennäkemättömiä nopeuksia, mutta todellinen haaste on luotettavuus. Kriittisissä sovelluksissa, kuten etäkirurgiassa tai autonomisissa ajoneuvoissa, pienikin viive voi olla kohtalokas. Tampereen yliopiston apulaisprofessori Syed Mohsin Abbas kehittää järjestelmiä, jotka siirtävät dataa nopeasti – mutta lähes virheettömästi.

Nopeuden raja ja lähes virheetön luotettavuus 

Kun langaton teknologia kiihtyy 5G:stä 6G:hen, maailmalle luvataan nopeampia latauksia ja saumatonta suoratoistoa. Mutta kiiltävien nopeuksien takana on kiireellisempi haaste: toimintavarmuus. Sovelluksissa, joissa viestintävirheet voivat johtaa tosielämän seurauksiin, kuten etäleikkauksissa tai autonomisissa ajoneuvoissa, panokset ovat paljon korkeammat kuin pysähtynyt video. Tämän ratkaisemiseksi Tampereen yliopiston apulaisprofessori Syed Mohsin Abbas suunnittelee järjestelmiä, jotka toimittavat dataa nopeasti ja lähes virheettömästi. Hän selittää, miksi luotettavuus, ei nopeus, on seuraavan sukupolven verkkojen ratkaiseva haaste. 

Haaste määrittää Ultra-Reliable Low-Latency Communication -alueen eli URLLC:n suunnittelufilosofian, joka käsittelee viivettä ja virhettä ei hankaluuksina, vaan hyväksymättöminä riskeinä. 

– 5G:stä lähtien tämä uusi viestintäskenaario, URLLC, tulee aina olemaan läsnä. Se on suunniteltu sovelluksille, joilla on erittäin tiukat vaatimukset luotettavuudelle ja viiveelle. 

Nämä vaatimukset muuttuvat selkeiksi, kun etäisyys ei ole enää abstrakti. Kun viestintä ohjaa fyysistä toimintaa, jopa hetkellinen katko voi johtaa peruuttamattomiin seurauksiin. 

– Otetaan esimerkiksi etäleikkaus, jossa robotti operoi potilasta ja lääkäri on toisella puolella maailmaa. Emme voi sallia mitään epäluotettavaa lähetyksen aikana. Luotettavuuden täytyy olla äärimmäinen, ja viiveen pitää olla hyvin, hyvin matala. Viivettä ei saa olla lainkaan, korostaa Abbas.

Universaali lähestymistapa "kohinaan" 

Tällaisen luotettavuuden varmistaminen alkaa syvällä vastaanottimessa, jonne signaalit saapuvat kohinan, häiriöiden ja epätäydellisten kanavien vääristäminä. Perinteisesti langattomat järjestelmät suojaavat dataa käyttämällä tiettyjä "kanavan koodaustekniikoita", matemaattisia sääntöjä, jotka auttavat korjaamaan virheitä, yhdistäen jokaisen tekniikan omaan dekooderiinsa – lähestymistapa, joka toimii mutta pirstoo sekä laitteiston että suunnittelutyön. 

– Meillä on niin monia erilaisia kanavan koodaustekniikoita, ja niillä kaikilla on omat ainutlaatuiset dekoodausmenetelmänsä. On kuitenkin olemassa erilainen paradigma nimeltä Universal Decoding, jota voidaan käyttää minkä tahansa koodin dekoodaamiseen, toteaa Abbas.

Sen sijaan että yrittäisi ymmärtää jokaista mahdollista koodausstrategiaa, universaali dekoodaus tarkastelee ongelmaa eri tavalla. Se käsittelee itse häiriötä arvoituksena keskittyen tunnistamaan kohinan kuvion ja suodattamaan sen pois. 

– Yksi näistä universaaleista dekoodaustekniikoista on nimeltään GRAND: Guessing Random Additive Noise Decoding (eli ‘satunnaisen kohinan arvaamiseen perustuva dekoodaus’). Vuodesta 2020 lähtien olen keskittynyt tähän laitteistototeutuksen näkökulmasta. Suunnittelen arkkitehtuureja sille, miten nämä GRAND:in muunnelmat voidaan tehokkaasti toteuttaa laitteistossa." 

Tämä siirtymä dekoodausrakenteesta dekoodaushäiriöön avaa oven joustaville, koodista riippumattomille vastaanottimille. Lupaus on valtava, mutta käytännössä näiden teoreettisten innovaatioiden täytyy silti toimia nykyaikaisen elektroniikan fyysisten rajojen sisällä. 

– Suunnittelemani laitteiston täytyy olla matalaviiveinen, erittäin luotettava ja resurssitehokas, ja sen virrankulutuksen täytyy olla alhainen. Kaikki sulautetut järjestelmät, kuten käyttämämme puhelin, ovat rajoitettuja akulla. Haluamme käyttää siruja, jotka kuluttavat vähemmän virtaa mutta tekevät enemmän työtä.

 

Mohsin Abbas in Hervanta campusKuva: Antti Yrjönen

Missä data asuu: Laskennan uudelleenajattelu 

Virrankulutus ei ole vain algoritmeja; se on myös siitä, missä laskenta tapahtuu. Nykyaikainen laskenta kantaa edelleen vanhan arkkitehtonisen kompromissin jälkiä: muisti ja prosessointi ovat erillään, ja energia kuluu datan kuljettamiseen niiden välillä. 

– Perinteisissä järjestelmissä meillä on laskenta erikseen ja tallennustila erikseen. Aina kun tarvitsemme laskentaa, poimimme datan muistista, viemme sen prosessorille, ja laskennan jälkeen tallennamme sen takaisin. Tämä haku ja tallennus aiheuttaa valtavan viiveen ja korkeamman virrankulutuksen.

Voidaan kuvitella datan siirtäminen muistin ja prosessorin välillä kuin työntekijä ajaisi tunnin toimistolle vain kirjoittaakseen yhden lauseen ja ajaisi sitten tunnin takaisin kotiin. 

Tämän ratkaisemiseksi Abbas tutkii In-Compute Memory -tekniikkaa; upottamalla laskentalogiikan suoraan muistiin suunnittelu eliminoi tämän energiahukan. 

– In-Compute Memory on paradigma, jossa yhdistät tallennustilan ja laskennan samaan aikaan, samassa paikassa. Koska et siirrä dataa, voit säästää virtaa, ja koska data prosessoidaan siellä missä se on tallennettu, viive myös vähenee." 

Tämä arkkitehtoninen siirtymä muuttuu erityisen merkittäväksi, kun tekoäly tulee viestintäjärjestelmän osaksi. 

– Puhumme tekoälyn integroimisesta viestintään. Tekoäly itsessään on hyvin energiasyöppö ja vaatii matalaa viivettä. Yksi tapa ratkaista tämä ongelma on käyttää näitä uusia tallennusarkkitehtuureja.
 

Tutkimuksen pitkä horisontti 

Monet nykyaikaista viestintää määrittävät teknologiat alkoivat ideoina, jotka saapuivat liian aikaisin. Tämä korostaa, miksi teoreettisten ratkaisujen tavoittelu tänään on tärkeää, vaikka käytännön käyttöönotto kestäisi vuosikymmeniä. Nykyisten URLLC-järjestelmien keskeisten low-density parity-check (LDPC) -koodien historia tarjoaa selvän esimerkin tästä aikajanasta. 

– Kun professori Robert Gallager esitteli LDPC-koodit 1960-luvulla, ne jätettiin tuolloin suurelta osin huomiotta. Vaikka niiden dekoodausmenetelmä oli teoreettisesti tehokas, sen ajamiseen tarvittava laskentateho ylitti kaukana sen, mitä silloinen laitteisto pystyi käsittelemään. Tämän seurauksena idea jätettiin suurelta osin sivuun 1990-luvulle saakka, jolloin laskennan edistysaskeleet tekivät käytännön toteutusten harkitsemisen mahdolliseksi. Vuoteen 2017 mennessä LDPC:stä tuli osa 5G-standardia.

– Siinä tutkimuksen kauneus. Jotain, joka löydettiin 60-luvulla, tuli osaksi kaupallisia tuotteita pitkän ajan jälkeen. Voimme vain ehdottaa ratkaisuja. Kuka tietää, ehkä muutaman vuoden päästä ne voidaan ottaa käyttöön, tai ehkä vuosikymmenten kuluttua ne löydetään uudelleen.
 

Tampereen yhteistyöekosysteemi 

Tutkimusympäristöllä itsellään on keskeinen rooli näiden innovaatioiden edistämisessä. Perinteisen akateemisen maailman erikoistuneempiin tutkimusympäristöihin verrattuna Tampereen yliopisto tarjoaa selvästi integroidun mallin. 

– Aasiassa ja Kanadassa keskityin vain yhteen aiheeseen. Minulla oli vain yksi asia tehtävänä. Suomessa kyse on enemmän yhteistyöstä; kaikki ovat osa kaikkea." 

Tämä filosofia konkretisoituu System-on-Chip (SoC) Hubissa, jossa akateeminen tutkimus ja teollinen käytäntö kietoutuvat tarkoituksellisesti yhteen luoden toimivan innovaatioekosysteemin. 

– SoC Hub on konsortio professorien, tutkimusryhmien ja suomalaisten yritysten välillä; Nokia on myös osa sitä. He yhdistävät voimansa, ja sitten he luovat tämän järjestelmän. Jos haluat kasvaa täällä, mahdollisuudet ovat rajattomat.

 

Kirjoittaja: Sujatro Majumdar