Home»Magazine»Kur komandën e marrin kompjuterët

Kur komandën e marrin kompjuterët

Problemi është tek softueri. Teknikët që po hetojnë dy incidentet e ndodhur me Boeing 737 Max 8, atë indonezian të 29 tetorit 2018 dhe atë në Etiopi të 10 marsit, nuk e kanë shkruar ende në një raport përfundimtar, por të gjitha të dhënat tregojnë pikërisht këtë. Defekti ka qenë në shtimin e një kodi në algoritmin që rregullon MCAS, sistemin anti-ngecje, që ruan shpejtësinë dhe prirjen e avionit brenda kufijve të sigurt të fluturimit. Ndërhyn, me fjalë të tjera, për të korrigjuar qëndrimin nëse avioni po shkon shumë lart dhe është shumë i ngadaltë, duke dhënë një urdhër “kthimi për poshtë”, gjë që ul hundën e avionit dhe rrit shpejtësinë. Eshtë një zgjidhje klasike në aeroplanët e gjeneratës së re, por në Max 8, modeli i ri Boeing 737 me motorë të fuqizuar, duket se shkakton në disa raste një mungesë kontrolli të pajisjes, të cilën pilotët nuk janë në gjendje ta korrigjojnë.

A është e drejt t’u besojmë kaq shumë automatizmave, nëse më pas ekziston rreziku që të na dalin nga kontrolli, duke shkaktuar fatkeqësi?

Autopilot, por me gjykim

Një pyetje që mund të vlejë edhe për teknologji të tjera të drejtuara nga programe kompjuterike: nga veturat me vetëngarje, deri tek sondat në hapësirë. Një shembull vjen nga Florida, ku dy Tesla Model S u përfshinë në aksidente me një dinamikë të ngjashme. Agjensitë federale të sigurisë rrugore janë duke hetuar sistemin Autopilot të Tesla-s, i cili shërben për të ndihmuar shoferët në parkim dhe, ndërsa e ngasin, për ta mbajtur makinën brenda një korsie ose për ta ndryshuar atë, në varësi të kushteve të trafikut, por gjithnjë me konfirmimin e shoferit. Modeli S kishte qenë tashmë protagonist në vitin 2016, në aksidentin e parë fatal, që i ndodhi një makine gjysmë-autonome. Në atë rast sistemi ishte mashtruar nga ngjyra e bardhë e një rimorkioje, e cila nuk mund të dallohej në sfondin e qiellit, dhe kështu nuk frenonte për ta shmangur atë. Shoferi ishte i hutuar dhe nuk kishte asnjë shans. Tani agjensitë amerikane duan të kuptojnë nëse diçka e tillë ka ndodhur në të dyja rastet në Florida.

Nuk duhet thjeshtëzuar shumë

“Futja e sistemeve automatike të drejtimit në avionë”, thotë Luca Chittaro, drejtori i Laboratorit të Ndërveprimit Njerëzor-Kompjuterik të Universitetit të Udines, “ka zvogëluar shumë frekuencën e aksidenteve, por ka zhvendosur problemin e sigurisë nga kabina, te programuesit e kompjuterave. Rreziku, në fakt, është që programi të jetë i bazuar në modele që janë thjeshtuar shumë, ose kanë defekte që i bëjnë të dështojnë”.

Një temë që ka të bëjë edhe me teknologjitë e tjera. Një shembull, këtë herë që lidhet me hapësirën, është ai i sondës Schiaparelli, krijuar nga Thales Alenia Space nën programin ExoMars të ESA-s, Agjencisë Evropiane të Hapësirës. Në Tetor 2016 ajo duhej të zbriste në Mars, por një problem me programin navigues Gnc (Drejtim, Navigacion dhe Kontroll), i zhvilluar nga grupi spanjoll Gmv, shkaktoi përplasjen dhe shkatërrimin e sondës. Projektuesit në të vërtetë kishin imagjinuar një zbritje të qëndrueshme të sondës por ajo, me të rënë në kontakt me atmosferën e Marsit, filloi të lëkundet. Sensorët që duhej të llogaritnin distancën nga toka, për shkak të dridhjeve, mblidhnin të dhëna që kompjuteri në bord nuk mund t’ië interpretonte, dhe të cilat e bënë atë të aktivizonte një manovër të gabuar të uljes.

Hapësirat e sigurisë

Pastaj ka situata në të cilat “gabimi”, nëse mund të përcaktohet kështu, është pjesë e veçorive të sigurisë së një sistemi automatik, që duhet të ndërhyjë për të parandaluar një rrezik përpara se të materializohet. Kjo ka ndodhur me sistemin e menaxhimit të linjës së metrosë Milano M1, e cila në 18 muajt e fundit është prekur nga rreth pesëdhjetë ndalesa anormale, të cilat në disa raste kanë shkaktuar lëndime për pasagjerët. Sistemi u prezantua për të menaxhuar më mirë trafikun dhe parandalimin e aksidenteve që kishin dëmtuar linjat nëntokësore në të kaluarën, siç janë disa raste vetëvrasjesh. Drejtori i Atm, ndërmarrja e transportit e MIlanos, Arrigo Giana, shpjegon se “sistemi identifikon rreziqet e mundshme të sigurisë për pasagjerët dhe ndërhyn me një seri metodash të ndryshme, në disa raste madje edhe me ndalimin e trenit. Problemi për të cilin ne po punojmë është forca e frenimit”. Që duhet të jetë mjaft i beftë, për të ndaluar vagonët në një hapësirë ​​të shkurtër, por jo aq shumë sa të shkaktojë probleme për pasagjerët.

Simulimi mbi të gjitha

Si mund të parandalohen gabimet e shkrimit të softuerit? Përgjigja, siç e ka përcaktuar ESA në hetimin e saj për çështjen e sondës Schiaparelli, qëndron në përmirësimin e sistemeve të simulimit në terren. Paolo Maggiore, profesor i sistemeve të hapësirës ajrore në Departamentin e Inxhinierisë Mekanike dhe Hapësirës të Universitetit Politeknik të Torinos, shpjegon: «Me kalimin e viteve ne kemi qenë dëshmitarë të një evolucioni të madh të simuluesve që, veçanërisht në lidhje me avionët, janë një biznes shumë i rëndësishëm, në të cilin operojnë kompani të dedikuara ekskluzivisht për zhvillimin e tyre. Ato janë të çertifikuara nga kontrollues të palëve të treta me procedura shumë të ngjashme me ato të përdorura për aeroplanët, të cilat ata duhet të jenë në gjendje të riprodhojnë çdo gabim të mundshëm në mënyrë që të trajnojnë pilotët për çdo rast”.

Simulatorët janë duke u bërë gjithnjë e më popullorë edhe për industrinë e makinave: një nga sistemet më të përparuara është ai i zhvilluar nga British VI Grade dhe i përshtatur në Itali, nga viti 2016, nga një kompani e Torinos që punon në zhvillimin e modeleve dhe prototipave, Danesi Engineering. Kjo lejon të kontrollohet qëndrimi dhe ndjesitë e drejtimit, funksionimi i automatizmit dhe paraqitja e kontrolleve në pult, përpara se të nxirret një model në rrugë. Një tjetër kompani me qendër në Torino, Argotec, kohët e fundit ka patentuar një imitues hapësinor. Quhet Atena dhe përdoret për të provuar mikrosatelitët që prodhon kompania. Një krah robotik i mban këto objekte, jo më të mëdha se një kuti frutash dhe riprodhon sjelljen që ata do të kishin në hapësirën e jashtme, në mungesë të gravitetit. Kjo është për të provuar softuerët dhe pajisjet e projektuara për t’i manovruar ato nga toka dhe për t’i transferuar, për shembull, në një orbitë të ndryshme.

Kujdes biznesin

Po nëse ka simulues dhe programe trainimi të pilotëve, atëherë pse aksidente si ato të Boeing 737 Max 8 ndodhin akoma? Paolo Maggiore thotë: «Një nga funksionet e softuerit në bord është që aeroplanët të bëhen shumë të ngjashëm me njëri-tjetrin për pilotët, në mënyrë që të lehtësojnë trajnimin e tyre, ta shkurtojnë atë dhe të zvogëlojnë kostot që lidhen me prezantimin e modeleve të reja. Sidoqoftë, rreziku i këtij thjeshtësimi është që krijohet ideja që, për një pilot është jashtëzakonisht e lehtë të kalojë nga kabina e një aeroplani në atë të një tjetri, madje edhe shumë të ndryshëm, pa një trajnim të duhur”. Me pak fjalë, duke i bërë aeroplanët të duken të gjithë njësoj përmes softuerit në bord, ne nuk do të kishim më perceptimin se sa të ndryshëm janë ata në realitet dhe avionët rrezikojnë të bëhen më shumë mjete në shërbim të biznesit, sesa njeriut.

Rreziku i vetëkënaqësisë

Një aspekt tjetër që duhet të merret parasysh përcaktohet nga ekspertët e industrisë si vetëkënaqësia. “Ai konsiston,” shpjegon Luca Chittaro, “në arritjen e një niveli besimi në sistemet automatike të drejtimit, sa që të mbështeten plotësisht te ata, duke braktisur të gjitha funksionet e kontrollit. Eshtë një faktor psikologjik, tipik njerëzor, i cili merret parasysh jo vetëm në programet e trajnimit, por edhe në shkrimin e softuerëve”. Një nga rreziqet e natyrshme në këtë “vetëkënaqësi” është që ata që drejtojnë një automjet hutohen, humbasin perceptimin e tyre për atë që po ndodh në bord dhe, në rast të një emergjence, nuk dinë më se çfarë të bëjnë. “Për këtë arsye”, thotë Chittaro, “janë futur në sistemet automatike të drejtimit të avionëve, ndërfaqe që kanë për qëllim të mbajnë të kthjellët vëmendjen e pilotëve, për shembull duke i përfshirë ata në operacione në të cilat bashkëpunojnë me kompjuterin në bord”.

Kuptimi i ndërsjellë

Por në fusha të tjera arsyetohet ndryshe. Për shembull, në veturat me vetëngarje ka nga ata që preferojnë një qasje në të cilën njeriu nuk duhet të ndërhyjë në automjet, sepse kjo do të rrezikonte sigurinë. Matteo Matteucci, specialist për robotikën dhe inteligjencën artificiale të Departamentit të Elektronikës, Informacionit dhe Bioinxhinierisë në Politeknikumin e Milanos, shpjegon: «Disa zhvillues të makinave autonome, si Google me Google Car-in e saj, kanë preferuar zgjidhje që i heqin pasagjerit çdo mundësi komandimi, duke lënë vetëm një buton të kuq për t’u aktivizuar në rast urgjence. Sidoqoftë, ata që janë brenda automjetit nuk duhet të tundohen ta shtypin atë çdo moment dhe për këtë arsye, për t’i qetësuar ata, në këto automjete janë futur ndërfaqe dhe zëra që shpjegojnë hap pas hapi atë që po ndodh dhe të japin një sens sigurie”. Matteucci tani është duke punuar në një projekt të Politeknikut të Milanos, I.Drive, për të zhvilluar një sistem të aftë për të perceptuar, nga parametra të tilla si rrahjet e zemrës, djersitjet dhe lëvizjet e syve, shkallën e rehatisë së pasagjerëve të një automjeti, me qëllim zhvillimin e sistemeve autonome të afta për të perceptuar ndjesitë e njerëzve dhe për të përshtatur stilin e drejtimit, në përputhje me rrethanat. Me pak fjalë, nëse njeriu e ka të vështirë të kuptojë se çfarë bëjnë makinat, në të ardhmen mund të jenë makinat që kuptojnë ato që kemi në mendje, për të na bërë më të sigurt.

Focus – Bota.al

Nuk ka komente

Vendos komentin tend

Your email address will not be published. Required fields are marked *