Săptămâna aceasta la rubrica Inedit vorbim despre subiectele cele mai arzătoare din ultima vreme: atacurile cibernetice, dezvoltarea inteligenței artificiale și combaterea fake news-urilor.
Escrocheriile hackerilor cele mai dese sunt de tip phishing pentru a determina oamenii să instaleze programe malware în rețele. Cele mai cunoscute mărci folosite sunt Facebook, Google, Instagram, PayPal sau Microsoft.
Atacurile sunt în creștere, iar majoritatea utilizatorilor nu sunt încă educați și au moduri de utilizare care pun companiile în pericol.
Aceștia refolosesc parolele vechi sau fraze ușor de ghicit, eroarea umană fiind încă o cauză a breșelor de securitate ce pot fi rezolvate cu o educație adecvată.
51% din procentele alocate bugetelor de securitate cibernetică au crescut în ultima perioadă, însă zilnic au loc aproximativ 2.244 de atacuri, aproape un atac cibernetic la fiecare 39 de secunde.
Când vine vorba de atacuri malware, e-mailul rămâne canalul de distribuție preferat al hackerilor, 94% din programele malware fiind livrate prin e-mail.
Pentru 2024, nu știm cifra exactă a numărului de atacuri cibernetice zilnice, dar se vehiculează a fi semnificativ mai mare față de anul precedent.
Despre toate aceste lucruri, dar și despre cum să ne ferim de pericolele mediului online ne oferă mai multe detalii, specialistul în Securitate informatică, Mircea Scheau, într-un interviu realizat de Gabriel Stan, de la redacția Jurnal Militar, Radio România Actualități.
Inteligența artificială de azi poate să comunice cu utilizatorii, să răspundă la întrebări, să traducă, să vorbească în mai multe limbi şi să genereze texte, ştiri, să preia link-uri, să dea note de subsol, reportaje, articole, lucrări academice şi imagini.
Vom discuta și despre ChatGPT, care a fost antrenat cu ajutorul unui volum substanțial de date și care continuă să învețe prin intermediul cunoștințelor umane pe care utilizatorii săi le furnizează.
Acest lucru îl face capabil să ofere răspunsuri inteligente pentru o mare varietate de subiecte.
Aceste date includ o gamă largă de texte din diverse surse, inclusiv site-uri web, cărți, articole sau chiar enciclopedii.
Veți afla în interviul următor chiar de la specialistul în securitatea cibernetică, Mircea Scheau, ce este inteligența artificială, cum o putem folosi, ce lucruri pozitive sau negative are aceasta în viețile noastre, cât și despre viitorul acesteia în societatea actuală.
Gabriel Stan (realizator rubrică): Star Trek, Star Wars filmele acestea SF la un moment dat prevesteau că o să avem tehnologie mobilă. Da, să duci o tabletă în mână, să te plimbi cu ea, să vorbești cu celălalt la distanță, să ai intercomunicații da, mult mai lejere, să te vezi, să te auzi, cu mult mai ușoară.
Au apărut primele telefoane prin tablete, am ajuns în secolul acesta 21, în 2023, atunci când discutăm despre inteligența artificială, o inteligență care sperie, dar pe de altă parte ne intrigă. Am ajuns să cutăm cu un robot care ne poate oferi sfaturi, dar ne poate oferi și răspunsuri.
Înainte așa am avut: Google, Wikipedia, Bing în anumite țări. Acum, acest ChatGPT care ne explică cum se creează o pagină de internet sau pur și simplu care este istoria Franței. Până să intrăm în controverse, ce părere aveți despre acea inteligență artificială și cum ați vedea-o dumneavoastră?
Mircea Scheau:Pentru a încerca, explic cât mai clar la ce doresc să fac. Voi aduce în atenție un proiect la care tot lucrez împreună cu un grup de entuziaşti, un grup de specialiști, de fapt, de la Universitatea Babeș-Bolyai și nu numai și anume, un proiect numit FinCrime, Financial Crime, de evaluare în timp real prin realităţi economico-financiare la nivel european, cu comparații între țări și la nivel național cu comparație între județe.
Acest ChatGPT citește din surse publice informații, trebuie să menționăm că sunt necesare capacități de stocare și de prelucrare a informaţiei enorme, asta în situația în care nu cumva între timp au apărut altfel de tehnologii, așa încât consumul de energie să nu mai fie unul prohibitiv şi să permită procesarea informațiilor în timp real sau cu un delay, pentru că timp real este totuși o loțiune relativ abstractă în multe cazuri, existând o latenţă de o secundă, de o jumătate de secundă, de câteva fracțiuni de secundă între achiziția datelor, prelucrarea datelor și livrarea rezultatelor.
Tot ceea ce pot să spun este că una este să beneficiem de informații prelucrate de ChatGPT și puse la dispoziția publicului la informații asimilate din surse publice și alta este ca această inteligență artificială să depășească nivelul de just fun și să livreze rezultate celor care le solicită pe domenii de activitate nişate, poate aș putea să spun.
Ce vreau să subliniez este că o tehnologie poate să fie folosită în sens pozitiv sau în sens negativ.
Întotdeauna va exista această tendință de a o folosi în ambele sensuri. Ne dorim să fie folosită în sens pozitiv, o creăm pentru a fi folosită în sens pozitiv, o susținem, o dezvoltăm și, sigur, la un moment dat, cineva o ia, o prelucrează și se gândește el că este personal sau de grup, mai de interes, să fie folosită în sensul negativ.
Este greu de anticipat. Putem să descoperim care sunt avantajele. Ne gândim la o parte dintre avantaj atunci când o construim. Până la urmă de asta o construim, nu, pentru anumite avantaje, dar vulnerabilitățile nu le descoperi imediat.
Gabriel Stan (realizator rubrică): Elon Musk, Steve Wozniak și Yuval Harari au venit și au spus: haideți să stopăm un pic, să-i mai dăm o pauză de șase luni, să vedem cât putem să dezvoltăm, până unde. Pe de altă parte, Bill Gates a venit și a spus că nu este nevoie de acea pauză, pentru că dezvoltarea trebuie să vină din mers.
Și Joe Biden a venit pe această, să zicem, nișă a lui Bill Gates și a spus: ok, continuăm cu dezvoltarea ei, pentru că ar fi necesară dintr-un punct sau altul de vedere, dar, pe de altă parte, văd că Italia și autoritățile italiene au vrut și decid să blocheze oarecum acest bot ChatGPT, pentru că nu îl văd, în momentul de față, să respecte legislația privind datele personale și nu au sisteme de verificare a vârstei, în primul rând, a utilizatorilor, dar eu mă gândesc care sunt pericolele din jurul acestei inteligențe artificiale și cum le abordăm pe viitor?
Mircea Scheau:Sunt probleme de reglementare, sunt probleme de etică. ChatGPT poate să aibă acces la informație, atenție, pe care noi le facem publice. Cum? Prin intermediul rețelelor sociale.
Păi de ce ne mai mirăm atunci? Dacă noi am făcut publice, de ce ne mirăm că o inteligență artificială, alta decât cea umană, a accesat acele resurse, acele informații pe care, repet, noi am ales să le facem publice?
Cred că problema este de altă natură. În situația în care există instituții, organizații, state care își exprimă îngrijorarea referitoare la accesul la informațiile ce pot să devină publice, asta înseamnă că ar trebui cumva ca reglementarea să fie bidirecțional și pentru inteligență artificială, dar și pentru cei care ar fi trebuit să o pună în practică pentru ca acele informații să nu devină publice.
Nu știu dacă m-am făcut corect înțeles, dar există proceduri, fluxuri, da, norme de punere în aplicare a procedurilor în care se specifică foarte clar măsurile ce trebuie adoptate și implementate pentru a nu se oferi acces la un tip de informație clasificată sau nu.
Nu putem să ignorăm aspectul pozitiv. Sunt persoane care doresc acces la informație rapid și probabil și concatenat, concentrat pentru o singură pagină. Păi, am putea să facem, fără să greșim prea mult, o comparație între ChatGPT și Wikipedia, da.
Una este să căutăm fiecare dintre noi pe Wikipedia ca au o sursă deschisă, în care nu știm cine a scris, dacă în momentul în care a scris a fost bine intenționat, dacă informația este corectă, dacă este reală, pentru că este Wikipedia.
Fiecare dintre noi putem să intrăm și să modificăm informația existentă acolo și să o alterăm. Mergem în zona de atenție, profilare și manipulare. Deci una este să intrăm pe Wikipedia și să căutăm, eu știu, informație, niște date de care avem nevoie într-o anumită formă și alta este să punem inteligența artificială să caute în locul nostru.
Cred că suntem abia la începutul unei paradigme la nivelul utilizatorului de rând. ‘Totul pare foarte frumos, nimic nu mă poate afecta, nu sunt vulnerabil, nu are ce să-mi facă, nu are de ce să-mi facă rău.
Și iată cum o posibilă replicare a unei informații, de fapt, vine din ajutorul cercetătorului care are acces la informații publicate până atunci, oferindu-i posibilitatea să adauge elementul de noutate la care s-a gândit sau pe care dorește să-l parcurgă, ca direcție de cercetare.
Gabriel Stan (realizator rubrică): Noi, jurnaliștii, avem o vorbă: verifici din trei surse o știre, ca să fii sigur că este veridică. În schimb, prin acest, nu neapărat doar ChatGPT-ul, dar cu toate această inteligență artificială, am văzut lucruri incredibile.
Se pot crea pagini financiare, putem crea materiale video credibile, ca și cum ar părea, pe baza acestui război care este lângă no, în Ucraina, cu Rusia, niște imagini prin care putem să spunem că, nu știu, s-a terminat, s-a încheiat sau, nu știu, președintele Rusiei, Vladimir Putin, a declarat nu știu ce. Cine ar fi tras la răspundere pentru astfel de daune cauzate de către inteligența artificială?
Mircea Scheau: Înainte de a-ţi răspunde la ceea ce m-ai întrebat, aș dori să-ți adresez și eu o întrebare: unde sunt alocate resursele care permit funcționarea acestei inteligențe artificiale?
Gabriel Stan (realizator rubrică): Într-un server comun sau într-un server, nu știu, al unei entități.
Mircea Scheau:Poate că sunt salvate în cloud, într-un grup de servere. Poate că respectivii proprietari de cloud sunt semnatari sau nu ai Acordului de la Budapesta, poate că se subordonează sau, eu știu, sunt guvernați de un sistem de reglementare în domeniu.
O tehnologie poate să fie folosită în sens pozitiv și în sens negativ. Fake news există din cele mai vechi timpuri, din perioada precursoare perioadei antice există fake news. Dacă e să ne gândim la fake news, haideți să ne uităm în propria ogradă, în propria casă, în propria familie, în relația noastră cu prietenii și să ne întrebăm: oare de câte ori i-am mințit noi pe ei, prezentându-le denaturat un „adevăr”, cu ghilimelele de rigoare, un adevăr infestat cu 95% informație veridică și exact 5% informație falsă, care să provoace o reacție a prietenului nostru în favoarea noastră și eventual, în defavoarea unei alte persoane.
Oare de câte ori am făcut acest lucru? De puține ori, de multe ori? Se numește fake news, se numește profilare, se numește oare manipulare? Păi, dacă noi, oamenii, facem acest lucru, de ce ne mirăm că o inteligență artificială creată cu ajutorul creierului uman învață să facă acest lucru?
Poate că inteligența artificială nu lasă să facă acest lucru. Însă oamenii, gândind în modul în care gândesc, utilizează acea inteligență artificială, cuvântul „inteligentă” – care învață – learning, utilizează acea inteligență în sens negativ.
Până la urmă, cred că problema este la noi și nu la inteligența artificială, este la modalitatea în care noi, oamenii, alegem să exploatăm resursele acelei inteligențe artificiale și reglementarea sigur că trebuie aplicată inteligenței artificiale, mai ales utilizatorilor, celor care o exploatează, celor care se bucură de roadele necuvenite ale informațiilor asimilate și ale informațiilor false pe care le pot arunca în spațiul cibernetic sau în spațiul real. Pentru că, până la urmă, observăm că spațiul cibernetic și spațiul real încep să se suprapună pe o suprafață din ce în ce mai mare.
Gabriel Stan (realizator rubrică): Domnule Mircea Scheau, mulțumesc tare mult pentru intervenţia în emisiunea noastră. Ați fost, spun eu, de mare ajutor și ne-ați oferit informații utile în condițiile în care, așa, într-o oarecare măsură, totul e o nebuloasă.
Nu știm pentru ce, când și de ce va fi utilă această tehnologie. Să sperăm că dacă vom mai avea ocazia și vom mai discuta pe viitor, vom vorbi de bine despre ea și, de ce nu, laudativ.
Mircea Scheau:Ne dorim să vorbim de bine, pentru că dacă vom vorbi de bine, asta înseamnă că lucrurile au mers, merg și să sperăm că vor merge într-o direcție bună.
Şi eu vă mulțumesc pentru invitație și le mulțumesc mai ales celor care ne ascultă în acest moment, celor care poate sunt departe de casă, celor cărora le putem veni în ajutor măcar cu un gând bun, cu o vorbă bună și, de ce nu, o faptă bună. Și dacă, exact cum aţi spus, vom avea prilejul, vom încerca să răspundem și la alte întrebări.
Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.
Cookie-urile strict necesare
Cookie-urile strict necesar trebuie să fie activate tot timpul, astfel îți putem salva preferințele pentru setările cookie-urilor.
Dacă dezactivezi aceste cookie-uri, nu vom putea să-ți salvăm preferințele. Aceasta înseamnă că de fiecare dată când vizitezi acest site va trebui să activezi sau să dezactivezi cookie-urile din nou.