Săptămâna aceasta la rubrica Inedit vorbim despre subiectele cele mai arzătoare din ultima vreme: atacurile cibernetice, dezvoltarea inteligenței artificiale și combaterea fake news-urilor.
Escrocheriile hackerilor cele mai dese sunt de tip phishing pentru a determina oamenii să instaleze programe malware în rețele. Cele mai cunoscute mărci folosite sunt Facebook, Google, Instagram, PayPal sau Microsoft.
Atacurile sunt în creștere, iar majoritatea utilizatorilor nu sunt încă educați și au moduri de utilizare care pun companiile în pericol.
Aceștia refolosesc parolele vechi sau fraze ușor de ghicit, eroarea umană fiind încă o cauză a breșelor de securitate ce pot fi rezolvate cu o educație adecvată.
51% din procentele alocate bugetelor de securitate cibernetică au crescut în ultima perioadă, însă zilnic au loc aproximativ 2.244 de atacuri, aproape un atac cibernetic la fiecare 39 de secunde.
Când vine vorba de atacuri malware, e-mailul rămâne canalul de distribuție preferat al hackerilor, 94% din programele malware fiind livrate prin e-mail.
Pentru 2024, nu știm cifra exactă a numărului de atacuri cibernetice zilnice, dar se vehiculează a fi semnificativ mai mare față de anul precedent.
Despre toate aceste lucruri, dar și despre cum să ne ferim de pericolele mediului online ne oferă mai multe detalii, specialistul în Securitate informatică, Mircea Scheau, într-un interviu realizat de Gabriel Stan, de la redacția Jurnal Militar, Radio România Actualități.
Inteligența artificială de azi poate să comunice cu utilizatorii, să răspundă la întrebări, să traducă, să vorbească în mai multe limbi şi să genereze texte, ştiri, să preia link-uri, să dea note de subsol, reportaje, articole, lucrări academice şi imagini.
Vom discuta și despre ChatGPT, care a fost antrenat cu ajutorul unui volum substanțial de date și care continuă să învețe prin intermediul cunoștințelor umane pe care utilizatorii săi le furnizează.
Acest lucru îl face capabil să ofere răspunsuri inteligente pentru o mare varietate de subiecte.
Aceste date includ o gamă largă de texte din diverse surse, inclusiv site-uri web, cărți, articole sau chiar enciclopedii.
Veți afla în interviul următor chiar de la specialistul în securitatea cibernetică, Mircea Scheau, ce este inteligența artificială, cum o putem folosi, ce lucruri pozitive sau negative are aceasta în viețile noastre, cât și despre viitorul acesteia în societatea actuală.
Gabriel Stan (realizator rubrică): Star Trek, Star Wars filmele acestea SF la un moment dat prevesteau că o să avem tehnologie mobilă. Da, să duci o tabletă în mână, să te plimbi cu ea, să vorbești cu celălalt la distanță, să ai intercomunicații da, mult mai lejere, să te vezi, să te auzi, cu mult mai ușoară.
Au apărut primele telefoane prin tablete, am ajuns în secolul acesta 21, în 2023, atunci când discutăm despre inteligența artificială, o inteligență care sperie, dar pe de altă parte ne intrigă. Am ajuns să cutăm cu un robot care ne poate oferi sfaturi, dar ne poate oferi și răspunsuri.
Înainte așa am avut: Google, Wikipedia, Bing în anumite țări. Acum, acest ChatGPT care ne explică cum se creează o pagină de internet sau pur și simplu care este istoria Franței. Până să intrăm în controverse, ce părere aveți despre acea inteligență artificială și cum ați vedea-o dumneavoastră?
Mircea Scheau:Pentru a încerca, explic cât mai clar la ce doresc să fac. Voi aduce în atenție un proiect la care tot lucrez împreună cu un grup de entuziaşti, un grup de specialiști, de fapt, de la Universitatea Babeș-Bolyai și nu numai și anume, un proiect numit FinCrime, Financial Crime, de evaluare în timp real prin realităţi economico-financiare la nivel european, cu comparații între țări și la nivel național cu comparație între județe.
Acest ChatGPT citește din surse publice informații, trebuie să menționăm că sunt necesare capacități de stocare și de prelucrare a informaţiei enorme, asta în situația în care nu cumva între timp au apărut altfel de tehnologii, așa încât consumul de energie să nu mai fie unul prohibitiv şi să permită procesarea informațiilor în timp real sau cu un delay, pentru că timp real este totuși o loțiune relativ abstractă în multe cazuri, existând o latenţă de o secundă, de o jumătate de secundă, de câteva fracțiuni de secundă între achiziția datelor, prelucrarea datelor și livrarea rezultatelor.
Tot ceea ce pot să spun este că una este să beneficiem de informații prelucrate de ChatGPT și puse la dispoziția publicului la informații asimilate din surse publice și alta este ca această inteligență artificială să depășească nivelul de just fun și să livreze rezultate celor care le solicită pe domenii de activitate nişate, poate aș putea să spun.
Ce vreau să subliniez este că o tehnologie poate să fie folosită în sens pozitiv sau în sens negativ.
Întotdeauna va exista această tendință de a o folosi în ambele sensuri. Ne dorim să fie folosită în sens pozitiv, o creăm pentru a fi folosită în sens pozitiv, o susținem, o dezvoltăm și, sigur, la un moment dat, cineva o ia, o prelucrează și se gândește el că este personal sau de grup, mai de interes, să fie folosită în sensul negativ.
Este greu de anticipat. Putem să descoperim care sunt avantajele. Ne gândim la o parte dintre avantaj atunci când o construim. Până la urmă de asta o construim, nu, pentru anumite avantaje, dar vulnerabilitățile nu le descoperi imediat.
Gabriel Stan (realizator rubrică): Elon Musk, Steve Wozniak și Yuval Harari au venit și au spus: haideți să stopăm un pic, să-i mai dăm o pauză de șase luni, să vedem cât putem să dezvoltăm, până unde. Pe de altă parte, Bill Gates a venit și a spus că nu este nevoie de acea pauză, pentru că dezvoltarea trebuie să vină din mers.
Și Joe Biden a venit pe această, să zicem, nișă a lui Bill Gates și a spus: ok, continuăm cu dezvoltarea ei, pentru că ar fi necesară dintr-un punct sau altul de vedere, dar, pe de altă parte, văd că Italia și autoritățile italiene au vrut și decid să blocheze oarecum acest bot ChatGPT, pentru că nu îl văd, în momentul de față, să respecte legislația privind datele personale și nu au sisteme de verificare a vârstei, în primul rând, a utilizatorilor, dar eu mă gândesc care sunt pericolele din jurul acestei inteligențe artificiale și cum le abordăm pe viitor?
Mircea Scheau:Sunt probleme de reglementare, sunt probleme de etică. ChatGPT poate să aibă acces la informație, atenție, pe care noi le facem publice. Cum? Prin intermediul rețelelor sociale.
Păi de ce ne mai mirăm atunci? Dacă noi am făcut publice, de ce ne mirăm că o inteligență artificială, alta decât cea umană, a accesat acele resurse, acele informații pe care, repet, noi am ales să le facem publice?
Cred că problema este de altă natură. În situația în care există instituții, organizații, state care își exprimă îngrijorarea referitoare la accesul la informațiile ce pot să devină publice, asta înseamnă că ar trebui cumva ca reglementarea să fie bidirecțional și pentru inteligență artificială, dar și pentru cei care ar fi trebuit să o pună în practică pentru ca acele informații să nu devină publice.
Nu știu dacă m-am făcut corect înțeles, dar există proceduri, fluxuri, da, norme de punere în aplicare a procedurilor în care se specifică foarte clar măsurile ce trebuie adoptate și implementate pentru a nu se oferi acces la un tip de informație clasificată sau nu.
Nu putem să ignorăm aspectul pozitiv. Sunt persoane care doresc acces la informație rapid și probabil și concatenat, concentrat pentru o singură pagină. Păi, am putea să facem, fără să greșim prea mult, o comparație între ChatGPT și Wikipedia, da.
Una este să căutăm fiecare dintre noi pe Wikipedia ca au o sursă deschisă, în care nu știm cine a scris, dacă în momentul în care a scris a fost bine intenționat, dacă informația este corectă, dacă este reală, pentru că este Wikipedia.
Fiecare dintre noi putem să intrăm și să modificăm informația existentă acolo și să o alterăm. Mergem în zona de atenție, profilare și manipulare. Deci una este să intrăm pe Wikipedia și să căutăm, eu știu, informație, niște date de care avem nevoie într-o anumită formă și alta este să punem inteligența artificială să caute în locul nostru.
Cred că suntem abia la începutul unei paradigme la nivelul utilizatorului de rând. ‘Totul pare foarte frumos, nimic nu mă poate afecta, nu sunt vulnerabil, nu are ce să-mi facă, nu are de ce să-mi facă rău.
Și iată cum o posibilă replicare a unei informații, de fapt, vine din ajutorul cercetătorului care are acces la informații publicate până atunci, oferindu-i posibilitatea să adauge elementul de noutate la care s-a gândit sau pe care dorește să-l parcurgă, ca direcție de cercetare.
Gabriel Stan (realizator rubrică): Noi, jurnaliștii, avem o vorbă: verifici din trei surse o știre, ca să fii sigur că este veridică. În schimb, prin acest, nu neapărat doar ChatGPT-ul, dar cu toate această inteligență artificială, am văzut lucruri incredibile.
Se pot crea pagini financiare, putem crea materiale video credibile, ca și cum ar părea, pe baza acestui război care este lângă no, în Ucraina, cu Rusia, niște imagini prin care putem să spunem că, nu știu, s-a terminat, s-a încheiat sau, nu știu, președintele Rusiei, Vladimir Putin, a declarat nu știu ce. Cine ar fi tras la răspundere pentru astfel de daune cauzate de către inteligența artificială?
Mircea Scheau: Înainte de a-ţi răspunde la ceea ce m-ai întrebat, aș dori să-ți adresez și eu o întrebare: unde sunt alocate resursele care permit funcționarea acestei inteligențe artificiale?
Gabriel Stan (realizator rubrică): Într-un server comun sau într-un server, nu știu, al unei entități.
Mircea Scheau:Poate că sunt salvate în cloud, într-un grup de servere. Poate că respectivii proprietari de cloud sunt semnatari sau nu ai Acordului de la Budapesta, poate că se subordonează sau, eu știu, sunt guvernați de un sistem de reglementare în domeniu.
O tehnologie poate să fie folosită în sens pozitiv și în sens negativ. Fake news există din cele mai vechi timpuri, din perioada precursoare perioadei antice există fake news. Dacă e să ne gândim la fake news, haideți să ne uităm în propria ogradă, în propria casă, în propria familie, în relația noastră cu prietenii și să ne întrebăm: oare de câte ori i-am mințit noi pe ei, prezentându-le denaturat un „adevăr”, cu ghilimelele de rigoare, un adevăr infestat cu 95% informație veridică și exact 5% informație falsă, care să provoace o reacție a prietenului nostru în favoarea noastră și eventual, în defavoarea unei alte persoane.
Oare de câte ori am făcut acest lucru? De puține ori, de multe ori? Se numește fake news, se numește profilare, se numește oare manipulare? Păi, dacă noi, oamenii, facem acest lucru, de ce ne mirăm că o inteligență artificială creată cu ajutorul creierului uman învață să facă acest lucru?
Poate că inteligența artificială nu lasă să facă acest lucru. Însă oamenii, gândind în modul în care gândesc, utilizează acea inteligență artificială, cuvântul „inteligentă” – care învață – learning, utilizează acea inteligență în sens negativ.
Până la urmă, cred că problema este la noi și nu la inteligența artificială, este la modalitatea în care noi, oamenii, alegem să exploatăm resursele acelei inteligențe artificiale și reglementarea sigur că trebuie aplicată inteligenței artificiale, mai ales utilizatorilor, celor care o exploatează, celor care se bucură de roadele necuvenite ale informațiilor asimilate și ale informațiilor false pe care le pot arunca în spațiul cibernetic sau în spațiul real. Pentru că, până la urmă, observăm că spațiul cibernetic și spațiul real încep să se suprapună pe o suprafață din ce în ce mai mare.
Gabriel Stan (realizator rubrică): Domnule Mircea Scheau, mulțumesc tare mult pentru intervenţia în emisiunea noastră. Ați fost, spun eu, de mare ajutor și ne-ați oferit informații utile în condițiile în care, așa, într-o oarecare măsură, totul e o nebuloasă.
Nu știm pentru ce, când și de ce va fi utilă această tehnologie. Să sperăm că dacă vom mai avea ocazia și vom mai discuta pe viitor, vom vorbi de bine despre ea și, de ce nu, laudativ.
Mircea Scheau:Ne dorim să vorbim de bine, pentru că dacă vom vorbi de bine, asta înseamnă că lucrurile au mers, merg și să sperăm că vor merge într-o direcție bună.
Şi eu vă mulțumesc pentru invitație și le mulțumesc mai ales celor care ne ascultă în acest moment, celor care poate sunt departe de casă, celor cărora le putem veni în ajutor măcar cu un gând bun, cu o vorbă bună și, de ce nu, o faptă bună. Și dacă, exact cum aţi spus, vom avea prilejul, vom încerca să răspundem și la alte întrebări.
Inteligența artificială şi riscurile la adresa consumatorilor
Publicat de Camelia Teodosiu,
11 februarie 2020, 15:26 / actualizat: 3 martie 2020, 14:06
Inteligența artificială și procesele automate de luare a deciziilor pot crea riscuri la adresa consumatorilor.
Deoarece algoritmii de învățare pot prelucra datele cu o precizie și o viteză care depășesc capacitatea umană, aplicațiile de inteligență artificială au devenit tot mai frecvente în finanțe, asistență medicală, educație, sistemul juridic și nu numai. Însă dependența de inteligența artificială are și riscuri, mai ales acolo unde deciziile sunt luate fără supraveghere umană. Învățarea automată se bazează pe recunoașterea modelului în seturile de date. Problemele apar atunci când datele disponibile reflectă prejudecățile societății.
Inteligența artificială este implicată tot mai mult în sistemele de decizie algoritmice. În multe situații, cum ar fi accesul la credite, locurile de muncă, tratamentul medical sau sentințele judiciare, impactul deciziei asupra oamenilor poate fi semnificativ. Deciziile automate pot perpetua diviziunile sociale. Unii algoritmi folosiți în angajare s-au dovedit a fi părtinitori împotriva femeilor, de exemplu.
Comisia trebuie să clarifice modul în care intenționează:
să se asigure că europenii sunt protejați de practicile comerciale neloiale și/sau discriminatorii sau de riscurile pe care le implică serviciile profesionale care folosesc inteligența artificială
să garanteze o mai mare transparență în aceste procese
să se asigure că în sistemele de decizie algoritmice sunt utilizate seturi de date de înaltă calitate și nepărtinitoare.
Dezvoltarea inteligenței artificiale și a proceselor automatizate de luare a deciziilor prezintă provocări pentru încrederea și bunăstarea consumatorilor. Când consumatorii interacționează cu un astfel de sistem, aceștia ar trebui să fie informați în mod corespunzător despre modul în care funcționează sistemul.
Rezoluția adoptată pe 23 ianuarie în cadrul comisiei pentru piața internă și protecția consumatorilor îndeamnă Comisia să examineze dacă sunt necesare măsuri suplimentare pentru a garanta drepturi pentru protecția consumatorilor în contextul inteligenței artificiale și al procesului decizional automatizat.
Rezoluția va fi votată în plen la mijlocul lunii februarie. După aceea, va fi transmisă Consiliului UE (statelor membre) și Comisiei. Comisia ar trebui să-și prezinte planurile pentru o abordare europeană a inteligenței artificiale pe 19 februarie 2020.
24 de state UE s-au angajat să colaboreze pentru a constitui o „abordare europeană” în materie de inteligență artificială, într-o tentativă de a concura cu giganții tehnologici din America și Asia.
Miniștrii au semnat marți declarația, afirmând că vor lua în calcul investiții publice în inteligența artificială, însă nu au promis o sumă anume dedicată acestor investiții.
Toate statele membre, cu excepția Ciprului, României, Croației și Greciei, s-au angajat să-și „modernizeze politicile naționale”, ca parte a unui efort de dezvoltare a unei cercetări la scară mare în domeniul inteligenței artificiale.
Un oficial al Comisiei a declarat că cele patru state membre care nu au semnat acordul nu se opun inițiativei, dar e posibil să aibă încă nevoie de o aprobare formală înainte de a semna. Declarația a fost semnată și de Norvegia.
Politicienii europeni se chinuie să-și intensifice munca la inteligența artificială prin alocarea de fonduri publice și îndemnarea companiilor pentru a investi în tehnologii precum robotica sau aplicațiile medicale care procesează volume enorme de date. Investițiile UE în inteligență artificială au rămas în urma celor ale SUA și Chinei, iar noua inițiativă a blocului ar putea fi totuși obstrucționată de competiția dintre statele membre ori de pozițiile lor diferite cu privire la legislație.
Comisarul digital al UE, Mariya Gabriel, va publica un document de strategie privind inteligența artificială, pe 25 aprilie, în care va sublinia chestiunile legale pe care tehnologia e probabil să le creeze și că va aborda și temerile legate de substituirea locurilor de muncă cu roboți. Ea nu va propune luna aceasta legislația obligatorie privind inteligența artificială, însă nu a exclus ca tehnologia să fie reglementată la o dată ulterioară. /…/
Publicat de Camelia Teodosiu,
6 aprilie 2018, 09:28 / actualizat: 11 aprilie 2018, 9:36
Parlamentul European a adoptat, anul trecut, o rezoluție prin care se cere Uniunii Europene o legislație adaptată la un viitor când inteligența artificială va avea un rol primordial.
Eurodeputații nu vor să pună obstacole în calea unei tehnologii cu un amplu potențial, dar cer ca dezvoltarea sa vertiginoasă să se facă într-un cadru normativ care să se preocupe de „securitatea, intimitatea, integritatea, demnitatea, autonomia și proprietatea datelor”, se arată în rezoluția adoptată de eurodeputați.
Deputații cer Comisiei să aibă în vedere crearea unei agenții europene pentru robotică și inteligență artificială care să ofere autorităților publice expertiză tehnică, etică și regulatorie.
Există o serie de motive de îngrijorare pentru milioane de oameni care îşi văd ameninţate locurile de muncă, cu atât mai mult cu cât Uniunea Europenă şi-a propus scăderea şi nu creşterea şomajului, subliniază europarlamentarul Renate Weber:
“Oare chiar mai avem nevoie de atâta forţă de muncă umană, în următorii ani? Trebuie să ai grijă, inclusiv pentru cei care îţi vin din alte zone ale lumii, imediat să aibă acces la o instruire care să le permită accesul pe această piaţă a muncii. Există o teorie care spune că, cel puţin o perioadă de timp, este normal ca lucrătorii să aibă o participare financiară la aceşti roboţi; deci, să fie coproprietari şi să câştige de pe urma lor. Efectele pot să fie foarte multe şi este, cred, momentul să ne gândim la ele. Ştiu că astăzi poate să pară un pic SF, dar să ştiţi că nu e SF. Toţi cu care am vorbit sunt de acord ca 10 ani este deja termen lung. Dar să ştiţi că am văzut un studiu, care ziceă că în 2050, de profesori n-o să mai fie nevoie căci roboţii chiar vor face treabă bună, medicii…doar ca să comande nişte utilaje, în sistemul de îngrijire la fel, de avocaţi nu va mai fi nevoie, că îi dai robotului tot şi scoate ce trebuie, s-ar putea ca nici sistemul de justiţie să nu mai fie cel pe care îl vedem acum… Tot ce a fost SF, acum câteva decenii, vedeţi că a devenit realitate, aşa că…”
Dincolo de mașinile fără șofer, pentru care se propune o asigurare obligatorie și un fond suplimentar pentru a garanta compensarea victimelor posibilelor accidente, se așteaptă ca impactul inteligenței artificiale să se remarce în dispozitive precum drone, roboți industriali, pentru îngrijirea persoanelor, pentru ferme sau ca jucării.
Roboții au devenit parte a vieții noastre şi de aceea aşteptăm cu interes legislaţia care să reglementeze utilizarea acestora, mai ales în cazul în care ar putea provoca daune.
Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.
Cookie-urile strict necesare
Cookie-urile strict necesar trebuie să fie activate tot timpul, astfel îți putem salva preferințele pentru setările cookie-urilor.
Dacă dezactivezi aceste cookie-uri, nu vom putea să-ți salvăm preferințele. Aceasta înseamnă că de fiecare dată când vizitezi acest site va trebui să activezi sau să dezactivezi cookie-urile din nou.