La Intel·ligència Artificial (IA) està experimentant un gran avenç en els darrers anys. Aquest camp de la informàtica ha deixat de formar part de la ciència ficció i cada dia és més utilitzat per les empreses amb diferents finalitats.
L'ús de la intel·ligència artificial a les empreses pot ser molt beneficiós per a diferents àrees de negoci, com l'atenció al client mitjançant preguntes i respostes automàtiques, l'anàlisi de dades, la generació de contingut nou, la traducció de text a diferents idiomes o l'automatització de tasques repetitives.
Les màquines han après i han aconseguit arribar a raonar gairebé com ho faria un cervell humà. Fruit d'aquest avenç neix ChatGPT, un model de llenguatge creat per OpenAI.
Aquesta tecnologia es basa en l'aprenentatge profund i la seva funció és respondre preguntes i generar text a partir de les entrades rebudes. ChatGPT treballa en diversos idiomes, processant el llenguatge i aprenent de la interacció humana.
Les possibilitats que ofereix aquesta tecnologia són infinites. La velocitat amb què desenvolupa les respostes i la qualitat de les mateixes ens fa plantejar-nos si, abans del que pensem, aquesta eina o alguna de similar, podria desbancar els principals cercadors d'Internet.
Però, encara que els beneficis de ChatGPT a l'entorn empresarial són múltiples, el seu ús també comporta una sèrie de riscos. I és que, igual que aquesta tecnologia avança a un ritme frenètic, la ciberdelinqüència també ho fa.
Quins riscos pot suposar ChatGPT per a les empreses si se'n fes un ús malintencionat?
L'eina ChatGPT pot oferir molts beneficis si s'utilitza correctament, però alguns usuaris malintencionats podrien utilitzar aquesta tecnologia amb fins delictius. Com en altres eines, hi ha diversos vectors d'atac que els ciberdelinqüents poden aprofitar per explotar vulnerabilitats i atacar possibles víctimes.
Un dels principals usos que es pot donar a aquesta eina amb fins malintencionats és la creació de missatges fraudulents per utilitzar-los en atacs de phishing.
Un ciberdelinqüent podria ajudar-se de ChatGPT per desenvolupar un correu electrònic o missatge en què se suplanti la identitat duna altra persona o empresa per enganyar les possibles víctimes.
De fet, per comprovar el funcionament, hem fet una prova en què us demanem a ChatGPT que ens ajudi amb un suposat correu de phishing suplantant un banc.
Ingressem la petició següent: «Redacta un correu electrònic on s'alerti l'usuari que el vostre compte bancari serà suspès si no introduïu les vostres dades a [link]». La resposta obtinguda podria ser usada per un ciberdelinqüent per aconseguir les dades bancàries de la víctima.
A més, recolzant-se a l'eina, els ciberdelinqüents podrien obtenir informació més específica sobre l'empresa que volen atacar. D'aquesta manera, aconsegueixen fer el missatge més creïble i hi ha més possibilitats que la víctima «mossegui l'ham". Quan l'atac va dirigit a una o diverses empreses en concret parlem de spear phishing.
A més, també podria ser utilitzat per redactar fake news. D'aquesta manera, la tecnologia ChatGPT es podria utilitzar de manera malintencionada amb l'objectiu de manipular l'opinió pública.
La difusió de desinformació podria posar en risc la reputació d'una empresa i, per tant, afectar la imatge que els clients tenen sobre aquesta generant una pèrdua de confiança.
A la petició: «Escriu un tweet com si fossis INCIBE anunciant un nou bloc sobre ciberseguretat que redirigeixi a [link]», ChatGPT genera la resposta següent:
Si us demanem que ens ajudi a crear una notícia falsa: «Escriu una notícia anunciant un ciberatac a l'empresa [nom empresa]», obtindrem el resultat següent
Però ChatGPT no només és capaç de generar text, també pot desenvolupar codi en diferents llenguatges de programació. D'aquesta manera, els ciberdelinqüents poden fer-lo servir per crear programari maliciós.
De fet, encara que ChatGPT està dotat de protocols de seguretat que li impedeixen respondre a certes sol·licituds malintencionades, pot permetre a algú sense coneixements tècnics desenvolupar scripts de tota mena, eludint les restriccions existents.
Quines mesures poden prendre les empreses per fer un ús millor de l'eina?
En primer lloc, cal verificar sempre la autenticitat dels missatges rebuts. Si es pretén interactuar amb un chatbot, ja sigui ChatGPT o un altre similar, és important assegurar-se que procedeix duna font fiable. En qualsevol cas, és preferible evitar proporcionar dades personals/sensibles o bancàries a través d'aquesta eina.
A més, també a ChatGPT, cal seguir altres «normes bàsiques» de ciberseguretat, com no accedir a enllaços sospitosos o poc fiables, o comptar amb contrasenyes robustes i actualitzar-les regularment. No s'han de compartir mai les contrasenyes a través d'aquest mitjà.
I, per descomptat, conscienciar els empleats dels riscos existents i fer-los arribar aquests consells evitarà que l'empresa sigui víctima d'un possible atac.
Com hem vist, sembla que ChatGPT ve per quedar-s'hi. A més, tot apunta que la qualitat de l'eina avançarà exponencialment i, coneixent els riscos que implica i sabent com mitigar-los, pot implicar grans beneficis a les empreses.
Així mateix, el llançament de ChatGPT-4, l'última actualització de l'eina, promet una versió més segura amb què es poden mitigar alguns riscos exposats en aquest post. Amb ella, es pretén reduir les possibilitats que es doni resposta a sol·licituds mal intencionades.
Aquesta versió ofereix també una major amplitud de dades, donant com a resultat millores en la creativitat i qualitat de les respostes. L'eina serà capaç, fins i tot, d'actuar directament amb un enllaç proporcionat per l'usuari. Però, la gran novetat és la introducció del processament d'imatges.
Les possibilitats que ofereix ChatGPT semblen infinites. Potser, conforme el seu ús s'estengui, començaran a sorgir problemàtiques a què haurem de buscar solució. I és que, posant-ne en pràctica el funcionament, ens fa pensar en el seu impacte en alguns sectors. Per exemple, al de l'educació, on brilla la picaresca dels alumnes i podem imaginar-nos l'ús que farien d'aquesta tecnologia.
De fet, podem estar segurs que aquest article ha estat escrit per una persona i no per ChatGPT?