Skip links

Dr. Thomas Hardjono: Η εμπιστοσύνη είναι το πραγματικό στοίχημα της Τεχνητής Νοημοσύνης

Αποκλειστική συνέντευξη στη Σοφία Μυττά.

Η τεχνολογία AI αλλάζει ραγδαία τη ζωή μας, από τα ψηφιακά μας πορτοφόλια μέχρι τις αποφάσεις που επηρεάζουν την καθημερινότητά μας. Ο Dr. Thomas Hardjono, CTO του MIT Connection Science και Τεχνικός Διευθυντής του MIT Trust-Data Consortium, εξηγεί σε αποκλειστική συνέντευξη που παραχώρησε στο 12ο τεύχος του περιοδικού AI Report, πώς η ψηφιακή εμπιστοσύνη, η ιδιωτικότητα και η λογοδοσία παραμένουν βασικά στοιχεία στον «AI-driven» κόσμο. Από τα Personal Data Stores έως τους AI Agents και τα blockchain, η συνέντευξη φωτίζει τις τεχνολογικές και ηθικές προκλήσεις που καλούμαστε να αντιμετωπίσουμε. Μια συζήτηση για το μέλλον της τεχνολογίας που δεν αφήνει κανέναν αδιάφορο.

Dr. Hardjono, ως ένας από τους δημιουργούς του πρωτοκόλλου Kerberos που προστατεύει τις ψηφιακές μας ταυτότητες εδώ και δεκαετίες, πώς ορίζετε σήμερα την έννοια της «ψηφιακής εμπιστοσύνης»; 

Περιγράφοντας την ψηφιακή εμπιστοσύνη, είναι χρήσιμο να διαχωρίσουμε διάφορους τύπους «εμπιστοσύνης». Ο πρώτος είναι η «τεχνική εμπιστοσύνη», που είναι η εμπιστοσύνη εκ μέρους του ανθρώπινου χρήστη ότι μια τεχνική κατασκευή, π.χ. ένα μηχανικό προϊόν, θα λειτουργήσει όπως έχει δηλωθεί, τίποτα περισσότερο και τίποτα λιγότερο. H τεχνική εμπιστοσύνη πρέπει να είναι μετρήσιμη, παρέχοντας συνεπές αποτέλεσμα για μεγάλο χρονικό διάστημα με ελάχιστες αποκλίσεις. Ένα επιπλέον στοιχείο της τεχνικής εμπιστοσύνης είναι η ικανότητα αναγνώρισης μιας τεχνικής κατασκευής ανάμεσα σε χιλιάδες άλλες. Γι’ αυτό η ψηφιακή ταυτότητα αποτελεί κρίσιμο στοιχείο στην ανερχόμενη τεχνολογία AI. Οι άλλες μορφές εμπιστοσύνης περιλαμβάνουν την επιχειρηματική ή νομική εμπιστοσύνη, η οποία βασίζεται στις συμβατικές υποχρεώσεις προμηθευτών και κατασκευαστών σχετικά με το προϊόν που πωλούν. Αυτό επιτρέπει στους καταναλωτές να έχουν νομικό μέσο προσφυγής σε περίπτωση που κάτι πάει στραβά με το προϊόν. Η επιχειρηματική/νομική εμπιστοσύνη είναι ιδιαίτερα σημαντική στη χρήση της AI σε τομείς που μπορούν να επηρεάσουν δραματικά την ανθρώπινη ζωή, όπως η υγειονομική περίθαλψη και η ιατρική.

Στην εποχή των deepfakes και της μαζικής παραπληροφόρησης, ποια τεχνολογικά εργαλεία μπορούν να μας βοηθήσουν να ξεχωρίζουμε αν μια πληροφορία ή ένας συνομιλητής προέρχεται από άνθρωπο ή μηχανή; 

Τα deepfakes και τα bots χρησιμοποιούνται ολοένα και περισσότερο για τον επηρεασμό της κοινής γνώμης στα κοινωνικά δίκτυα. Πρόκειται για λογισμικά που μπορούν να αναπαραχθούν μαζικά και να κατακλύσουν πλατφόρμες και υπηρεσίες, διαδίδοντας συντονισμένα περιεχόμενο. Το πρόβλημα εντείνεται με την εμφάνιση της τεχνολογίας Agentic AI, η οποία επιτρέπει τον συντονισμό μεγάλου αριθμού τέτοιων «ψηφιακών οντοτήτων». Η βιομηχανία καλείται πλέον να αντιμετωπίσει ένα κρίσιμο ζήτημα, την αξιόπιστη ψηφιακή ταυτότητα των AI agents. Ήδη βρίσκονται σε εξέλιξη προσπάθειες καθορισμού τεχνικών προδιαγραφών από οργανισμούς όπως το Internet Engineering Task Force (IETF). Για παράδειγμα, αρχιτεκτονικές όπως το SPIFFE, που χρησιμοποιούνται για την αναγνώριση οντοτήτων στο cloud, μπορούν να αποτελέσουν αφετηρία για τη διαχείριση ταυτότητας των AI agents. Παράλληλα, αναπτύσσονται πρωτοβουλίες για την πιστοποίηση της αυθεντικότητας του ψηφιακού περιεχομένου μέσω ψηφιακών υπογραφών. Ένα χαρακτηριστικό παράδειγμα είναι η Content Authenticity Initiative, η οποία επιτρέπει την επαλήθευση της προέλευσης περιεχομένου στα κοινωνικά δίκτυα και στο διαδίκτυο γενικότερα.

Συζητάμε για «αξιόπιστα δεδομένα» εδώ και χρόνια, όμως η ιδιωτικότητα φαίνεται να υποχωρεί συνεχώς. Είναι τελικά ουτοπία η δημιουργία πολύπλοκων συστημάτων προστασίας απέναντι σε γίγαντες της AI που συλλέγουν ανθρώπινη γνώση χωρίς ρητή συναίνεση;

Τα περισσότερα δημοφιλή συστήματα AI έχουν εκπαιδευτεί με δεδομένα δημόσια προσβάσιμα στο διαδίκτυο, όπως φόρουμ (π.χ. Reddit) ή δημοσιεύσεις και ειδησεογραφικό περιεχόμενο. Παρ’όλα αυτά, μία από τις βασικές προκλήσεις της βιομηχανίας AI σήμερα είναι η διαθεσιμότητα νέων δεδομένων που θα βελτιώσουν συνολικά τα συστήματα. Χωρίς αυτά, η τεχνολογία δεν μπορεί να προοδεύσει. Η ανάγκη αυτή δημιουργεί ευκαιρίες για τους πολίτες να διεκδικήσουν την κυριαρχία στα προσωπικά τους δεδομένα και να χρησιμοποιήσουν τεχνολογίες που τα προστατεύουν. Ένα παράδειγμα είναι τα Personal Data Stores (PDS), όπου τα δεδομένα αποθηκεύονται πάντα κρυπτογραφημένα και επεξεργάζονται μόνο σε ασφαλή υπολογιστικά περιβάλλοντα. Τα PDS μπορούν να περιλαμβάνουν προσωπικά δεδομένα όπως συναλλαγές με κάρτα, ιατρικά αρχεία ή δεδομένα GPS. Στο μέλλον, θα αναπτυχθούν τεχνικές για την εκπαίδευση συστημάτων AI απευθείας πάνω σε αυτά τα PDS, προσφέροντας ένα ασφαλές «sandbox» περιβάλλον που διασφαλίζει την ιδιωτικότητα. Με άλλα λόγια, η ίδια η τεχνολογία AI θα χρησιμοποιείται για να προστατεύει και να διαχειρί ζεται τα προσωπικά δεδομένα. Ένα AI ενεργοποιημένο στο PDS θα μπορεί, για παράδειγμα, να αξιολογεί αν ένας νέος αλγόριθμος είναι ασφαλής πριν εφαρμοστεί στα προσωπικά δεδομένα του χρήστη.

Διαβάστε ολόκληρη τη συνέντευξη του Dr Thomas Hardjono, στο ΝΕΟ ΤΕΥΧΟΣ ΤΟΥ AI REPORT

Explore
Drag