Πολύς λόγος γίνεται για τους κινδύνους της τεχνητής νοημοσύνης (ΑΙ) στην ανθρώπινη δραστηριότητα. Ένα πρόσφατο γεγονός ωστόσο, που συνέβη την προηγούμενη εβδομάδα στις ΗΠΑ, δείχνει ότι οι κίνδυνοι είναι πολύ μεγαλύτεροι απ’ ότι μπορεί να φανταστεί κανείς.

Τι συνέβη όμως στις ΗΠΑ; Με τη «βοήθεια» της τεχνητής νοημοσύνης εμφανίστηκε ένας «ψεύτικος» Τομ Χανκς να διαφημίζει οδοντιατρικές υπηρεσίες, με αρκετά αληθοφανή αποτελέσματα, για να λέμε την αλήθεια. Ίσως το όλο θέμα να μην είχε προκαλέσει τόσο θόρυβο εάν η διαφήμιση αυτή είχε γίνει με τη σύμφωνη γνώμη του διάσημου αμερικανού ηθοποιού. Ο τελευταίος όμως δεν είχε ιδέα και αναγκάστηκε με ανακοίνωσή του -και στα social media – να προειδοποιήσει το κοινό ότι δεν έχει καμία σχέση με τη συγκεκριμένη διαφήμιση. «Προσοχή! Κυκλοφορεί ένα βίντεο που προωθεί κάποιες οδοντιατρικές υπηρεσίες, με εμένα ως προϊόν τεχνητής νοημοσύνης. Δεν έχω καμία σχέση με αυτό», έγραψε ο ηθοποιός στον λογαριασμό του. Να σημειωθεί εδώ ότι ένας από τους λόγους που οι ηθοποιοί του Hollywood βρίσκονταν για πολύ καιρό σε απεργία ήταν και οι κίνδυνοι που προκύπτουν από τις εφαρμογές της τεχνητής νοημοσύνης στη δουλειά τους.

Και φθάνουμε λοιπόν στο γνωστό «φιλοσοφικό» ερώτημα: υπάρχει καλή και κακή τεχνολογία; Η απάντηση κατά τη γνώμη μου είναι μια και ξεκάθαρη: Δεν υπάρχει καλή και κακή. Υπάρχει η κακή εφαρμογή της, η οποία γίνεται από τους ανθρώπους. Είναι σα να λέμε ότι φταίει η πέτρα που χτύπησε έναν άνθρωπο και όχι το χέρι ενός άλλου ανθρώπου που την πέταξε. Οπότε αυτό το ξεκαθαρίσαμε. Ωστόσο στη συνέχεια εμφανίζεται ένα άλλο ερώτημα:

Μπορούμε να εμπιστευθούμε την τεχνητή νοημοσύνη; Πριν απαντήσουμε θα πρέπει να κατανοήσουμε ότι η τεχνητή νοημοσύνη, όπως και ένας υπολογιστής, ακολουθεί μόνο τις οδηγίες του ανθρώπου, οπότε αν ένα αίτημα ή μια οδηγία δεν είναι λεπτομερής ή είναι ανορθόδοξη, το αποτέλεσμα δεν θα είναι καλό.

Γι’ αυτό χρειάζεται ένα πλαίσιο που να καθορίζει τις ευθύνες τόσο του εντολέα όσο και της τεχνητής νοημοσύνης. Το Ευρωπαϊκό Κοινοβούλιο ενέκρινε τον Ιούνιο του 2023 την πρώτη παγκοσμίως ολοκληρωμένη σειρά κανόνων για τη διαχείριση των κινδύνων της τεχνητής νοημοσύνης. Αρκεί αυτό για να λυθεί το πρόβλημα; Σίγουρα όχι, αφού οι κανόνες ακολουθούνται (ή δεν ακολουθούνται) από ανθρώπους.

Η ευθύνη και πάλι εδώ βαραίνει τον άνθρωπο. Και κάπου εδώ εμφανίζεται ένα παράδοξο: Ενώ η ορθή εφαρμογή της τεχνητής νοημοσύνης εναπόκειται στον άνθρωπο, η τελευταία απειλεί να εξαλείψει θέσεις εργασίας. Ο Arvind Krishna, CEO της IBM δήλωσε πρόσφατα ότι η εταιρεία του θα «παγώσει» τις προσλήψεις για ρόλους που πιστεύει ότι μπορούν να αντικατασταθούν από την τεχνητή νοημοσύνη τα επόμενα χρόνια, κάτι που σημαίνει ότι θα χαθούν περίπου 8.000 θέσεις εργασίας στην IBM. Οπότε τι γίνεται; Μπορεί η τεχνητή νοημοσύνη να πάρει τη θέση των στελεχών που βρίσκονται στην ηγεσία ενός οργανισμού και λαμβάνουν τις καθοριστικές αποφάσεις; Δεν ξέρω εάν αυτό συμβεί κάποτε. Σίγουρα όμως η τεχνητή νοημοσύνη μπορεί να διευκολύνει το έργο των CEOs σε πολλούς τομείς, όπως στη λήψη αποφάσεων, στην απελευθέρωση χρόνου, σε ηθικά ζητήματα και ζητήματα ανθρωποκεντρικής ηγεσίας κ.α. Αλλά μέχρι εκεί.

Και στη διαφήμιση; Εδώ είναι απολύτως απαραίτητο να δημιουργηθεί ένα ολοκληρωμένο, ξεκάθαρο και ρεαλιστικό θεσμικό πλαίσιο εφαρμογής κανόνων αξιοποίησης του ΑΙ, η τήρηση των οποίων να ελέγχεται εξονυχιστικά. Παράλληλα θα πρέπει να προβλέπονται βαριές ποινές για τη μη τήρηση αυτών, οι οποίες όμως να επιβάλλονται όταν πρέπει και να μην είναι απλά τυπικές. Οπότε πάλι καταλήγουμε στο ίδιο συμπέρασμα: όλα εξαρτώνται από τον άνθρωπο…