So, are robots actually monsters?

So, are robots actually monsters?

Science fiction is usually perceived as fiction with scientific “flair." Of course, some “far-fetched” scenarios might conceal some doses of truth.  When Stephen Hawking talks about the end of the human race, when Elon Musk warns that we have awoken the “demon.”

Science fiction is usually perceived as fiction with scientific “flair” – and rightly so, since life on Earth is complicated enough even without the fear of hostile, extraterrestrial beings or insurgent robots.  Of course, some “far-fetched” scenarios might conceal some doses of truth.  When Stephen Hawking talks about the end of the human race, when Elon Musk warns that we have awoken the “demon” and Bill Gates admits he has concerns, when hundreds of scientists and digital technology leaders have co-signed an open letter about the dangers of artificial intelligence, when it was established that a group of “colorful” protestors (who on March 15th shouted “Stop robots!” outside the South by Southwest Festival in Texas) were computer engineers and university students studying IT, then the average person has every reason to distrust his “smart” devices.

Read more in Greek

Στα πιο απτά δείγματα της προόδου που έχει σημειωθεί τις τελευταίες δεκαετίες στον χώρο της τεχνητής νοημοσύνης συγκαταλέγονται τα μη επανδρωμένα αεροσκάφη, τα αυτοοδηγούμενα οχήματα –σε δοκιμαστικό στάδιο–, τα βιονικά τεχνητά μέλη, οι διαδικτυακές μηχανές αναζήτησης, οι «ψηφιακοί βοηθοί», όπως ο Siri, και οι εφαρμογές που αποδίδουν καλύτερα από τον άνθρωπο σε πεδία όπως το σκάκι. Στο ετήσιο πρωτάθλημα ποδοσφαίρου Robocup, οι αθλητές είναι αποκλειστικά ρομπότ που αναπτύσσουν πολύτιμες ικανότητες, π.χ. συνεργασία, αναγνώριση, προσαρμογή κ.ά.

Μυστικότητα

Ολα αυτά είναι μόνο η κορυφή του παγόβουνου, αφού οι πιο φιλόδοξες έρευνες πραγματοποιούνται υπό καθεστώς μυστικότητας στα εργοστάσια όπου κατασκευάζονται οπλικά συστήματα –τον Μάιο του 2014, το ζήτημα των αυτόνομων ρομπότ με δυνατότητα άσκησης θανάσιμης βίας συζητήθηκε σε ανεπίσημη συνάντηση ειδικών του ΟΗΕ– ή στα εργαστήρια της Google, η οποία έχει βάλει στόχο να εξαγοράσει τις σημαντικότερες εταιρείες τεχνητής νοημοσύνης ανά τον κόσμο. «Συζητήσεις για το ηθικό θέμα πάντα υπάρχουν, όχι τόσο με βάση την τεχνολογία που διαθέτουμε τώρα όσο με βάση την κατεύθυνση προς την οποία θέλουμε να πάμε», υπογραμμίζει ο Κώστας Καρπούζης, κύριος ερευνητής στο Ινστιτούτο Συστημάτων Επικοινωνιών και Υπολογιστών της Σχολής Ηλεκτρολόγων Μηχανικών και Μηχανικών Υπολογιστών του ΕΜΠ, με «ειδίκευση» στην επικοινωνία ανθρώπου - μηχανής και την αναγνώριση συναισθημάτων από υπολογιστές. «Αυτή τη στιγμή η τεχνολογία περιορίζεται σε συγκεκριμένα πεδία: ένα αεροπλάνο που μπορεί να πετάει μόνο του μετά την απογείωση και πριν από την προσγείωση ή ένας συρμός του μετρό. Από εκεί και πέρα το ζήτημα είναι κατά πόσο εκχωρούμε τη δυνατότητα στις μηχανές να αποφασίζουν μόνες τους τι θα γίνει αν, για παράδειγμα, το αεροπλάνο δει ότι μπροστά υπάρχουν αναταράξεις. Θα στρίψει μόνο του ή θα πρέπει ο πιλότος να αλλάξει την πορεία χειροκίνητα;».Κάθε βήμα προόδου εγείρει νέα ηθικά διλήμματα: Αν ένα ρομπότ έχει την ικανότητα να λαμβάνει αποφάσεις, πώς εγγυόμαστε ότι θα κάνει τη σωστή επιλογή; Αν αυτή η επιλογή έχει ηθικές προεκτάσεις –για παράδειγμα, η καταστροφή ενός στόχου όπου πιθανότατα βρίσκεται ένας επικίνδυνος εχθρός, αλλά και αρκετοί άμαχοι– ποιος πρέπει να θεωρηθεί υπεύθυνος για τις συνέπειές της, ο κατασκευαστής, ο ιδιοκτήτης ή το ίδιο το ρομπότ; Και πώς εξασφαλίζουμε ότι ένα καθ’ όλα «υπάκουο» ρομπότ δεν θα «χειραγωγηθεί» από ομάδα κακόβουλων χάκερ;

Τεχνικά, η δυνατότητα να δώσουμε στις μηχανές την ικανότητα να λαμβάνουν αποφάσεις υπάρχει ήδη, διευκρινίζει ο κ. Καρπούζης. «Εμείς απλώς επιλέγουμε αν θα την εκχωρήσουμε, ας πούμε στον υπολογιστή του αεροπλάνου. Αλλά το να αποφασίζει ένα ιατρικό μηχάνημα αν ένας ασθενής δεν έχει ελπίδα και να τον αποσυνδέει... αυτό είναι σενάριο επιστημονικής φαντασίας». Το ίδιο ισχύει για το ενδεχόμενο οι μηχανές μας να αποκτήσουν συνείδηση, αντίληψη του εαυτού τους και την ικανότητα για συναισθήματα. «Δεν υπάρχει πιθανότητα να φτάσουμε ως εκεί, με δεδομένους τους περιορισμούς που έχουν οι μηχανές οι ίδιες», τονίζει ο ερευνητής, χωρίς αυτό να σημαίνει ότι δεν μπορεί κάποια στιγμή να γίνει το λάθος «να εκχωρηθεί μεγάλη δύναμη σε ένα λογιστικό σύστημα»...

Αστάθμητος παράγοντας

Η πραγματική απειλή δεν έγκειται στην ευφυΐα των υπολογιστών, αλλά στον αστάθμητο ανθρώπινο παράγοντα. «Το ζήτημα είναι τι δικαιώματα θα δώσουμε εμείς στις μηχανές», αναφέρει ο ερευνητής. «Υπάρχουν μηχανές που παίζουν στο χρηματιστήριο μόνες τους. Τους δώσαμε όμως το δικαίωμα, γνωρίζοντας το ρίσκο. Αλλά στον τομέα της υγείας, είναι πολύ περιορισμένο το περιθώριο που αφήνουμε».

Πάντως προσωπικότητες σαν τον Χόκινγκ ή τον Γκέιτς υπογραμμίζουν τη σημασία δημιουργίας νομικού πλαισίου και της ανάπτυξης μεθόδων για τη διασφάλιση της σωστής λειτουργίας των «σκεπτόμενων» μηχανών, χωρίς να ζητούν να διακοπούν οι έρευνες στην τεχνητή νοημοσύνη. Ένα άλλο πρόβλημα είναι η απώλεια της ιδιωτικότητας. «Νομίζω ότι πρέπει να αρχίσουμε να συνηθίζουμε στην ιδέα ότι δεν θα είμαστε ασφαλείς, ούτε θα έχουμε ιδιωτικότητα», υποστηρίζει ο κ. Καρπούζης. «Οι προδιαγραφές ασφαλείας», που έχουν συσκευές όπως τα «έξυπνα» ρολόγια, τα ψυγεία ή οι αυτοματοποιημένοι συναγερμοί, «είναι ελάχιστες μπροστά στους κινδύνους που υπάρχουν». Εντούτοις, όλα αυτά σχετίζονται περισσότερο με το «πώς υλοποιούνται τα πρωτόκολλα ασφαλείας και ελάχιστα με θέματα τεχνητής νοημοσύνης».

Source: Kathimerini Newspaper, 29 March 2015, Christina Sanoudou (columnist)

     

 

Back