Πέμπτη 2 Μαρτίου 2017

Τα bots εδώ και χρόνια τσακώνονται μόνα τους στη Wikipedia ακόμα και για τον Μέγα Αλέξανδρο!

Θα μπορούσε να φανταστεί κανείς ότι στη Wikipedia και γενικότερα στο διαδίκτυο δεν τσακώνονται απλώς άνθρωποι αλλά και ρομπότ λογισμικού (bots) για τον Μέγα Αλέξανδρο και όχι μόνο;

Και όμως αυτό ακριβώς συμβαίνει, σύμφωνα με μια νέα βρετανική επιστημονική έρευνα, που αναδεικνύει το πρόβλημα. Στην επιφάνεια, τα «νερά» της Wikipedia είναι γαλήνια, όμως από κάτω μαίνεται μια υπόγεια μάχη ανθρώπων αλλά και… μη ανθρώπων για το περιεχόμενο της πιο δημοφιλούς ηλεκτρονικής εγκυκλοπαίδειας στον κόσμο.

Τα bots συμπεριφέρονται πολύ πιο ανθρώπινα από ό,τι θα περίμενε κανείς, από τη στιγμή που «εξαπολύονται» στο κυβερνοδιάστημα, με αποτέλεσμα να διεξάγουν μεταξύ τους ομηρικές μάχες, οι οποίες κρατάνε χρόνια και αφορούν π.χ. τι πρέπει να γράφουν τα λήμματα της Wikipedia.

Ο Μέγας Αλέξανδρος ήταν ανέκαθεν ένα τέτοιο επίμαχο θέματα και τα bots μπήκαν κι αυτά στη μάχη…

Οι ερευνητές του Ινστιτούτου για το Διαδίκτυο του Πανεπιστημίου της Οξφόρδης και του Ινστιτούτου 'Αλαν Τιούρινγκ, με επικεφαλής τη δρα Μιλένα Τσβέτκοβα και τον δρα Τάχα Γιασέρι, που έκαναν τη σχετική δημοσίευση στο περιοδικό «PLoS One», μελέτησαν τη συμπεριφορά των ρομπότ λογισμικού και πώς αυτά αλληλεπιδρούν, είτε λόγω αρχικού σχεδιασμού, είτε από δική τους πρωτοβουλία χάρη στην τεχνητή νοημοσύνη τους.

Οι επιστήμονες επικεντρώθηκαν στα «καλά» bots που χρησιμοποιούνται επί χρόνια με καλοπροαίρετο σκοπό, για να βελτιώσουν το περιεχόμενο της Wikipedia, «καθαρίζοντάς» το από βανδαλισμούς και λάθη και εισάγοντας αυτομάτως νέες πληροφορίες, εντοπίζοντας παραβιάσεις δικαιωμάτων πνευματικής ιδιοκτησίας κ.α.

Η μελέτη - με τίτλο «Ακόμη και τα καλά bots τσακώνονται» - συμπεριέλαβε εκδόσεις της Wikipedia σε 13 γλώσσες σε βάθος δεκαετίας. Η βασική διαπίστωση είναι ότι, παρόλο που τα bots δεν είναι φτιαγμένα από κακόβουλους δημιουργούς, όχι απλώς αλληλεπιδρούν μεταξύ τους, αλλά μπλέκονται σε χρόνιες διαφωνίες με απρόβλεπτες συνέπειες, αλλάζοντας π.χ. το ένα το περιεχόμενο που το άλλο έχει προσθέσει σε κάποιο λήμμα ή τους συνδέσμους (links) κάτω από τα λήμματα.

Αν και οι αυτόνομοι αλγόριθμοι των bots αποτελούν μόνο το 0,1% (τον έναν στους χίλιους) των συντακτών της Wikipedia, η επιρροή τους είναι πολύ μεγαλύτερη, επειδή ένα μεγάλο ποσοστό των επεμβάσεων και διορθώσεων οφείλεται σε αυτά τα προγράμματα.

Η μελέτη διαπίστωσε ότι η γερμανική έκδοση της Wikipedia είναι αυτή με τις λιγότερες συγκρούσεις μεταξύ bots, ενώ η πορτογαλική με τις περισσότερες. Η αγγλική, δε, βρίσκεται κάπου στη μέση. Τα θέματα των πολέμων μεταξύ bots είναι ποικίλα, από την αραβική γλώσσα έως τον κβαντικό φυσικό Νιλς Μπορ και τον 'Αρνολντ Σβαρτσενέγκερ.

Μία από τις πιο σκληρές μάχες διεξήχθη ανάμεσα σε δύο bots, το Xqbot και το Darknessbot, μεταξύ του 2009-2010, η οποία αφορούσε 3.629 διαφορετικά λήμματα, από τον Μέγα Αλέξανδρο, έως τη βρετανική ποδοσφαιρική ομάδα 'Αστον Βίλα. Το Xqbot έσβησε πάνω από 2.000 διορθώσεις που είχε κάνει το Darknessbot και το τελευταίο αντεπιτέθηκε σβήνοντας πάνω από 1.700 αλλαγές που είχε επιφέρει το πρώτο στο περιεχόμενο της Wikipedia!

«Βρήκαμε ότι τα bots συμπεριφέρονται διαφορετικά σε διαφορετικά πολιτισμικά περιβάλλοντα. Χρειαζόμαστε περισσότερη έρευνα πάνω στην κοινωνιολογία των bots», δήλωσε η Τσβέτκοβα.

«Ακριβώς επειδή τα bots δημιουργούνται από ανθρώπους διαφορετικών χωρών και πολιτισμών, όταν συναντιούνται στο διαδίκτυο μόνα τους, αυτό μπορεί να οδηγήσει σε αναπάντεχες παρεξηγήσεις και… συγκρούσεις! Ενώ οι μάχες μεταξύ των ανθρώπων μπορεί να καταλαγιάσουν μετά από μερικές μέρες, μεταξύ των bots μπορεί να συνεχισθούν για χρόνια», ανέφερε ο Γιασέρι.

Αυτό, κατά τους ερευνητές, είναι μια προειδοποίηση για όσους χρησιμοποιούν την τεχνητή νοημοσύνη για να δημιουργήσουν αυτόνομα οχήματα, αυτόνομα συστήματα κυβερνοασφάλειας κ.α. Όπως επισημαίνουν χαρακτηριστικά, ο online κόσμος τείνει να μετατραπεί σε ένα «οικοσύστημα των bots», αλλά οι γνώσεις μας γι' αυτό είναι μάλλον φτωχές…

Πέμπτη 16 Φεβρουαρίου 2017

Δικαίωμα στην "εξήγηση"



Οι αλγόριθμοι έχουν εισβάλει αθόρυβα στο λεξιλόγιο των ανθρώπων και -το κυριότερο- στις ζωές τους. Αλλά οι περισσότεροι άνθρωποι μάλλον δεν το έχουν συνειδητοποιήσει ακόμη. Και αυτό δεν είναι καλό για μια κοινωνία.

Ένας αλγόριθμος είναι μια σειρά εντολών και ενεργειών με τις οποίες ένας υπολογιστής λύνει ένα πρόβλημα ή επιτυγχάνει ένα επιθυμητό αποτέλεσμα. Και δεν εννοούμε μόνο μαθηματικά προβλήματα, καθώς το οτιδήποτε στη ζωή μπορεί να θεωρηθεί πρόβλημα.

Στην αναδυόμενη εποχή της τεχνητής νοημοσύνης, υπάρχει πλέον μια «έκρηξη» ολοένα πιο πολύπλοκων αλγόριθμων, που προσπαθούν να εξομοιώσουν όσο γίνεται περισσότερο την ανθρώπινη σκέψη - με τα καλά και τα κακά της- και, ανάμεσα στα άλλα, να κάνουν προβλέψεις. Από το τι θα θέλαμε να αγοράσουμε, έως το τι ψηφίζουμε και ποιος είναι ο χαρακτήρας και η προσωπικότητά μας.

Αλλά αυτό, αντί για την επίλυση ενός προβλήματος, μπορεί να αποδειχθεί προβληματικό το ίδιο, επειδή ο αλγόριθμος επιχειρεί να προβλέψει τη μελλοντική συμπεριφορά μας μόνο με βάση αυτά που έχει μάθει για μας (συχνά χωρίς τη συγκατάθεσή μας), ιδίως μέσω του διαδικτύου και των διαφόρων βάσεων δεδομένων. Μέσα από αυτές τις προβλέψεις τους, οι αλγόριθμοι -που εμείς φτιάξαμε- «φτιάχνουν» εμάς και εμείς σπάνια έχουμε επίγνωση γι' αυτή την επίδραση πάνω μας.

Πίσω από αναρίθμητα πράγματα στο σύγχρονο ψηφιακό κόσμο, από τις αναζητήσεις της Google έως τα ηλεκτρονικά ψώνια στο Amazon και τις σελίδες του Facebook, βρίσκονται κρυμμένοι άγρυπνοι αλγόριθμοι, που καταγράφουν την ανθρώπινη συμπεριφορά και την επηρεάζουν όλο και περισσότερο. Αν η διαδικτυακή αναζήτησή σας στη Google για παπούτσια ή κινηματογραφικές ταινίες φέρνει τα επιθυμητά αποτελέσματα μέσα σε κλάσματα του δευτερολέπτου και αν το Facebook «ξέρει» τι περιεχόμενο προτιμάτε να δείτε ή το Amazon τι προτιμάτε να αγοράσετε, αυτό οφείλεται στους πανταχού παρόντες αλγόριθμους τους.


Ένα δώρο από την Περσία για τον καθένα μας


Αν και ετυμολογικά η λέξη «αλγόριθμος» παραπέμπει στην άλγεβρα και στον Πέρση «πατέρα» της αλ-Χουαρίζμι, στη Βαγδάτη του 9ου αιώνα, σήμερα οι αλγόριθμοι έχουν ξεφύγει πια από την επικράτεια των μαθηματικών και αποτελούν βασική ενασχόληση των ειδικών των υπολογιστών και των προγραμματιστών. Οι «εγκέφαλοι» του λογισμικού είναι αλγόριθμοι και, αφού το λογισμικό «τρυπώνει» παντού, ιδίως στην εποχή του διαδικτύου, οι αλγόριθμοι εισβάλλουν και αυτοί παντού.

Σε τομείς όπως ο χρηματοοικονομικός - τραπεζικός - χρηματιστηριακός οι αλγόριθμοι «βασιλεύουν» και παίρνουν κρίσιμες αποφάσεις μόνοι τους μέσα σε χιλιοστά του δευτερολέπτου, μετακινώντας τεράστια χρηματικά ποσά από τη μία στην άλλη άκρη του πλανήτη - με όποιες επιπτώσεις μπορεί να έχει αυτό σε οικονομίες και ανθρώπους, που εκτίθενται σε απρόβλεπτες διακυμάνσεις κερδοσκοπικού χαρακτήρα.

Οι αστυνομίες όλο και συχνότερα χρησιμοποιούν αλγόριθμους για να προβλέψουν πού θα συμβεί κάποια εγκληματική πράξη και οι μυστικές υπηρεσίες χρησιμοποιούν κατά κόρον τους αλγόριθμους για να παρακολουθούν μαζικά όποιους θεωρούν ύποπτους για τρομοκρατία ή εχθρούς του κράτους. Οι δορυφόροι και τα διαστημόπλοια πετούν χάρη στους αλγόριθμους τους, ενώ τα ρομπότ θα ήσαν χαζές μηχανές χωρίς τους δικούς τους αλγόριθμους. Τα αυτόνομα αυτοκίνητα χωρίς οδηγό, που θα κυκλοφορούν στους δρόμους στο όχι μακρινό μέλλον, στην ουσία οδηγούνται από αλγόριθμους.

Οι ιατρικοί αλγόριθμοι έχουν αρχίσει να κάνουν διαγνώσεις ασθενειών (π.χ. του καρκίνου του δέρματος) εξίσου καλά με τους γιατρούς, αν όχι καλύτερα. Στις επιχειρήσεις οι αλγόριθμοι κρίνουν ποιος από τους υποψήφιους θα πάρει την κενή θέση εργασίας και ποιος εργαζόμενος θα πρέπει να απολυθεί. Ενώ με τη βοήθεια αλγόριθμων οι ασφαλιστικές εταιρείες αποφασίζουν αν θα ασφαλίσουν κάποιον ή κάτι και με ποιο κόστος.

Στα δικαστήρια οι δικαστές έχουν πια βοήθεια από τους αλγόριθμους για τις αποφάσεις τους και στα καλλιστεία χρησιμοποιήθηκαν οι πρώτοι αλγόριθμοι για να βαθμολογήσουν τις ωραίες. Όσο για τα μέσα ενημέρωσης, οι αλγόριθμοι έχουν αρχίσει να γράφουν άρθρα (όχι ακόμη τόσο καλά πάντως, όσο αυτό που διαβάζετε τώρα!).


Οι κίνδυνοι των αλγόριθμων


Βασική δουλειά των αλγόριθμων είναι να «φιλτράρουν» τον τεράστιο όγκο πληροφοριών, πράγμα χρήσιμο αναμφισβήτητα. Αλλά εδώ επίσης κρύβεται ένας κίνδυνος: οι άνθρωποι σταδιακά ζουν σε ψηφιακά σύμπαντα που οι αλγόριθμοι έχουν δημιουργήσει για τη διευκόλυνση της ζωής μας. Αλλά το τίμημα είναι ότι έτσι περιορίζεται η οπτική γωνία των ανθρώπων, οι πεποιθήσεις τους «στενεύουν», οι υπάρχουσες απόψεις τους απλώς αυτοτροφοδοτούνται από την ηχώ τους, που αντανακλάται στους αόρατους τοίχους της ψηφιακής «φυλακής» τους.

Συχνά οι αλγόριθμοι, όπως αυτοί του Facebook ή του Twitter, δεν μπορούν να διακρίνουν την αλήθεια από το ψέμα, καθώς κρίνουν με βάση πόσο δημοφιλής είναι μια πληροφορία (ή μάλλον παραπληροφόρηση) που διαδίδεται στα μέσα κοινωνικής δικτύωσης. Έτσι, όπως φάνηκε και στην πρόσφατη προεκλογική εκστρατεία στις ΗΠΑ, οι ψευδο-ειδήσεις εξαπλώνονται σαν πυρκαγιά και η μετα-αλήθεια σκεπάζει την αλήθεια.

Ολοένα περισσότερες φωνές ζητούν να υπάρξει μεγαλύτερη διαφάνεια και έλεγχος πάνω στους αλγόριθμους. Γίνεται αντιληπτό ότι οι αλγόριθμοι -που υποτίθεται αποτελούν ένα εργαλείο αντικειμενικότητας- στην πραγματικότητα ενσωματώνουν τις προκαταλήψεις των δημιουργών τους και άρα κάλλιστα μπορεί να αναπαράγουν τις κοινωνικές αδικίες, το ρατσισμό, το σεξισμό κ.α.

Όπως επεσήμανε μια πρόσφατη έκθεση του Λευκού Οίκου των ΗΠΑ, σύμφωνα με το Γαλλικό Πρακτορείο, «τα αλγοριθμικά συστήματα δεν είναι αλάνθαστα. Εξαρτώνται από τις ατέλειες των δεδομένων, της λογικής, των πιθανοτήτων και των ανθρώπων που σχεδιάζουν τους αλγόριθμους». Γι' αυτό, προειδοποίησε ότι «οι αλγόριθμοι μπορεί συστηματικά να θέτουν σε μειονεκτική θέση συγκεκριμένες ομάδες».

Οι αλγόριθμοι καλούνται να απαντήσουν σε δύσκολα ερωτήματα, που δεν είναι δυνατό να έχουν μία και μοναδική αντικειμενική «λύση». Για παράδειγμα, το ερώτημα «ποιόν πρέπει να προσλάβει η επιχείρηση;» αναπόφευκτα οδηγεί σε μια υποκειμενική, ανοικτή και αξιολογική απάντηση, ανάλογα με την ηθική και τα κριτήρια κάθε ανθρώπου. Με άλλα λόγια υπάρχουν πολλές «λύσεις». Όμως ο αλγόριθμος μπορεί να έχει «διδαχθεί» να προτιμά μια συγκεκριμένη απάντηση - λύση, την οποία μάλιστα «ντύνει» με τον μανδύα της αντικειμενικότητας.

Με άλλα λόγια, οι αλγόριθμοι μπορούν να πάρουν κακές αποφάσεις, που έχουν σοβαρές επιπτώσεις στις ανθρώπινες ζωές. Όμως οι δημιουργοί των αλγόριθμων - ιδίως οι μεγάλες εταιρείες τεχνολογίας - είναι πολύ μυστικοπαθείς για το πώς δουλεύουν οι αλγόριθμοί τους, προκειμένου να αποτρέψουν την αντιγραφή τους από τους ανταγωνιστές τους.


Μια ανεξάρτητη Ρυθμιστική Αρχή για τους αλγόριθμους


Γι' αυτό, όσοι συνειδητοποιούν το πρόβλημα, ζητούν πλέον να μπουν στο μικροσκόπιο των κρατών και των κοινωνιών οι αλγόριθμοι και η τεχνητή νοημοσύνη. Μια ενδιαφέρουσα ιδέα είναι να δημιουργηθεί μια ανεξάρτητη ρυθμιστική-εποπτική Αρχή, που θα προάγει τη διαφάνεια και θα καταπολεμήσει την εγγενή μονομέρεια ή αδικία που κρύβεται στους αλγόριθμους. Η Αρχή αυτή θα διασφαλίζει ότι δεν θα γίνονται αυτόματες αλγοριθμικές διακρίσεις σε βάρος ανθρώπων και θα δέχεται σχετικά παράπονα από πολίτες που νιώθουν θύματα τέτοιων άδικων αποφάσεων σε βάρος τους.

Παράλληλα, προτείνεται να ενισχυθούν οι υπάρχοντες νόμοι για την προστασία των καταναλωτών και των προσωπικών δεδομένων, κάτι στο οποίο πρωτοστατεί η Ευρωπαϊκή Ένωση, που θα θέσει σε εφαρμογή νέα νομοθεσία από το 2018.

Οι νέοι ευρωπαϊκοί κανονισμοί θα δίνουν στους πολίτες «το δικαίωμα στην εξήγηση», έτσι ώστε να απαιτούν να μάθουν γιατί το αυτόματο υπολογιστικό σύστημα, δηλαδή ο αλγόριθμος, αποφάσισε έτσι (π.χ. μια απόλυση) και όχι αλλιώς. Αν και υπάρχει μια πρακτική δυσκολία: ακόμη και να το ήθελαν οι δημιουργοί τους, είναι αμφίβολο κατά πόσο μπορούν και οι ίδιοι να εξηγήσουν πάντοτε πώς δουλεύουν τελικά οι εξελιγμένοι αλγόριθμοι «βαθιάς μάθησης», οι οποίοι επιτρέπουν στο μηχάνημα (υπολογιστή, ρομπότ κ.α.) να μαθαίνει και να αποφασίζει μόνο του.

Σε κάθε περίπτωση, πρέπει να ενταθεί ο δημόσιος διάλογος και η ενημέρωση της κοινής γνώμης για το τι διακυβεύεται, καθώς οι αλγόριθμοι διευρύνουν συνεχώς την επικράτειά τους - χωρίς βεβαίως να μετατραπούν σε αποδιοπομπαίο τράγο για όλα τα κακά της κοινωνίας, τα οποία σε τελευταία ανάλυση είναι ανθρώπινα.

Πηγή: ΑΠΕ - ΜΠΕ