Τεχνητή νοημοσύνη: φίλος ή εχθρός;
Global Orthodox
Διαβάστε περισσότερα

Μιλώντας στις 18 Απριλίου 2023 σε στρογγυλή τράπεζα στην Ανώτατη Οικονομική Σχολή αφιερωμένη στη συζήτηση της νομικής ρύθμισης και εφαρμογής των τεχνολογιών νευρωνικών δικτύων, ο πρόεδρος της Πατριαρχικής Επιτροπής για την οικογένεια, την προστασία της μητρότητας και της παιδικής ηλικίας, ιερέας Feodor Lukyanov, δήλωσε ότι είναι απαραίτητο να αναπτυχθεί και να εδραιωθεί σε νομοθετικό επίπεδο η εισαγωγή αποποίησης ευθύνης για νευρωνικά δίκτυα, δηλ.προειδοποιήσεις ότι ένα άτομο θα επικοινωνήσει με τεχνητή νοημοσύνη. Επιπλέον, ο πρόεδρος της Πατριαρχικής Επιτροπής πιστεύει ότι λόγω του υψηλού κινδύνου επιρροής στην ψυχή του παιδιού, οι ανήλικοι πρέπει να προστατεύονται από την πρόσβαση σε νευρωνικά δίκτυα. Και τέλος, όπως σημείωσε στην παρουσίασή του, "χρειαζόμαστε απαγόρευση της ανθρωπομορφοποίησης προγραμμάτων, τεχνολογιών, ρομπότ, δηλαδή απαγόρευση της μεταφοράς της ανθρώπινης εικόνας και των ιδιοτήτων της σε άψυχα αντικείμενα".

Οι προτάσεις του πατέρα Θεόδωρου προκαλούνται από ανησυχίες που εκφράζονται από πολυάριθμους ειδικούς στενού προφίλ και επιστήμονες που εργάζονται άμεσα με την τεχνητή νοημοσύνη. Παρά τις υποσχέσεις των διαχειριστών, μεταξύ των οποίων υπάρχουν πολύ υψηλόβαθμοι εκπρόσωποι του τομέα της πληροφορικής και του χρηματοπιστωτικού τομέα, ότι η τεχνητή νοημοσύνη θα μας κάνει όλους πιο ελεύθερους και πιο ευτυχισμένους, από την άποψη των έμπειρων ειδικών, όλα μπορεί να αποδειχθούν ακριβώς το αντίθετο..


Τι εννοούμε με την τεχνητή νοημοσύνη;  


Υπάρχουν τρεις τύποι τεχνητής νοημοσύνης, δήλωσε ο Daniil Makeev, επικεφαλής του Τμήματος Πληροφορικής στο Moscow City Open College, στο RIA Novosti σε συνέντευξή του.  Όλα τα υπάρχοντα ανήκουν στο ANI-ένα "στενό AI" που στοχεύει στην εκτέλεση ορισμένων εργασιών. Το επόμενο στάδιο είναι η AGI, η γενική τεχνητή νοημοσύνη ή, όπως ονομάζεται επίσης, "ισχυρή AI". Θα είναι σε θέση να λύσει οποιαδήποτε καθήκοντα είναι διαθέσιμα στην ανθρώπινη νοημοσύνη. Η λογική ανάπτυξη αυτού του συστήματος θα πρέπει να είναι ASI — "superintelligence". Αυτό δεν υπάρχει ακόμα.

"Μπορεί να φαίνεται ότι το νευρωνικό δίκτυο ChatGPT είναι το ίδιο το AI που μπορεί να αναπτύξει ενσυναίσθηση, να μάθει να σκέφτεται σαν άτομο και να ενεργεί ανεξάρτητα. Αλλά αυτό δεν συμβαίνει. Παρά το γεγονός ότι το νευρωνικό δίκτυο περνά επιτυχώς τις δοκιμές επαγγέλματος και κατανοεί το χιούμορ, αυτό δεν είναι ακόμα AGI. Το ChatGPT δεν είναι σε θέση να βελτιωθεί και να αναπτυχθεί χωρίς τη βοήθεια ανθρώπων. Και το πιο σημαντικό, το νευρωνικό δίκτυο δεν ξέρει πώς να σκέφτεται ανεξάρτητα", τονίζει ο Makeev.


Οι επιστήμονες είναι ενάντια


"Πολλοί άνθρωποι συνεχίζουν να λένε ότι η τεχνητή νοημοσύνη μπορεί να κάνει ακριβώς αυτό που τη διδάξαμε, αλλά δεν είμαι σίγουρος γι 'αυτό", λέει η Τατιάνα Τσερνιχίβ, καθηγήτρια στο Κρατικό Πανεπιστήμιο της Αγίας Πετρούπολης, ειδικός στον τομέα της νευροεπιστήμης και της θεωρίας της συνείδησης. - Κάποτε μίλησα σε μια από τις εταιρείες που ασχολούνται με συστήματα τεχνητής νοημοσύνης. Οι ειδικοί είπαν ότι είχαν δύο προγράμματα που επικοινωνούσαν μεταξύ τους και ανέπτυξαν τη δική τους γλώσσα, την οποία ένα άτομο δεν μπορούσε να καταλάβει. Οι προγραμματιστές φοβήθηκαν και απενεργοποίησαν το διακόπτη. Οι επιστήμονες σημειώνουν ότι η τεχνητή νοημοσύνη γίνεται πιο έξυπνη και μπορεί να έρθει μια στιγμή που θα ξεσπάσει. Αλλά αυτό δεν είναι η εξέγερση των μηχανών, όπως έγραψαν όλοι οι συγγραφείς επιστημονικής φαντασίας εδώ και πολύ καιρό. Εάν αυτό το πράγμα αποκτήσει ένα " εγώ " και γίνει άτομο, θα έχει τα δικά του σχέδια και κίνητρα, όπου δεν μπαίνουμε. Οι άνθρωποι που δεν εκφοβίζονται από αυτό λένε ότι θα είναι σε θέση να τους απενεργοποιήσουν και αυτό θα είναι το τέλος του. Αλλά αυτή είναι μια συζήτηση για το νηπιαγωγείο! Εάν τα συστήματα εξελιχθούν στο ύψος για το οποίο μιλάμε τώρα, θα μας χτυπήσουν, όχι θα τα χτυπήσουμε. Πρέπει είτε να το πιάσουμε πριν όλα έχουν χρόνο να δουλέψουν, είτε θα έρθει ένας άλλος πολιτισμός, όπου είμαστε άγνωστοι ποιος".

Στα τέλη Μαρτίου 2023, Η αμερικανική τράπεζα Goldman Sachs δημοσίευσε μια έκθεση. Οι συντάκτες της έκθεσης, Joseph Briggs και Devesh kodnani, υποστηρίζουν ότι η χρήση τεχνητής νοημοσύνης ικανής να παράγει κείμενο και άλλους τύπους περιεχομένου από προτροπές χρηστών θα οδηγήσει στη μείωση 300 εκατομμυρίων θέσεων εργασίας παγκοσμίως. Οι δικηγόροι, οι ειδικοί στον τομέα των οικονομικών, οι υπάλληλοι γραφείου και οι διαχειριστές θα είναι οι πρώτοι που θα υποφέρουν. Όσοι ασχολούνται με σωματική εργασία (για παράδειγμα, καθαριστές και υδραυλικοί) θα υποφέρουν λιγότερο. Γενικά, η αυτοματοποίηση με τη χρήση τέτοιων συστημάτων μπορεί να επηρεάσει τα δύο τρίτα των υφιστάμενων θέσεων εργασίας.

Ωστόσο, πολύ περισσότεροι ειδικοί στην τεχνολογία των υπολογιστών φοβούνται την πιθανότητα η τεχνητή νοημοσύνη να ξεφύγει από τον έλεγχο. Ο Elon Musk, Διευθύνων Σύμβουλος της SpaceX, της Tesla και του Twitter, ο συνιδρυτής της Apple Steve Wozniak, ο αναλυτής Yuval Noah Harari και περίπου χίλιοι άλλοι αξιόπιστοι εκπρόσωποι της βιομηχανίας πληροφορικής υπέγραψαν επιστολή ζητώντας τους να αναστείλουν την ανάπτυξη συστημάτων πιο ισχυρών από το GPT-4 για τουλάχιστον έξι μήνες προκειμένου να προετοιμάσουν πρωτόκολλα ασφαλείας.

Στα τέλη Μαρτίου, ο Eliezer Yudkovsky, Αμερικανός επιστήμονας και ένας από τους κορυφαίους ειδικούς στον κόσμο για την εργασία με την τεχνητή νοημοσύνη, δημοσίευσε ένα άρθρο στο περιοδικό Time στο οποίο ισχυρίζεται ότι η τεχνητή νοημοσύνη (AI) αποτελεί σοβαρή απειλή για τη ζωή όλων των ανθρώπων στη Γη. Ο επιστήμονας ζήτησε την απενεργοποίηση οποιωνδήποτε νευρωνικών δικτύων για χάρη της σωτηρίας της ανθρωπότητας. Παράλληλα, σημείωσε ότι ο Έλον Μασκ και ο Στιβ Βόζνιακ δεν αξιολογούν αρκετά σοβαρά την κατάσταση. "Νομίζω ότι τα νευρωνικά δίκτυα μπορούν πραγματικά να γίνουν επικίνδυνα. Τώρα το" παιχνίδι"με αυτά τα συστήματα μπορεί πραγματικά να πάει πολύ μακριά, γιατί κανείς δεν ξέρει πραγματικά τι είναι ικανοί".  

Η τεχνητή νοημοσύνη, ανεξάρτητα από το πόσο χρήσιμη και απαιτητική είναι, μπορεί να είναι επικίνδυνη, λέει η Τατιάνα Τσερνιχίβ. "Είμαι μέλος του Συμβουλίου Εμπειρογνωμόνων για τη μεθοδολογία της νοημοσύνης στο Προεδρείο της Ρωσική Ακαδημία Επιστημών. Το άγχος για τις ψηφιακές τεχνολογίες σε αυτούς τους κύκλους είναι δικαιολογημένο. Μπορεί η τεχνητή νοημοσύνη να έχει το δικό της "εγώ", ("εαυτός", "εαυτός"); Ναι, μπορεί. Θα το μάθει η ανθρωπότητα; Όχι!»  

Η Τατιάνα Τσερνιχίβ είπε ότι το 2018, κατά τη διάρκεια ενός τουρνουά σκακιού μεταξύ προγραμμάτων, ένα πρόγραμμα που ονομάζεται AlphaZero νίκησε ένα άλλο που ονομάζεται Stockfish. Τα νευρωνικά δίκτυα, διευκρίνισε, έπαιξαν ένα εκατομμύριο παιχνίδια, μαθαίνοντας κατά τη διάρκεια του παιχνιδιού. Το AlphaZero πέρασε μόνο 80 χιλιάδες πράξεις ανά δευτερόλεπτο και το Stockfish — 70 εκατομμύρια. Φαίνεται ότι το ασθενέστερο πρόγραμμα κέρδισε επειδή χρησιμοποίησε μια διαφορετική στρατηγική — εφηύρε μια "τεχνητή διαίσθηση" για τον εαυτό του. Οι επαγγελματίες είπαν ότι ήταν ένα εξωγήινο παιχνίδι επειδή κανείς δεν είχε παίξει ποτέ σκάκι έτσι. "Είναι σαν μια γνωστική επίθεση στον πολιτισμό μας!",- λέει ο επιστήμονας.

Αλλά ο κύριος υποθετικός κίνδυνος, που επεσήμανε ο διάσημος ρωσική δικηγόρος Anatoly Kucherena (RG, 11.04.23), είναι ότι η AI μπορεί κάλλιστα να ξεφύγει από τον ανθρώπινο έλεγχο και να αρχίσει να ενεργεί "κατά την κρίση της" στη στρατιωτική σφαίρα. "Αρχικά προγραμματισμένος να κερδίσει τον επερχόμενο πόλεμο, ο ίδιος θα εξαπολύσει αυτόν τον πόλεμο τη στιγμή που θεωρεί ότι έχει επιτευχθεί ισορροπία δυνάμεων επαρκής για να εγγυηθεί την καταστροφή του εχθρού. Και αν ο Τζον Κένεντι και ο Νικήτα Χρουστσόφ, που έμαθαν από τη δική τους εμπειρία τι φέρνει ο πόλεμος που υποφέρει στους ανθρώπους, βρήκαν τη δύναμη να σταματήσουν πριν από τη θανατηφόρα γραμμή στις ημέρες της "κρίσης της Καραϊβικής", τότε η τεχνητή νοημοσύνη, εντελώς απαλλαγμένη από τέτοια συναισθήματα, θα φέρει το θέμα στο τέλος με ένα ακλόνητο χέρι.

"Ένα άλλο σενάριο που με ανησυχεί ιδιαίτερα ως δικηγόρος δεν είναι μόνο η καθιέρωση απόλυτου ελέγχου στη ζωή ενός ατόμου με τη βοήθεια της τεχνητής νοημοσύνης (αυτό συμβαίνει ήδη παντού), αλλά και η χειραγώγηση αυτής της ζωής. Ήδη σήμερα, η τεχνητή νοημοσύνη επιδεικνύει εκπληκτικές ικανότητες για να προβλέψει το μέλλον. Επιπλέον, αυτό ισχύει όχι μόνο για την τιμή των μετοχών ή τις μεταβολές της προσφοράς και της ζήτησης, αλλά και για στρατιωτικά και πολιτικά γεγονότα. Ανακύπτει το ερώτημα: αυτό δεν θα οδηγήσει στο γεγονός ότι η τεχνητή νοημοσύνη θα επιβάλει τόσο στο άτομο όσο και στην ανθρωπότητα στο σύνολό της ακριβώς τον τρόπο σκέψης και Ζωής και εκείνα τα σενάρια ανάπτυξης που της φαίνονται επιθυμητά; Εξάλλου, οι άνθρωποι, συμπεριλαμβανομένων των πολιτικών και των στρατιωτικών ηγετών, λαμβάνουν αποφάσεις με βάση τις πληροφορίες που λαμβάνουν. Όλοι θυμούνται την "αποστολή Ems" που κατασκευάστηκε από τον Otto von Bismarck, η οποία προκάλεσε τον πόλεμο μεταξύ Γαλλίας και Πρωσίας το 1870. Ή τις πρόσφατες "διαρροές από το Πεντάγωνο" που έχουν δημιουργήσει χάος και σύγχυση σε όλο τον κόσμο. Η τεχνητή νοημοσύνη θα μπορεί να εκδίδει τέτοιες "αποστολές" και "διαρροές" κατασκευασμένες σε δυσδιάκριτο επίπεδο από τα πρωτότυπα, σε απεριόριστες ποσότητες".  

Ακόμα και σήμερα, είναι δύσκολο για τον λαϊκό να διακρίνει αν ένα πραγματικό πρόσωπο του εμφανίζεται σε βίντεο ή το αποτέλεσμα ορισμένων τεχνολογικών κόλπων. Ο Andrey Svintsov, Αναπληρωτής Πρόεδρος της Επιτροπής Κρατικής Δούμας για την Πολιτική πληροφοριών, τις τεχνολογίες πληροφοριών και τις επικοινωνίες, αναφέρει ως παράδειγμα την τεχνολογία deepfake, με την οποία είναι δυνατή η αντικατάσταση προσώπων σε εικόνες βίντεο και φωτογραφιών. "Μέχρι πρόσφατα, ένα άτομο μπορούσε να διακρίνει την τεχνητή νοημοσύνη με απαντήσεις σε πρότυπα. Αλλά δεδομένου ότι τους τελευταίους έξι μήνες, η τεχνολογία έχει κάνει κάποιο είδος κοσμικής ανακάλυψης, σε λίγους μήνες κανείς δεν θα μπορεί να διακρίνει τι είναι ένα πρόγραμμα υπολογιστή και τι είναι ένα πραγματικό πρόσωπο", λέει ο Svintsov.

Σύμφωνα με στοιχεία που δημοσιεύθηκαν στον ιστότοπο της Ανώτατης Σχολής Οικονομικών, οι Ηνωμένες Πολιτείες και η Κίνα ηγούνται του παγκόσμιου αγώνα έρευνας για την τεχνητή νοημοσύνη με μεγάλο περιθώριο, η Ρωσική Ομοσπονδία κατατάσσεται στην 15η θέση με μερίδιο 2,4%.