Ρώσοι επιστήμονες αμφιβάλλουν ότι η τεχνητή νοημοσύνη μπορεί να είναι άνευ όρων εμπιστοσύνη
Ένα πολύ σημαντικό θέμα που σχετίζεται με τις τεχνολογίες τεχνητής νοημοσύνης συζητήθηκε στο τελευταίο Προεδρείο της Ρωσικής Ακαδημίας Επιστημών. Έτσι, κατά τη διάρκεια της συζήτησης, οι επιστήμονες προσπάθησαν να καταλάβουν πόσο μπορείτε να εμπιστευτείτε την τεχνητή νοημοσύνη (AI) και πού είναι η γραμμή μετά την οποία ένα άτομο πρέπει να πάρει μια απόφαση μόνος του.
Είτε το πιστεύετε είτε όχι Τεχνητή Νοημοσύνη
Έτσι, σύμφωνα με τον Πρόεδρο της Ρωσικής Ακαδημίας Επιστημών Α. Sergeeva, η τεχνητή νοημοσύνη είναι ένα λεγόμενο «μαύρο κουτί» που ακόμη και οι ίδιοι οι δημιουργοί του δεν καταλαβαίνουν πλήρως πώς λειτουργεί. Και έτσι προκύπτει ένα πολύ λογικό ερώτημα: Είναι δυνατόν να εμπιστευτούμε τα συμπεράσματα της τεχνητής νοημοσύνης εάν δεν μπορούμε να εντοπίσουμε την αλυσίδα των συμπερασμάτων που βγάζει αυτή η «μηχανή»;
Πράγματι, στην πραγματικότητα, η τεχνητή νοημοσύνη κάνει ήδη έναν αρκετά μεγάλο αριθμό λειτουργιών καλύτερα και πιο γρήγορα από τους ανθρώπους.
Και μπορεί κάλλιστα να είναι δελεαστικό να εγκαταλείψουμε την επιστήμη κατ' αρχήν, επειδή ένας ειδικός μέσης ικανότητας μπορεί να θέσει ορισμένα καθήκοντα και να διαβάσει απαντήσεις από την τεχνητή νοημοσύνη.
Αλλά μόνο σε περίπτωση πλήρους και αδιάκριτης εμπιστοσύνης στις λύσεις τεχνητής νοημοσύνης, μπορείτε να έχετε μια εξαιρετικά παραμορφωμένη εικόνα, η οποία μπορεί να είναι αρκετά ακριβή.
Το θέμα είναι ότι ένα άτομο είναι πολύ διατεθειμένο να εμπιστεύεται την τεχνολογία, αλλά με την τεχνητή νοημοσύνη, όλα είναι πολύ πιο περίπλοκα. Το θέμα είναι ότι η ανθρωπότητα δεν μπορεί ακόμα να εξηγήσει πλήρως πώς λειτουργεί ο ανθρώπινος εγκέφαλος.
Και με τον ίδιο τρόπο, δεν υπάρχει κατανόηση του πώς λειτουργεί η τεχνητή νοημοσύνη, η οποία είναι κατασκευασμένη κατ' αναλογία με τον ανθρώπινο εγκέφαλο. Πράγματι, τα νευρωνικά δίκτυα βασίζονται σε μια αρκετά απλή εξίσωση ενός νευρώνα.
Αλλά μόνο στην περίπτωση που, για παράδειγμα, 600 δισεκατομμύρια τέτοιων στοιχείων εμπλέκονται στο έργο ταυτόχρονα, κανένας απολύτως δεν θα πει με βεβαιότητα ποιες συνδέσεις σχηματίζονται στο νευρωνικό δίκτυο.
Επιπλέον, οι επιστήμονες σημείωσαν ότι καθώς αναπτύσσονται τα νευρωνικά δίκτυα, εντοπίζονται όλο και περισσότερα μειονεκτήματα. Εξάλλου, στην αρχή, η τεχνητή νοημοσύνη μαθαίνει από εκατομμύρια διαφορετικά παραδείγματα.
Συχνά όμως, ακόμη και με μια μικρή απόκλιση από τις παραμέτρους που «μαθεύτηκαν» κατά τη διάρκεια της προπόνησης, το σύστημα αρχίζει να δίνει λανθασμένα αποτελέσματα.
Έτσι, ένα αρκετά εντυπωσιακό παράδειγμα είναι ένα νευρωνικό δίκτυο που δημιουργήθηκε από την IBM, που δημιουργήθηκε σκόπιμα για ιατρικές ανάγκες. Έτσι, αποδείχθηκε ότι το IBM AI κάνει διαγνώσεις στο επίπεδο ενός αρκετά μέσου γιατρού. Αυτό σημαίνει ότι παρόλο που οι τεχνολογίες τεχνητής νοημοσύνης επιτρέπουν τη δημιουργία έξυπνων συστημάτων, απέχουν πολύ από το να είναι τέλειες.
Και ολοκληρώνοντας τη συζήτηση, οι επιστήμονες κατέληξαν στο συμπέρασμα ότι, δεδομένης της συνεχώς αυξανόμενης τάσης στην ανάπτυξη και χρήση της τεχνητής νοημοσύνης, είναι απλώς απαραίτητο να δημιουργηθεί μια ορισμένη ανάλογο του GOST, το οποίο θα καταστήσει δυνατή την πλήρη χρήση της τεχνητής νοημοσύνης μόνο αφού το σύστημα έχει περάσει μια ολόκληρη σειρά ελέγχων και οι επιστήμονες είναι πεπεισμένοι ότι η τεχνητή νοημοσύνη δεν θα εκτελέσει Σφάλματα.
Γράψτε στα σχόλια πώς αισθάνεστε προσωπικά για τη χρήση της τεχνητής νοημοσύνης στην καθημερινή ζωή. Αν σας άρεσε το υλικό, τότε βαθμολογήστε το και μην ξεχάσετε να εγγραφείτε στο κανάλι. Σας ευχαριστώ για την προσοχή σας!