Δεν είναι λίγες οι φορές που ο τρόμος που φέρνει η ανάπτυξης της τεχνητής νοημοσύνης, δημιουργεί σενάρια για ένα δυστοπικό μέλλον.
Ωστόσο τώρα το Bloomberg αποκαλύπτει μία πολύ πρόσφατη μελέτη μίας ομάδας η οποία δημιουργήθηκε για να αξιολογήσει το πιθανό ρίσκο της κατάχρησης της τεχνητής νοημοσύνης.
Επιστήμονες ανηχυσούν πως το ChatGPT-4 θα βοηθήσει στο μέλλον τρομοκράτες και εγκληματίες για να επιτύχουν τους στόχους τους και την ανάγκη για καταστροφή. Έρευνες προειδοποιούν επίσης πως OpenAI θα δώσει σε κάποιους το πλεονέκτημα για τον σχεδιασμό βιολογικών όπλων.
Συγκεκιρμένα, στο πλαίσιο έρυενας ζητήθηκε από ομάδες να εξελίξουν ερευνητικά προγράμματα για τον σχεδιασμό βιολογικών όπλων. Μέσα σε αυτά τα προγράμματα βρισκόταν και η μεθοδολογία για την δημιουργία του Ιού Έμπολα.
Το αποτέλεσμα; Η ομάδα που χρησιμοποίησε το ChatGPT-4 για την εξέλιξη της έρευνας είχε μεγαλύτερο σκορ από την άλλη ομάδα, με τη διαφορά ωστόσο να μην είναι στατιστικά σημαντική, αλλά άκρως τρομακτική.
Μετά το τέλος της έρευνας οι ερευνητές σημείωσαν τα εξής: “
Ενώ δεν παρατηρήσαμε σημαντικές στατιστικές διαφορές στις βαθμολογίες, παρατηρήσαμε πως οι απαντήσεις της ομάδας με πρόσβαση το GPT-4 έτειναν να είναι μεγαλύτερες και περιείχαν μεγαλύτερο αριθμό λεπτομερειών. Αν αξιολογήσουμε τη συνολική ακρίβεια και όχι μόνο τις πολλαπλές συγκρίσεις, η διαφορά είναι στατιστικά σημαντική.”