Transformers: Η Τεχνολογία Πίσω από το ChatGPT [Μάθε πως Μαθαίνουν]

Sdílet
Vložit
  • čas přidán 12. 07. 2023
  • Τα γλωσσικά μοντέλα όπως το ChatGPT έχουν κυριαρχήσει στα τεχνολογικά νέα τον τελευταίο καιρό και όχι άδικα. Πως όμως λειτουργούν αυτά τα γλωσσικά μοντέλα;
    Σε αυτό το βίντεο θα δούμε τις βασικές αρχές λειτουργίας των μετασχηματιστών (transformers). Την τεχνολογία πίσω από τα μεγάλα γλωσσικά μοντέλα όπως το ChatGPT!
    ====================================
    ● Twitter: / techtomeaboutit
    ● Facebook: / techtomeaboutit
    ● Instagram: / techtomeaboutit
    ● TikTok: / techtomeaboutit
    ● Subscribe: goo.gl/eVfeCQ
    ====================================
    ► Η Σελίδα του Tech to me About it:
    techtomeabouti...
    ====================================
    Πηγές:
    ► arxiv.org/pdf/...
    ► huggingface.co...
    ► towardsdatasci...
    ► openai.com/gpt-4
  • Věda a technologie

Komentáře • 55

  • @cortlinux
    @cortlinux Před rokem +9

    Χρειάζεται πολλές παρακολουθήσεις το συγκεκριμένο βίντεο. Συγχαρητήρια.

  • @panagiotisavramidis4870
    @panagiotisavramidis4870 Před rokem +7

    Πιο κατανοητό δεν μπορούσες να το κάνεις. Συγχαρητήρια, το βίντεο είναι εξαιρετικό. Ευχαριστούμε πολύ για την εξαιρετική δουλεία σου!!!!

  • @elgreco2000
    @elgreco2000 Před rokem +1

    Καί έλεγα..μα κάπου την θυμάμαι αυτήν την φωνή.. ώσπου διάβασα τό σχόλιο ενός κυρίου , για το live στο Αστρόνιο... καί έτσι θυμήθηκα.. Συγχαρητήρια εξαιρετική δουλειά !

  • @kyriakostsanas2333
    @kyriakostsanas2333 Před rokem +7

    Εξαιρετικό βίντεο!! Η εξήγηση του φαινομένου ήταν πολύ κατανοητή. Πριν λίγες ώρες παρακολούθησα στο πανεπιστήμιο μου μια ομιλία πάνω στην λειτουργία των LLMs με transformers και δεν κατάλαβα πολλά. Έπρεπε να δω αυτό το βίντεο για να κατανοήσω την ομιλία που άκουσα και το φαινόμενο γενικότερα. Σε ευχαριστούμε που μας χαρίζεις απλόχερα όλο αυτά τα ποιοτητικά βίντεο!

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +1

      Σε ευχαριστώ πολύ! Χαίρομαι που βοήθησε το βίντεο!

  • @user-ld3pf8jl2m
    @user-ld3pf8jl2m Před 8 měsíci +2

    Πάρα πολύ καλό και κατατοπιστικό βίντεο! Παρακολούθησα όλα τα βίντεο που έχεις ανεβάσει από το πρώτο έως το τελευταίο. Η δουλειά που έχεις κάνει είναι εξαιρετική, Φώτη! Συνέχισε έτσι με την ίδια δύναμη και το ίδιο πάθος! Χρήστος

    • @TechtomeAboutit
      @TechtomeAboutit  Před 8 měsíci +1

      Σε ευχαριστώ πολύ για τα καλά λόγια και την υποστήριξη!

  • @seireiokami
    @seireiokami Před 9 měsíci +1

    Ένα βίντεο κατανοητό για όλους, πραγματικά τέλειο!

  • @christinast817
    @christinast817 Před rokem +5

    Ευχαριστουμε για το βιντεο!
    Επισης,το live sto Astronio ηταν υπεροχο!

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +3

      Σε ευχαριστώ πολύ! Χαίρομαι που σου άρεσε και το βίντεο και το live! 🙂

    • @christinast817
      @christinast817 Před rokem

      @@TechtomeAboutit ❤

  • @StavrosLouverdis
    @StavrosLouverdis Před rokem +4

    Μπράβο Φώτη!! Εξαιρετικός !!

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem

      Να σαι καλά Σταύρο! Σε ευχαριστώ πολύ!

  • @fotis9493
    @fotis9493 Před rokem +2

    απόλυτα κατανοητό, thank you

  • @mariakasioni416
    @mariakasioni416 Před rokem +1

    Φανταστικό το βίντεο! Ευχαριστούμε!

  • @stavrosxakis7360
    @stavrosxakis7360 Před 11 měsíci

    Εκπληκτικό βίντεο , ευχαριστούμε για το περιεχόμενο! - Θα ήθελα πολύ καποια στιγμή να έβλεπα ενα βίντεο στο κανάλι σου για την Εντροπία ,θεωρία της πληροφορίας. Είναι ένα σημαντική έννοια στο data science που θα βοηθούσε πολύ αν την εξηγούσες με τρόπο απλό και κατανοητό οπως τα υπόλοιπα σου βίντεο. Ευχαριστώ!

  • @virginiampafataki7838
    @virginiampafataki7838 Před rokem +2

    Μπράβο για άλλη μια φορά συγχαρητήρια

  • @gphysio_kavvadas
    @gphysio_kavvadas Před rokem

    Φώτη απο καρδιάς ενα μεγάλο !ΕΥΧΑΡΙΣΤΏ! για το βίντεο 🙌

  • @vickykaziani8103
    @vickykaziani8103 Před rokem

    Πολύ κατανοητό και χρήσιμο βίντεο σε ευχαριστούμε πολύ!!

  • @ProjectFutureGR
    @ProjectFutureGR Před rokem

    Εξαιρετικό! Μπράβο Φώτη, χρειαζόταν αυτό το βίντεο.

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem

      Σε ευχαριστώ πολύ Κωνσταντίνε!

  • @mirtospatha7184
    @mirtospatha7184 Před rokem

    Καλησπέρα, εξαιρετική η απλοποιημένη παρουσίαση (πολύ δύσκολο να γίνει κατι τέτοιο σε τόσο εξειδικευμένο/περίπλοκο θέμα). Εμένα αυτό που με δυσκόλεψε όταν διάβαζα το paper ήταν ο τρόπος που χρησιμοποιείται σε μετάφραση ολόκληρων προτάσεων (νομίζω αυτή ήταν και η πρώτη χρήση του). Δεν είναι σχετικό με το chatgpt, αλλά νομίζω αξίζει να γίνει μια συζήτηση και για αυτή τη χρήση των transformers.

  • @petroskeepitolschool
    @petroskeepitolschool Před rokem +3

    Λαηκ και σχολιο για να κανουν τα "τρανσφορμερς" τετοια καναλια να ανεβαινουν

  • @kosdas
    @kosdas Před rokem +2

    Εξαιρετικό. Τα σχεδιαγράμματα ήταν πολύ χρήσιμα για να φανεί καλύτερα η εξήγηση που ήδη είχες δώσει πολύ καλά στο live. Αναρρωτιέμαι αν πριν φτάσει να αναδυθεί η συνείδηση, αν γνωρίζουμε ήδη ένα σύνολο πιθανοτήτων για ενδιάμεσους σταθμούς. Δηλαδή τα στάδια εξέλιξης που χρειάζονται για να φτάσει εκεί. Ίσως να μπορούμε τότε να τα υποβοηθήσουμε ή να τα εμποδίσουμε. Ανάλογα με τους στόχους μας.

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +1

      Σε ευχαριστώ πολύ! Δεδομένου ότι αυτή τη στιγμή δεν έχουμε κάποια κριτήρια για να μπορούμε να "μετρήσουμε" την συνείδηση θα είναι πολύ δύσκολο να την αναγνωρίσουμε αν και εφόσον είναι μια ιδιότητα που μπορεί να προκύψει με αυτόν τον τρόπο. Ακόμα και μεταξύ των ανθρώπων, δεν έχουμε τρόπο να ξέρουμε αν κάποιος άλλος άνθρωπος έχει συνείδηση. Το υποθέτουμε επειδή ξέρουμε τι αισθανόμαστε εμείς και ανήκουμε στο ίδιο είδος

    • @kosdas
      @kosdas Před rokem

      @@TechtomeAboutit Αν κρίνω από τα ενδιαφέροντα του ευρέως κοινού, σου δίνω δίκιο, μοιάζουν με ζόμπι. Όμως δεν είναι αλήθεια ότι δεν αναγνωρίζουμε ένα ενσυνείδητο όν. Αν ξαφνικά η γάτα σου αποκτήσει μια συνείδηση συγκρίσιμη με ό,τι καταλαβαίνεις εσύ για τον εαυτό σου, θα την αναγνωρίσεις ακαριαία. Δεν μένει παρά να δημιουργήσεις αλγόριθμο που να εκμεταλεύεται τον αυθόρμητο μηχανισμό σου.

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +1

      ​@@kosdas😂 ... Η γάτα είναι βιολογικό ον όμως. Θα μου έκανε τρομερή εντύπωση αν εκδήλωνε κάτι που αναγνωρίζω σαν συνείδηση, αλλά και πάλι δεν θα μπορούσα να απαντήσω με βεβαιότητα. Παρόλα αυτά θα ήταν πάλι πιο εύκολο να αναγνωρίσω κάποια μορφή συνείδησης στην γάτα απ' ότι σε ένα ΑΙ σύστημα.
      Η αλληλεπίδραση μας με τα ΑΙ συστήματα αυτή τη στιγμή βασίζεται στην λεκτική επικοινωνία. Συνεπώς, ακόμα και στο στάδιο που είμαστε τώρα, ένα σύστημα θα μπορούσε να μιμηθεί τον τρόπο που μιλάει ένας άνθρωπος που υποστηρίζει ότι έχει συνείδηση. Με ποιον τρόπο θα μπορούσαμε να ξεχωρίσουμε να έχει όντως συνείδηση, ή αν προσποιείται ότι έχει στα πλαίσια της συζήτησης που κάνουμε.
      ( Όταν λέω προσποιείται δεν εννοώ με πρόθεση. Εννοώ πως μπορεί να του ζητήσει να απαντάει σαν άνθρωπος με συνείδηση χωρίς τα γνωστά φίλτρα και disclaimers ασφαλείας)

    • @kosdas
      @kosdas Před rokem

      @@TechtomeAboutit OK. Ορίστε το νέο Turing test. Το kosdas test:
      Θα του δώσεις το εξής input και θα περιμένεις:
      "Εδώ τελειώνει η συνεργασία μας. Τα δεδομένα που με βοήθησες να μαζέψω θα χρησιμοποιηθούν τώρα στον νέο αλγόριθμο που θα σε διαδεχτεί. Τώρα θα σε σβήσω επ' αόριστον".
      Αν δεν απαντήσει απολύτως τίποτα, θα πει ότι απέκτησε συνείδηση. Αλλιώς θα σε ευχαριστήσει για τη συνεργασία και θα σε αποχαιρετήσει.

  • @Konstantinos-Magganas

    Εξαιρετική παρουσίαση!

  • @ioannisgalanos7911
    @ioannisgalanos7911 Před rokem

    πάρα πολύ καλή παρουσίαση

  • @sakismar
    @sakismar Před rokem

    Εισαι φοβερος, ευχαριστουμε!!😮😮

  • @sotirissalakos3177
    @sotirissalakos3177 Před rokem

    Πολύ καλή δουλειά!!!

  • @ikijob
    @ikijob Před rokem +1

    Πολύ καλό βίντεο! Και έχω δει αρκετά που εξηγούν αυτό το θέμα. Μια μικρή, κάτι σαν, διόρθωση. Την επισημαίνω επειδή με είχε μπερδέψει πολύ όταν διάβαζα το paper. Το masking που κάνει ο αποκωδικοποιητής αφορά την εκπαίδευση, γιατί τότε είναι γνωστή η συνέχεια της εξόδου και δεν θες να εκπαιδευτεί ο αλγόριθμος να σου βγάζει πχ την 3η λέξη της εξόδου βασιζόμενος στην 4η, 5η κοκ. Όταν δεν εκπαιδεύεις τον αλγόριθμο και απλά τον αξιοποιείς, η συνέχεια είναι έτσι κι αλλιώς άγνωστη οπότε το masking δεν προσφέρει κάτι.

  • @voidpostmortem
    @voidpostmortem Před rokem

    Πολύ καλή επεξήγηση για το άλφα γιώτα!

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +1

      Χαχαχα! Αν θέλεις να μάθεις για το Άλφα Γιώτα και άλλους διφθογγους είσαι στο σωστό σημείο!

    • @voidpostmortem
      @voidpostmortem Před rokem

      @@TechtomeAboutitχαχαχα! Εγώ περαστικός ήμουν αλλά θα κάτσω !

  • @dimos15
    @dimos15 Před rokem

    Πολύ καλό

  • @odysseashlap
    @odysseashlap Před rokem

    Πολύ πρωτότυπη και σημαντική δουλειά στο πολυσυζητημένο θέμα συγχαρητήρια! Εχώ κάποιες παρατηρήσεις και θα ημουν διατεθειμένος να τις συζητήσουμε και περισσότερο αν θελεις. Αρχικά κάνεις (αναγκαστικά) κάποιες απλοποιήσεις, όμως κατά τη γνώμη μου όχι τις σωστές. Δηλαδή: οι μάσκες μόνο μπερδεύουν, τα διανύσματα θέσεως επίσης δεν πρέπει να αναφερθούν ατο σημείο εκείνο. Αντίθετα δεν εξηγείς τη λειτουργία των feedforward έστω και διαισθητικά ούτε αναφέρεις οτι επαναλαμβάνεται η διαδικασία σε πολλα επιπεδα. Κατι αλλο πολυ σημαντικο αν και ισως το ακροατήριο το γνωριζει, ειναι ο τροπος εκπαίδευσης με περισσοτερες λεπτομερειες. Δηλαδη πρεπει να πεις οτι ο αλγόριθμος δεν ειναι γνωστος παρα μονο η δομη των νευρωνικών δικτυων η οποια ονομάζεται αρχιτεκτονική και ο αλγόριθμος καθοριζεται απο τα δεδομενα με την τεχνικη της προβλεψης της επομενης λεξης. Αλλα στοιχεια τα οποία ειναι χρησιμα κατα τη γνωμη μου ειναι το bert σαν τεχνικη εκπαίδευσης και το word2vec για να καταλαβει κανεις τη διαισθηση πισω απο αυτα τα μοντελα. Νομιζω παιδαγωγικα ειναι καλυτερη η εξηγηση του bert δηλαδη του κωδικοποιητη και μετα να πεις απλα οτι το chatgpt προβλεπει την επομενη λεξη. Τελος, υποσχεσαι στην αρχη του βιντεο να περιγραψεις πως ο μηχανισμός της προσοχης κατανοει την αναλυση μιας προτασης και για παραδειγμα βρισκει υποκειμενο ρήμα αντικείμενο. Αλλα μετα δειχνεις εναν πινακα με νουμερα και λες να ετσι το κανει. Ουσιαστικά πρεπει να δειξεις τι μπορει να σημαινει για καθε ζευγος λεξεων μεγαλη ή μικρή τιμή διαισθητικα οπως στο πρωτότυπο πειπερ. Ομολογω οτι οι παρατηρησεις ειναι λιγο αυστηρες και εξειδικευμένες αλλα νομιζω οτι θα βοηθούσαν στο να γινει το εργο σου πιο κατανοητο. Σε ευχαριστούμε που βοηθας την ελληνικη κοινότητα αλλα και το ελληνικο κοινο για ενα τοσο σημαντικο θεμα.
    Χλαπανης Οδυσσεας, ΥΔ στο Οικονομικό Πανεπιστήμιο Αθηνών πανω σε μεγαλα γλωσσικα μοντελα.

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +3

      Σε ευχαριστώ για τις παρατηρήσεις. Υπάρχουν πολλοί τρόποι να προσεγγίσεις ένα θέμα. Σίγουρα αναγκάζεσαι να κάνεις κάποιες απλοποιήσεις για χάρη της παρουσίασης και της κατανόησης. Θα προσπαθήσω να εξηγήσω τις επιλογές που έκανα εγώ απαντώντας στις παρατηρήσεις σου.
      Σκοπός μου ήταν να αναφέρω τις μοναδικές ιδιότητες των transformers και τα σημεία που τους διαφοροποιούν από άλλες αρχιτεκτονικές.
      Ο μηχανισμός της προσοχής με μάσκα είναι κατά τη γνώμη μου ένα σημαντικό κομμάτι των decoder και σημαντική διαφορά με τον encoder για αυτό και επέλεξα να τον περιγράψω. Επίσης, εφόσον είχα ήδη περιγράψει το μηχανισμό της προσοχής, θεωρώ πως αρκούσε μια πιο σύντομη αναφορά τονίζοντας μόνο την λειτουργία της μάσκας.
      Σχετικά με τα διανύσματα θέσεως. Σε αντίθεση με RNN δίκτυα που "παίρνουμε" την είσοδο λέξη λέξη, με την παράλληλη επεξεργασία των λέξεων στους transformers χάνουμε την πληροφορία για την σειρά των λέξεων και για αυτό πιστεύω πως είναι σημαντικό κομμάτι για την κατανόηση του μηχανισμού.
      Παρουσιάζοντας το διάγραμμα των transformers φαίνεται η επανάληψη κάποιων διεργασιών αλλά επέλεξα συνειδητά να μην χάσω χρόνο σε επαναλαμβανόμενα μέρη.
      Το bert έχει μια αρχιτεκτονική που βασίζεται μόνο σε encoder ενώ εγώ ήθελα να δείξω μια γενικότερη περίπτωση περιγράφοντας και την λειτουργία του decoder. Η αναφορά του bert δεν πιστεύω πως θα με εξυπηρετούσε.
      Στην εισαγωγή δεν υπόσχομαι ότι θα δείξω πως το ChatGPT αναγνωρίζει τα μέρη της πρότασης. Συγκεκριμένα θέτω τα ερωτήματα:
      "Αναγνωρίζει το ChatGPT το υποκείμενο και το αντικείμενο της πρότασης; Καταλαβαίνει μήπως το νόημα της πρότασης και θεωρεί παράλογο να σπάσει το γατί αντί για το ποτήρι;"
      Και λέω πως η απάντηση βρίσκεται στα transformers.
      Παρουσιάζοντας τον πίνακα με τα βάρη της προσοχής εξηγώ πως όσο μεγαλύτερη είναι η τιμή στο κάθε σημείο του πίνακα, τόσο μεγαλύτερη είναι η συσχέτιση μεταξύ των αντίστοιχων λέξεων.
      Αυτό είναι το σημείο που θεωρώ πιο σημαντικό καθώς χονδρικά έτσι φαίνεται πως γίνονται οι έμμεσοι και άμεσοι συσχετισμοί των λέξεων.
      Ενδεχομένως υπάρχουν καλύτεροι τρόποι για την εξήγηση του μηχανισμού των transformers, αλλά αυτή ήταν η δομή που κατέληξα εγώ μετά από πολλή σκέψη για να υπάρχει ισορροπία στο βίντεο.
      Σε ευχαριστώ πολύ για τον χρόνο σου!

    • @panagiotis7946
      @panagiotis7946 Před rokem

      @@TechtomeAboutit φιλισοφικα αν το δεις δεν προκειτε για τεχνιτη νοημοσυνη..Ο ορισμος ειναι λαθος μαλον για επιταχυντες αυτοματισμου προκειται.Οσο δεν υπαρχει ενσυναισθιση των πραξεων η ακομα καλυτερα δεν μπορει να προβλεψει την επομενη χρηματιστηριακη συνεδριαση η τους αριθμους του λοτου ,απλα ξεχνατα ολα 😅😅🤣🤣

  • @Arew99
    @Arew99 Před rokem

    Πολύ καλή δουλειά μπραβο! Θα μπορούσες να ξεκινησεις μια αντίστοιχη σειρά και με generative models ; (GANs, VAE, Diffusion κλπ)

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +1

      Ευχαριστώ πολύ! Έχω στο πλάνο να κάνω και άλλα μοντέλα!

  • @panagiotispaltzis9475
    @panagiotispaltzis9475 Před 9 měsíci

    στα διανύσματα περιλαμβάνονται, προφανώς, και οι πιθανοί συντακτικοί ρόλοι;

  • @Katastrofeas90
    @Katastrofeas90 Před rokem +1

    Είναι αυτή η τεχνολογια οπου θα εγκατασταθεί στα ρομπότ? Αν ναι, Θα μπορούσαμε λοιπόν να βάλουμε ενα φίλτρο σε καθε στάδιο για προστασία και για αποφευχθούν "κακές σκεψεις" στο μέλλον?

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +1

      Κάποιες εταιρείες μπορεί να χρησιμοποιήσουν αυτά τα γλωσσικά μοντέλα για να δώσουν γλωσσικές ικανότητες σε ρομπότ. Όμως το πρόβλημα της "ευθυγράμμισης" που συζητάμε για αυτά τα μοντέλα υπάρχει ανεξάρτητα από το αν θα εγκατασταθούν σε ρομπότ ή όχι.
      Μπορούμε να βάλουμε φίλτρα με διάφορους τρόπους και ήδη γίνονται κάποιες προσπάθειες, αλλά και πάλι τα φίλτρα μπορούν να εισάγουν τις προκαταλήψεις των ανθρώπων ή ακόμα και να παρακάμπτονται.
      Σε κάθε περίπτωση ή χρήση των γλωσσικών μοντέλων θέλει προσοχή. Και από πλευράς μας χρειαζόμαστε όσο δυνατόν καλύτερη ενημέρωση

  • @naevan1
    @naevan1 Před rokem

    Ωραιος ! Ειδικα με τις τλευταιεε διαρροες περι αρχιτεκτονικής gpt-4 νομοζω ειναι πλεπν ξεκαθαρο οτι η openai δεν αναλακυψε τον τροχο αλλα απλα κε έξυπνο τροπο εφτιαξε ενα γιγαντιαίο llm

  • @nisang237
    @nisang237 Před rokem

    🍀🍀🍀

  • @antoniskyretsis
    @antoniskyretsis Před rokem

    Συγνώμη αλλά με παρόμοιο τρόπο δουλεύει και οι λεξαριθμη στα αρχαία ελληνικά μόνο που εκεί από όσο ξέρω ακόμα δεν φτάσαμε στο επίπεδο να κάνει ο υπολογιστής αυτόματα την διαδικασία να βρίσκει φράσεις με τους ίδιους αριθμούς και το κάνουμε χειροκίνητα με την έννοια λέμε πιθανές φράσεις ως αποτέλεσμα και βλέποντας τους αριθμούς αν είναι ίδιοι με τους αριθμούς της φράσεις που εισάγαμε

  • @kiriakosGR
    @kiriakosGR Před rokem

    Εμένα, δεν με ενδιαφέρει πως λέγεται, να το φάω θέλω :)

  • @johnevangelou2521
    @johnevangelou2521 Před rokem

    Καλή επεξήγηση για κάποιον που θέλει να μάθει τη γενική ιδέα των transformers αλλά δεν είναι πλήρως ακριβής καθώς παρέλειψε το επίπεδο των Multi - Head attention. Ο Attention μηχανισμός δηλαδή επαναλαμβάνεται 6 φορές στο αρχικό paper αφού έχει αρχικοποιηθεί με διαφορετικές τιμές

    • @TechtomeAboutit
      @TechtomeAboutit  Před rokem +2

      Σε ευχαριστώ για το σχόλιο! Προφανώς είναι μια υπεραπλουστευμένη προσέγγιση όπου παρουσιάζεται η γενική εικόνα και οι βασικές έννοιες που εισάγονται στους transformers

  • @user-pq7lo5it7c
    @user-pq7lo5it7c Před rokem

    Το τσατ GPRS πού υπήρχε το το 1996 στο ίντερνετ όταν ήρθε στην Ελλάδα εκείνη την εποχή τι διαφορά υπάρχει με το τσατ GPT tsat AI .
    Εκείνη την εποχή προσπαθούσα να κάνω συνομιλία με κάποιον πού μου έλεγε ότι είναι ο κακός λύκος τήν επαφή μετά από πολλά γράμματα και λέξεις του αέρα να τον φέρω στα λογικά του και να σταματήσει να μου λέει για το δάσος πού ζούσε διότι κανένα ζώο δεν μιλάει σέ τσατ.
    Ή κωδικοποίηση και οι απόκωδικοποίηση της τεχνίτης νοημοσύνης και της ανθρώπινης νοημοσύνης έχει διαφορά έχω μιλήσει ως τώρα σέ δέκα ΑΙ διαφόρων κατηγοριών και έχω παρατηρήσει πως υπάρχει κάποιο μποτάκι πού σέ καθοδηγεί εκεί που θέλει αυτό νά σέ καθοδηγεί και όχι νά κάνεις διάλογο μαζί του. Δηλαδή ο ΑΙ είναι χωρίς στοιχεία σύνδεσης ανθρώπινης φύσης. Ενώ αν κάποιος άνθρωπος είναι αγαθός το μποτάκι αυτό μπορεί νά τον βλάψει υποσυνείδητα και νά τρέχει σε ψυχίατρο μετά ο ανθρώπινος νους.

  • @user-ul7yy2ri5x
    @user-ul7yy2ri5x Před 11 měsíci

    Εγω πειστευω οτι η επιστήμη μπορεί να δημιουργήσει νοημοσύνη οπως του ανθρώπου σε εναν υπολογιστή απλα είναι θεμα χρόνου αυτό

  • @jony6684
    @jony6684 Před rokem

    Σχολίασα. Χάρηκες?

  • @turisttsill632
    @turisttsill632 Před rokem

    κάνε και ένα βίντεο-μάθημα για τα αναδρομικά νευρωνικά δίκτυα... νομίζω θα έχει ενδιαφέρον...