Główny naukowiec openAI tworzy firmę, której jedynym celem jest Superinteligencja (bezpieczna)!
Vložit
- čas přidán 5. 09. 2024
- Ilya Sutskever, znany i ceniony badacz AI, współzałożyciel OpenAI i były (do 15 maja) szef naukowców w tej firmie, ogłosił utworzenie nowej firmy o nazwie Safe Superintelligence Inc (SSI).
Główne punkty jego nowej firmy to:
Celem SSI jest stworzenie bezpiecznej superinteligencji (ASI - Artificial Superintelligence), co firma uważa za najważniejszy problem techniczny naszych czasów.
SSI skupia się wyłącznie na rozwoju ASI, bez żadnych pośrednich produktów czy celów komercyjnych.
Firma ma biura w Palo Alto i Tel Awiwie, z zamiarem rekrutacji najlepszych inżynierów i badaczy.
Współzałożycielami są Ilya Sutskever, Daniel Gross (inwestor i były lider AI w Apple) oraz Daniel Levy (były pracownik OpenAI).
SSI planuje rozwijać możliwości AI tak szybko, jak to możliwe, jednocześnie dbając o to, by bezpieczeństwo zawsze wyprzedzało rozwój.
Firma nie ujawnia szczegółów finansowania ani konkretnych inwestorów.
Sutskever twierdzi, że superinteligencja jest w zasięgu, mimo że niektórzy eksperci uważają, że postęp AI zwalnia.
SSI podkreśla potrzebę wbudowania bezpieczeństwa w system AI poprzez przełomy inżynieryjne, a nie tylko zewnętrzne zabezpieczenia.
Firma ma ambitne cele, ale niektórzy mogą być sceptyczni co do możliwości stworzenia ASI przez mały zespół w krótkim czasie.
Więcej o firmie: ssi.inc/
Polecane wystąpienie na TED: • The Exciting, Perilous...
#AI #superinteligencja #AGI #sutskever #openai
Bogowie
Człowiek otrzymał te IQ rzędu temperatury pokojowej i ma się odnaleźć wśród, takich ludzi bohater filmu, a było trzeba zostać piłkarzem
Niesamowity 👽
🤳
🦸
Inwestorzy to pewnie "żymianie" 😊
Bezpieczna, czyli ocenzurowana :)