我拿到了GPT 4O的首发评测!效果炸裂!猜测GPT 4O可能用了什么技术!

Sdílet
Vložit
  • čas přidán 12. 05. 2024
  • 欢迎来到我的频道,在这里我会讲解机器学习、深度学习最经典或者最前沿的模型,同时我还会讲在美国如何生活,如何找工作,如何刷LeetCode,如何快速融入社会。喜欢记得订阅、点赞哦!如果你有什么想要听的,在下面留言吧!
    目前的讲解清单:
    线性回归 (LR)、逻辑回归 (LogR)、多项式回归 (PR)、Lasso 回归、Ridge 回归、弹性网络 (Elastic Net)、决策树 (DT)、随机森林 (RF)、梯度提升树 (GBT)、XGBoost、LightGBM、CatBoost、支持向量机 (SVM)、朴素贝叶斯 (NB)、K 最近邻 (KNN)、主成分分析 (PCA)、独立成分分析 (ICA)、线性判别分析 (LDA)、t-分布邻近嵌入 (t-SNE)、高斯混合模型 (GMM)、聚类分析 (CA)、K 均值聚类 (K-means)、DBSCAN、HDBSCAN、层次聚类 (HC)、GAN (生成对抗网络)、CGAN、DCGAN、WGAN (Wasserstein GAN)、StyleGAN、CycleGAN、VAE (变分自编码器)、GPT (生成式预训练模型)、BERT、Transformer、LSTM (长短期记忆网络)、GRU (门控循环单元)、RNN (循环神经网络)、CNN (卷积神经网络)、AlexNet、VGG、GoogLeNet、ResNet、MobileNet、EfficientNet、Inception、DeepDream、深度信念网络 (DBN)、自动编码器 (AE)、强化学习 (RL)、Q-learning、SARSA、DDPG、A3C、SAC、时序差分学习 (TD)、Actor-Critic、对抗训练 (Adversarial Training)、梯度下降 (GD)、随机梯度下降 (SGD)、批量梯度下降 (BGD)、Adam、RMSprop、AdaGrad、AdaDelta、Nadam、交叉熵损失函数 (Cross-Entropy Loss)、均方误差损失函数 (Mean Squared Error Loss)、KL 散度损失函数 (KL Divergence Loss)、Hinge 损失函数、感知器 (Perceptron)、RBF 神经网络、Hopfield 网络、Boltzmann 机、深度强化学习 (DRL)、自监督学习 (Self-supervised Learning)、迁移学习 (Transfer Learning)、泛化对抗网络 (GAN)、对抗生成网络 (GAN)、训练生成网络 (TGAN)、CycleGAN、深度学习生成模型 (DLGM)、自动编码器生成对抗网络 (AEGAN)、分布式自编码器 (DAE)、网络激活优化器 (NAO)、自编码器 (Autoencoder)、VQ-VAE、LSTM-VAE、卷积自编码器 (CAE)、GAN 自编码器 (GANAE)、U-Net、深度 Q 网络 (DQN)、双重 DQN (DDQN)、优先回放 DQN (Prioritized Experience Replay DQN)、多智能体 DQN (Multi-agent DQN)、深度确定性策略梯度 (DDPG)、感知器 (Perceptron)、稀疏自编码器 (SAE)、稀疏表示分类 (SRC)、深度置信网络 (DBN)、支持向量机 (SVM)、集成学习 (Ensemble Learning)、随机森林 (Random Forest)、极限梯度提升树 (XGBoost)、AdaBoost、梯度提升机 (Gradient Boosting Machine)、Stacking、贝叶斯优化器 (Bayesian Optimization)、贝叶斯网络 (Bayesian Network)、EM 算法 (Expectation-Maximization Algorithm)、高斯过程 (Gaussian Process)、马尔科夫链蒙特卡洛 (MCMC)、强化学习 (Reinforcement Learning)、无监督学习 (Unsupervised Learning)、半监督学习 (Semi-supervised Learning)、监督学习 (Supervised Learning)、迁移学习 (Transfer Learning)、维数约简 (Dimensionality Reduction)、特征选择 (Feature Selection)、特征提取 (Feature Extraction)、正则化 (Regularization)、标准化 (Normalization)、聚类 (Clustering)、分类 (Classification)、回归 (Regression)、降维 (Dimensionality Reduction)、特征映射 (Feature Mapping)、神经网络 (Neural Network)、神经元 (Neuron)、激活函数 (Activation Function)、损失函数 (Loss Function)、优化器 (Optimizer)、学习率 (Learning Rate)、批次大小 (Batch Size)、迭代次数 (Epoch)、超参数 (Hyperparameter)、模型评估 (Model Evaluation)、交叉验证 (Cross Validation)、混淆矩阵 (Confusion Matrix)、ROC 曲线 (ROC Curve)、AUC 值 (AUC Value)、精确度 (Precision)、召回率 (Recall)、F1 分数 (F1 Score)、模型解释 (Model Interpretability)、特征重要性 (Feature Importance)、局部解释 (Local Explanation)、全局解释 (Global Explanation)、机器学习管道 (Machine Learning Pipeline)、一键生成模型 (AutoML)、超参数优化 (Hyperparameter Tuning)、FFT、拉普拉斯变换、z变换、傅里叶变换、短时傅里叶变换 (STFT)、IIR、FIR、卡尔曼滤波、DIP算法、小波变换
  • Věda a technologie

Komentáře • 59

  • @EgD996
    @EgD996 Před 25 dny +3

    O for Optimized,来自chatgpt 自己的解释

    • @phdvlog2024
      @phdvlog2024  Před 25 dny +3

      GPT-4o (“o” for “omni”) 这是现在官网的结果,可能改了

    • @phdvlog2024
      @phdvlog2024  Před 25 dny +2

      GPT-4o (“o” for “omni”) is a step towards much more natural human-computer interaction-it accepts as input any combination of text, audio, and image and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time(opens in a new window) in a conversation. It matches GPT-4 Turbo performance on text in English and code, with significant improvement on text in non-English languages, while also being much faster and 50% cheaper in the API. GPT-4o is especially better at vision and audio understanding compared to existing models.
      GPT-4o(“o”代表“omni”)是迈向更自然的人机交互的一步--它接受文本、音频和图像的任意组合作为输入,并生成文本、音频和图像的任意组合输出。 它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,这与人类在对话中的响应时间(opens in a new window)相似。 它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。 与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。

    • @user-bl1rg6me7g
      @user-bl1rg6me7g Před 25 dny

      @@phdvlog2024 我最開始看就是omni

    • @cicerochen313
      @cicerochen313 Před 25 dny

      目前官網的解釋:“o” for “omni”

    • @mintisan
      @mintisan Před 25 dny

      omni all

  • @susanliu1024
    @susanliu1024 Před 25 dny +2

    up主好高产😍

  • @jiali6762
    @jiali6762 Před 25 dny +1

    非常感谢大哥做这个频道 早年CS本国内创业 希望大哥能继续更新下去 已经加QQ群 希望将来能成为朋友

  • @aquathewise7838
    @aquathewise7838 Před 25 dny +2

    确实炸裂了,我也变得更焦虑了。。。话说op你时要找sde的工作? ai时代sde还有前途吗?

    • @user-mg3ey1uq8f
      @user-mg3ey1uq8f Před 25 dny

      up主好像有一篇講這回事. 講ai取代工作.

    • @phdvlog2024
      @phdvlog2024  Před 25 dny +1

      不是,现在基本上大厂面试还会问点算法,确定你的能力,所以SDE你得会

  • @user-mv9ul9tz1c
    @user-mv9ul9tz1c Před 25 dny

    現在assistant也可以選擇用GPT 4Omodel了 不過這個目前可以在手機上用嗎

  • @olifly74
    @olifly74 Před 25 dny +1

    Ph.D 您这实时字幕是如何生成的?

  • @menkiguo7805
    @menkiguo7805 Před 25 dny

    和视频无关但是我一直有个问题,做消融实验时候要对每一个模型调学习率和学习率衰减吗?不调的话感觉不公平,因为每个模型需要的学习率不一样,调的话一是工作量很大二是即使调了也不一定公平,你又不能证明你调出的是最优解。我看别人也有类似的问题。

    • @phdvlog2024
      @phdvlog2024  Před 25 dny

      你调了 别人也不好质疑 不是吗 就算不同模型默认学习率不同 resnet是1e-4 moco是30 但让reviewer无话可说不是很重要?

  • @geliangzhu9146
    @geliangzhu9146 Před 25 dny +3

    早上起床就用上了4o。gpt3.5的速度,gpt4的质量,确实牛。

  • @dinlon5566
    @dinlon5566 Před 25 dny

    4o出來之後考慮取消付費了,平常也就用4看論文。
    除非更新什麼特別好用的功能,否則付費好像沒有多什麼 :(

  • @terrencesun1368
    @terrencesun1368 Před 24 dny

    刚出chatgpt3.5的时候我用了,感觉不那么焦虑,觉得可能要实现真正想象中人工智能还是需要10几年,但是看了gpt-4o后,我焦虑了,不想工作了,感觉学习啥都被淘汰。。

  • @ashzhu3085
    @ashzhu3085 Před 25 dny +2

    内容不错,建议说话慢一点,语言精简一些,不要吞字。在音质不够的情况下,听着有些费劲

  • @chenyuli9847
    @chenyuli9847 Před 25 dny

    Video 可以测了吗

  • @blooered
    @blooered Před 25 dny

    2860日元一个月约132块开plus版。无限对话。普通的各种限制

  • @qingpingguo85
    @qingpingguo85 Před 25 dny

    我的怎么没有呢

  • @paulzhu7694
    @paulzhu7694 Před 25 dny +1

    还是有点失望的,gpt4能力已经比opus落后的,速度也慢了,gpt5不出来,感觉没啥意义,日常应用中gpt4o的速度其实也不太够感觉比opus快一点点……总体来说就是没啥用。免费也只是chat免费,api1/2价格,还是用不起,目前gpt最大用途是api接口调用,目前基本只用得起3.5

    • @phdvlog2024
      @phdvlog2024  Před 25 dny +1

      gpt4等着他输出太痛苦了,现在这样好了很多,尤其是问问题的时候,太慢了

    • @EgD996
      @EgD996 Před 25 dny

      一半是兴奋,一半是失望,模型本身的理解能力似乎没有太大增强,只好去卷性能和交互。提高性能可以理解,交互更应该留给生态去做

    • @menkiguo7805
      @menkiguo7805 Před 25 dny

      api怎么会用不起?我做了个游戏用api一个月自己玩才不到一美元

    • @paulzhu7694
      @paulzhu7694 Před 25 dny

      @@phdvlog2024 我3月换claude3 opus了,本来速度就比gpt4快不少,没有速度焦虑。gpt5现在感觉难产了,gpt4已经出一年了,还没办法迭代,AI发展速度,比预期的慢很多啊

    • @phdvlog2024
      @phdvlog2024  Před 25 dny

      训练这些大模型套难了可能 调参什么的不好弄

  • @blooered
    @blooered Před 25 dny

    免费用的不是gpt3.5么

    • @phdvlog2024
      @phdvlog2024  Před 25 dny

      这个4o好像有要免费的计划,我在一些报道里看到的,不知道真假

    • @drayg0n806
      @drayg0n806 Před 25 dny

      @@phdvlog2024 我是免費版的使用者,我今天也拿到4o的使用權了

    • @menkiguo7805
      @menkiguo7805 Před 25 dny

      @@phdvlog2024 官方说是真的

  • @AGI.Trainer
    @AGI.Trainer Před 24 dny

    免费的每段时间只能聊10条

    • @phdvlog2024
      @phdvlog2024  Před 24 dny

      好吧,那我还是继续付费吧。学校不管报销,这个就很烦了。

  • @aaa59070046
    @aaa59070046 Před 25 dny +1

  • @fantaxifantaxi
    @fantaxifantaxi Před 25 dny

    两个gpt唱歌对唱的视频都出来了,不用怀疑了

    • @phdvlog2024
      @phdvlog2024  Před 25 dny

      😂

    • @fantaxifantaxi
      @fantaxifantaxi Před 25 dny

      我感觉openai的一切发展都是有预谋的,现在直接要干掉suno,很快就会用sora干掉mj和pika,三年内一统江湖

    • @fantaxifantaxi
      @fantaxifantaxi Před 25 dny

      而且还能生成伴唱,可以根据提示改变语速音调...suno udio都做不到

  • @libescavasa
    @libescavasa Před 25 dny

    我只有3.5没有4o

    • @phdvlog2024
      @phdvlog2024  Před 25 dny

      那看来免费计划还需要一些时间

  • @user-rf9oj9hr9w
    @user-rf9oj9hr9w Před 25 dny

    快歸快但有限制次數對吧 那還是很爛

    • @phdvlog2024
      @phdvlog2024  Před 25 dny

      一般情况达不到那个限制

    • @wangliangxu
      @wangliangxu Před 24 dny

      @@phdvlog2024 好像有限制,昨天使用时一段时间就提示了自动切回gpt3.5