Open AI发布两个GPT-3模型:神经网络CLIP和文本生成图像DALL·E
钛媒体1月6日消息,Open AI发布新闻稿,引入两个新的GPT-3模型:CLIP(可将图像从任意文本分类到类别中)和DALL·E(可从文本生成图像)。
其中,CLIP神经网络可以从自然语言监督中有效学习视觉概念。只需提供要识别的视觉类别的名称即可使用CLIP(对比语言 - 图像预训练),将其应用于任何视觉分类基准,类似于GPT-2和3的「零镜头」功能。
“我们生活在视觉世界中,” OpenAI首席科学家Ilya Sutskever说。从长远来看,您将拥有同时理解文本和图像的模型。人工智能将能够更好地理解语言,因为它可以看到单词和句子的含义。”
OpenAI扩展的GPT-3两个新模型,结合了NLP和图像识别,使其人工智能更好地理解日常概念。
本文内容仅供参考,不构成投资建议,请谨慎对待。
根据《网络安全法》实名制要求,请绑定手机号后发表评论