Eji
@ejiwarp
Wed, Sep 14, 2022 10:33 AM
Sat, Sep 17, 2022 2:24 AM
2
Learning Transferable Visual Models From Natural Lan...
GitHub - openai/CLIP: Contrastive Language-Image Pre...
CLIP: Connecting Text and Images
AI趨勢周報第154期:OpenAI零樣本學習新作CLIP,不靠128萬樣本就完勝ResNet50
回頭看CLIP
Eji
@ejiwarp
Wed, Sep 14, 2022 10:33 AM
Wed, Sep 14, 2022 10:42 AM
CLIP : Contrastive Language-Image Pre-Training
如何评价OpenAI最新的工作CLIP:连接文本和图像,zero shot效果堪比ResNet50? -...
Eji
@ejiwarp
Wed, Sep 14, 2022 10:37 AM
Wed, Sep 14, 2022 10:42 AM
「2022 年回头来看,几个高赞答主感觉十分低估 CLIP。不知道关注点怎么就在 zero-shot,大数据集上了。我觉得它涨了多少性能,用的方法多么朴素粗暴,这些完全不重要。我现在感觉 CLIP 是一个远超 best paper 的工作,以前看不出来说明我们水平不行。
CLIP 为 CV 研究者打开了一片非常非常广阔的天地,原因在于 CLIP 真的把自然语言级别的抽象概念带到计算机视觉里了。
当然肯定有其它类似工作,但 CLIP 跨过了奇点。CLIP 夸大了它在 zero-shot 上的贡献吗?我相信 21 年的一众 paper 刷新了大家以往对于 zero-shot 的认知。"zero shot 效果堪比 ResNet50",这话误导了太多人。」
Eji
@ejiwarp
Wed, Sep 14, 2022 10:39 AM
Wed, Sep 14, 2022 10:41 AM
Grounded Language-Image Pre-training
GitHub - microsoft/GLIP: Grounded Language-Image Pre...
Eji
@ejiwarp
Thu, Sep 15, 2022 2:01 AM
Tue, Oct 4, 2022 2:19 PM
High-Resolution Image Synthesis with Latent Diffusio...
High-Resolution Image Synthesis with Latent Diffusio...
GitHub - CompVis/latent-diffusion: High-Resolution I...
GitHub - CompVis/stable-diffusion: A latent text-to-...
Eji
@ejiwarp
Thu, Sep 15, 2022 2:21 AM
Sat, Sep 17, 2022 2:26 AM
OpenAI 的 multimodal 神經網路(上)DALL·E: 從文本創造圖片 | by catc...
OpenAI 的 multimodal 神經網路 (下) CLIP: Connecting Text a...
Eji
@ejiwarp
Sat, Sep 17, 2022 2:24 AM
BLIP: Bootstrapping Language-Image Pre-training for ...
Eji
@ejiwarp
Fri, Sep 23, 2022 12:08 PM
Large scale openCLIP: L/14, H/14 and g/14 trained on...
GitHub - mlfoundations/open_clip: An open source imp...
Models - Hugging Face
Eji
@ejiwarp
Wed, Oct 19, 2022 6:20 AM
Wed, Oct 19, 2022 6:22 AM
Compositional Visual Generation with Composable Diff...
AK on Twitter
長度拉長+Negative prompt
載入新的回覆
如何评价OpenAI最新的工作CLIP:连接文本和图像,zero shot效果堪比ResNet50? -...