Augustine Cheng

  • Following

    0

  • Followers

    44


Fame: 252
No Bio yet.

Joined Aug 2021

Comments

流感年年都有的啦,哈哈。
1 week · translate
look at megan transmile and a lot more.
1 week · translate
kau rasis lol
1 week · translate
我100%投资股灾来临时怎么办
https://youtu.be/xx7jvdDSFUk
1 week · translate
natgate一定是照nvidia的指示来卖的,哪里可能擅作主张。
1 week · translate
三小时实测Deepseek结果

//

花了三个小时来测试Deepseek,用它写大学法理学jurisprudence文章,打算如果效果好的话,用它来协助写论文。我用免费版本的Deepseek R1,ChatGPT-4o和Claude3.5 Sonnet,用它们三个写同样题目。直接给结论,Deepseek写得最好。拿Deepseek的文章去给Chatgpt和Claude评论,它们也觉得比它们自己的文章写得更好。文章和交叉评论,我都是一字一句地仔细阅读,还做了几个额外的尝试,因为我是认真要用它写论文的,我需要认真评测它的虚实。一通折腾下来,耗时6个番茄钟,也大约就是三小时。

//

Deepseek的文章写得更有深度,把课题分析得更深入,更有层次,似乎有产生新想法的能力。而其他两个模型分析得较浅,流于描述性质,读起来像是浅白的法普范文,似乎只是重组训练资料,没有给人带来新想法的感觉。Deepseek无疑是推理能力更强,做推理时细致不敷衍。因为推理能力强,它比你更了解你自己想要问些什么,不需要特别的prompt也能问出合心意的答案。到网上截取资料后,它会用自己的推理能力,把资料筛选和整合并加以论述。这点很强悍,这样就不需要初始训练资料的完整性,它可以用自己的逻辑推理,在投入运作的过程中从网络学习,做中学。而免费版的chatgpt开启联网后就很敷衍,做不到这点,付费的不清楚。从网上也看到,答错的题目,如果再问它一次,它会给你正确答案,它似乎有自行上网搜索纠正自己并存进长期记忆的能力。Deekseek也公开它的推理过程,这点是其他两个闭源大模型所缺乏的。参考它的推理过程,可以让我们人类自己学会更好地推理,也更有可能监控它的发展趋势,以免它反噬人类。另外,听说数理方面,也是Deepseek的推理能力更强,这点还没测试。

//

虽说网页免费版本没有硬性规定每日token限制,但缺点是单个聊天框的token太少,用一下子就必须开新的聊天框。这在某种程度上限制了我们个人进行大型项目的纵深,每次开新的对话框后,都需要概述一遍之前的需求和成果,才能完成一个大项目。付费能解决这难题。另外一个缺点是当机,可能是这几天突然爆红,他们的服务器负荷不来,用一下子就会当机,这点是硬伤。

//

Deepseek作为开源的模型,比其他模型来得小,推理能力又更强,这些都有利于企业或个人把它安装在自家电脑使用,专业术语叫edge AI。这么说来,data centre搭建起来的cloud AI是否还有未来?毋庸置疑,cloud AI还会是主流,显卡还是要继续卖,data centre还是要继续建,因为edge AI的功能肯定不及cloud AI,这是硬件算力所决定的,自家电脑肯定比不上data centre的超级电脑。Deepseek释出的小模型版本只可能是阉割版,能力上肯定不及大模型版本。未来,cloud AI和edge AI一定是以互补的形式存在,需要算力强的工作由cloud AI完成,需要隐私和快反应的工作edge AI代劳。

//

如果光靠AI程序更优越,体积更小,AI厂家是否就能摆脱拼命堆算力的宿命?日后,他们对于显卡的需求会否因此而下降?中国是被制裁才激发出在软件上的创新,以此弥补硬件上的不足。如果哪天特朗普开闸了,说可以给中国厂商采购最高阶的显卡,到时更好的软件配上更好的硬件,好上加好,如虎添翼,试问他们会拒绝吗?美国的AI大厂也会不断优化他们的AI程序,芯片大厂也会不断推出算力更强的显卡,软件和硬件交替迭代优化是不变的定律,这本身就是一件再正常不过的事情。再说,Deepseek真的不需要堆算力搭建起来吗?就说Deepseek的训练吧,Deepseek肯定是花了天文数字搭建初始算力才有办法训练出这么优越的模型: https://www.facebook.com/avocadoeater/posts/pfbid0wyfz2J2nCU5SEAL4GSYqMvT8pYGHUUDS7BFXbAFk4qH5tpFgqKMY751JRL5H29D4l 。(感谢Ming Ooi的推荐文章)这肯定不止500万美元,500万只是训练模型时租用算力的费用,其他的什么都不计。如果照同样算法计算,ChatGPT在训练时租用算力的费用也是在同一个数量级上,根据Deepseek给出的数据是600万到2000万美元之间。所以,别听媒体瞎说。看来,显卡和data centre这种基础设施还是刚需,此次回调是好机会,我跟自己说的,非投资建议。

//

如果有兴趣,可以到最爱的狼Facebook专页看三个大模型写的文章:
https://www.facebook.com/Zuiaidelang/posts/pfbid02oPZg9U9SdoGF3n1eQujZdQBt6jqJ3yB1JWxE9mh3Qhu4Wuh4v1P9KVLJfd7y4wwal
1 week · translate
三小时实测Deepseek结果

//

花了三个小时来测试Deepseek,用它写大学法理学jurisprudence文章,打算如果效果好的话,用它来协助写论文。我用免费版本的Deepseek R1,ChatGPT-4o和Claude3.5 Sonnet,用它们三个写同样题目。直接给结论,Deepseek写得最好。拿Deepseek的文章去给Chatgpt和Claude评论,它们也觉得比它们自己的文章写得更好。文章和交叉评论,我都是一字一句地仔细阅读,还做了几个额外的尝试,因为我是认真要用它写论文的,我需要认真评测它的虚实。一通折腾下来,耗时6个番茄钟,也大约就是三小时。

//

Deepseek的文章写得更有深度,把课题分析得更深入,更有层次,似乎有产生新想法的能力。而其他两个模型分析得较浅,流于描述性质,读起来像是浅白的法普范文,似乎只是重组训练资料,没有给人带来新想法的感觉。Deepseek无疑是推理能力更强,做推理时细致不敷衍。因为推理能力强,它比你更了解你自己想要问些什么,不需要特别的prompt也能问出合心意的答案。到网上截取资料后,它会用自己的推理能力,把资料筛选和整合并加以论述。这点很强悍,这样就不需要初始训练资料的完整性,它可以用自己的逻辑推理,在投入运作的过程中从网络学习,做中学。而免费版的chatgpt开启联网后就很敷衍,做不到这点,付费的不清楚。从网上也看到,答错的题目,如果再问它一次,它会给你正确答案,它似乎有自行上网搜索纠正自己并存进长期记忆的能力。Deekseek也公开它的推理过程,这点是其他两个闭源大模型所缺乏的。参考它的推理过程,可以让我们人类自己学会更好地推理,也更有可能监控它的发展趋势,以免它反噬人类。另外,听说数理方面,也是Deepseek的推理能力更强,这点还没测试。

//

虽说网页免费版本没有硬性规定每日token限制,但缺点是单个聊天框的token太少,用一下子就必须开新的聊天框。这在某种程度上限制了我们个人进行大型项目的纵深,每次开新的对话框后,都需要概述一遍之前的需求和成果,才能完成一个大项目。付费能解决这难题。另外一个缺点是当机,可能是这几天突然爆红,他们的服务器负荷不来,用一下子就会当机,这点是硬伤。

//

Deepseek作为开源的模型,比其他模型来得小,推理能力又更强,这些都有利于企业或个人把它安装在自家电脑使用,专业术语叫edge AI。这么说来,data centre搭建起来的cloud AI是否还有未来?毋庸置疑,cloud AI还会是主流,显卡还是要继续卖,data centre还是要继续建,因为edge AI的功能肯定不及cloud AI,这是硬件算力所决定的,自家电脑肯定比不上data centre的超级电脑。Deepseek释出的小模型版本只可能是阉割版,能力上肯定不及大模型版本。未来,cloud AI和edge AI一定是以互补的形式存在,需要算力强的工作由cloud AI完成,需要隐私和快反应的工作edge AI代劳。

//

如果光靠AI程序更优越,体积更小,AI厂家是否就能摆脱拼命堆算力的宿命?日后,他们对于显卡的需求会否因此而下降?中国是被制裁才激发出在软件上的创新,以此弥补硬件上的不足。如果哪天特朗普开闸了,说可以给中国厂商采购最高阶的显卡,到时更好的软件配上更好的硬件,好上加好,如虎添翼,试问他们会拒绝吗?美国的AI大厂也会不断优化他们的AI程序,芯片大厂也会不断推出算力更强的显卡,软件和硬件交替迭代优化是不变的定律,这本身就是一件再正常不过的事情。再说,Deepseek真的不需要堆算力搭建起来吗?就说Deepseek的训练吧,Deepseek肯定是花了天文数字搭建初始算力才有办法训练出这么优越的模型: https://www.facebook.com/avocadoeater/posts/pfbid0wyfz2J2nCU5SEAL4GSYqMvT8pYGHUUDS7BFXbAFk4qH5tpFgqKMY751JRL5H29D4l 。(感谢Ming Ooi的推荐文章)这肯定不止500万美元,500万只是训练模型时租用算力的费用,其他的什么都不计。如果照同样算法计算,ChatGPT在训练时租用算力的费用也是在同一个数量级上,根据Deepseek给出的数据是600万到2000万美元之间。所以,别听媒体瞎说。看来,显卡和data centre这种基础设施还是刚需,此次回调是好机会,我跟自己说的,非投资建议。

//

如果有兴趣,可以到最爱的狼Facebook专页看三个大模型写的文章:
https://www.facebook.com/Zuiaidelang/posts/pfbid02oPZg9U9SdoGF3n1eQujZdQBt6jqJ3yB1JWxE9mh3Qhu4Wuh4v1P9KVLJfd7y4wwal
2 weeks · translate
好的,回去看。

跌破了。
2 weeks · translate
Load more