萧谭
04-27
在今年年初Sora模型掀起视频多模态处理热潮后,GPT-5可能也会在视频模态上取得一定进展,将来GPT-5在视频理解和生成上的尝试,都将为未来数字世界和物理世界的深度融合铺平道路。
奥特曼:GPT5性能远超GPT4,OpenAI不怕copy
免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。
分享至
微信
复制链接
精彩评论
我们需要你的真知灼见来填补这片空白
打开APP,发表看法
APP内打开
发表看法
1
{"i18n":{"language":"zh_CN"},"detailType":1,"isChannel":false,"data":{"magic":2,"id":299618789646384,"tweetId":"299618789646384","gmtCreate":1714168608202,"gmtModify":1714168610657,"author":{"id":3581291136225075,"idStr":"3581291136225075","authorId":3581291136225075,"authorIdStr":"3581291136225075","name":"萧谭","avatar":"https://static.tigerbbs.com/d1bc3b80b063ea63a981afbde03496a7","vip":1,"userType":1,"introduction":"","boolIsFan":false,"boolIsHead":false,"crmLevel":1,"crmLevelSwitch":0,"currentWearingBadge":{"badgeId":"e50ce593bb40487ebfb542ca54f6a561-2","templateUuid":"e50ce593bb40487ebfb542ca54f6a561","name":"资深虎友","description":"加入老虎社区1000天","bigImgUrl":"https://static.tigerbbs.com/0063fb68ea29c9ae6858c58630e182d5","smallImgUrl":"https://static.tigerbbs.com/96c699a93be4214d4b49aea6a5a5d1a4","grayImgUrl":"https://static.tigerbbs.com/35b0e542a9ff77046ed69ef602bc105d","redirectLinkEnabled":0,"hasAllocated":1,"isWearing":1,"stampPosition":0,"hasStamp":0,"allocationCount":1,"allocatedDate":"2024.01.08","individualDisplayEnabled":0},"individualDisplayBadges":[],"fanSize":0,"starInvestorFlag":false},"themes":[],"images":[],"coverImages":[],"html":"<html><head></head><body><p>在今年年初Sora模型掀起视频多模态处理热潮后,GPT-5可能也会在视频模态上取得一定进展,将来GPT-5在视频理解和生成上的尝试,都将为未来数字世界和物理世界的深度融合铺平道路。</p></body></html>","htmlText":"<html><head></head><body><p>在今年年初Sora模型掀起视频多模态处理热潮后,GPT-5可能也会在视频模态上取得一定进展,将来GPT-5在视频理解和生成上的尝试,都将为未来数字世界和物理世界的深度融合铺平道路。</p></body></html>","text":"在今年年初Sora模型掀起视频多模态处理热潮后,GPT-5可能也会在视频模态上取得一定进展,将来GPT-5在视频理解和生成上的尝试,都将为未来数字世界和物理世界的深度融合铺平道路。","highlighted":1,"essential":1,"paper":1,"likeSize":1,"commentSize":0,"repostSize":0,"favoriteSize":0,"link":"https://laohu8.com/post/299618789646384","repostId":2430292503,"repostType":4,"repost":{"id":"2430292503","kind":"news","pubTimestamp":1714103849,"share":"https://www.laohu8.com/m/news/2430292503?lang=&edition=full","pubTime":"2024-04-26 11:57","market":"hk","language":"zh","title":"奥特曼:GPT5性能远超GPT4,OpenAI不怕copy","url":"https://stock-news.laohu8.com/highlight/detail?id=2430292503","media":"硬AI","summary":"在演讲中,奥特曼表示,他不知道AGI何时到来,GPT-5性能将远超GPT-4,GPT-6会比GPT-5更加厉害。奥特曼认为,现在很多组织、个人开发者都能轻松复现GPT-4的能力,甚至在个别单元测试中超过它。奥特曼表示,为了实现AGI,无论每年花费5亿、50亿还是500亿美元,只要能为全人类、AI领域做出一些贡献都不在乎。","content":"<html><head></head><body><p>自从GPT-4发布以来,期间关于GPT-4.5或GPT-5的传闻从未停止,今年对于GPT-5的期待更是达到了白热化阶段。</p><p>4月25日,媒体报道称,OpenAI联合创始人兼CEO 山姆·奥特曼现身斯坦福大学,并在<a href=\"https://laohu8.com/S/NVDA\">英伟达</a>(NVIDIA)礼堂举行了一场公开演讲,可容纳342人的礼堂爆满,还有超过千人挤在外面排队,并在随后举行了一场闭门会议。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/c17fc6fd9bbd87b32ca2ca1adddf32e4\" tg-width=\"982\" tg-height=\"1048\"/></p><p>在演讲中,奥特曼表示,他不知道AGI何时到来<strong>,</strong>GPT-5性能将远超GPT-4,GPT-6会比GPT-5更加厉害。这些都将成为人类历史上最令人瞩目的事件,但其实目前还远未触及<a href=\"https://laohu8.com/S/5RE.SI\">智能</a>极限。</p><p>奥特曼认为,现在很多组织、个人开发者都能轻松复现GPT-4的能力,甚至在个别单元测试中超过它。<strong>但OpenAI的核心能力是技术变革,可以真正定义AI能力的下一个范式转变,就像<a href=\"https://laohu8.com/S/AAPL\">苹果</a>的iPhone对移动领域带来的颠覆性影响:</strong></p><blockquote><p>复制技术相对容易,<a href=\"https://laohu8.com/S/GOOG\">谷歌</a>可以轻易地复制出类似Gemini的产品。然而,真正的挑战在于创新,如何构建全新的人工智能范式。</p></blockquote><p><strong>在谈到如何实现AGI时,奥特曼认为开源不是最佳途径。</strong>开源意味着放弃对技术的专有控制,对于OpenAI来说,他们投入大量的人力和算力资源开发的产品,需要有商业回报。</p><p>奥特曼表示,为了实现AGI,无论每年花费5亿、50亿还是500亿美元,只要能为全人类、AI领域做出一些贡献都不在乎。但这需要良性的资金来源,光靠别人捐献、融资是不行的。</p><p>奥特曼,<strong>从现在的技术创新和功能迭代来看,人类远远没有达到AI的极限,尽管新技术最初可能会令人震惊,但社会很快就会适应:</strong></p><blockquote><p>一年前,OpenAI发布GPT-4模型时,全世界陷入疯狂,认为将彻底改变很多行业的工作模式。如今我们回头再看GPT-4,经常会讥讽地说,它看起来好蠢啊,GPT-5到底何时发布?</p></blockquote><p>奥特曼认为,人工智能初创公司潜力巨大,现在是创办初创人工智能公司的最佳时机,但许多创业者和研究者正致力于弥补当前AI系统的缺陷,但随着GPT-5、GPT-6等后续版本的出现,这些基于既有局限性开展的工作很可能失去意义。</p><p>奥特曼指出,OpenAI坚信Sora将开创一种前所未有的娱乐形式:每一次体验都将独一无二,它能根据用户的喜好与实时互动,动态生成介于电影与游戏之间的全新内容:</p><blockquote><p>OpenAI正在努力实现即使不依赖全新的数据集,模型的推理能力也能持续提升,这意味着模型能更有效地学习并适应现有知识OpenAI打造的是以人为本的工具,而非模拟生命的新物种</p><p>展望未来,一项高薪职业将是为AI模型的输出提供专业且精准的反馈,以进一步优化其性能和效果。</p></blockquote><p>根据斯坦福学生Andrew Gao介绍,随后他有机会参加了奥特曼20人左右的闭门会议。他提到了一些大事,但我不能分享。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/90705f86a0731a6b29bb6dee18c33280\" tg-width=\"976\" tg-height=\"168\"/></p><p>另一位参加闭门会议的人也没有透露具体内容,但称总之对GPT-5很兴奋。</p><p class=\"t-img-caption\"><img src=\"https://static.tigerbbs.com/e92e447196989f32fe68e6405c130ef8\" tg-width=\"918\" tg-height=\"1076\"/></p><h2 id=\"id_3495327386\">对于新一代模型GPT5,市场期待什么</h2><p>Deep Trading创始人Peleg等人在社交媒体X上透露,GPT-5早已准备就绪,目前正处于选定用户的红队测试阶段,全面评估模型的安全性和可靠性。红队测试旨在邀请外部专家尝试以恶意用户的思路“攻击”并试图找出模型的潜在缺陷和风险点,是大型语言模型发布前的关键一环。</p><p>根据过往测试的经验,市场推测,一般此阶段为期3-4个月,预计GPT-5最快今年夏天面世。回顾GPT模型前四代的表现,每一次更新都在性能上实现了全面的提升。</p><p>而GPT-5作为最新一代的大语言模型,市场认为其有望在多模态理解、长文本输入、zero-shot学习等方面树立新的里程碑。</p><p>有分析认为,GPT-5的升级并不会出现如同GPT-2到GPT-3的基础能力飞跃,将会是一次多方位的全面升级,而其中多模态能力是GPT-5迭代的最重要部分。GPT-5将补齐图像模态的多模态功能,实现图文互生的能力。</p><p>此外,在今年年初Sora模型掀起视频多模态处理热潮后,GPT-5可能也会在视频模态上取得一定进展,将来GPT-5在视频理解和生成上的尝试,都将为未来数字世界和物理世界的深度融合铺平道路。</p><p>除了多模态能力外,文本输入长度也是今年一季度各家模型厂商竞争的另一个关键焦点,较长的文本输入长度是实现复杂长文本处理和长逻辑推理的基础,也是构建能处理复杂任务的AI Agent的必要条件。</p><p>目前,Gemini 1.5 Pro是1M,Claude 3是200K,GPT-4是128K,不知道GPT-5会突破怎样的惊人纪录。</p><p></p></body></html>","source":"lsy1690508328926","collect":0,"html":"<!DOCTYPE html>\n<html>\n<head>\n<meta http-equiv=\"Content-Type\" content=\"text/html; charset=utf-8\" />\n<meta name=\"viewport\" content=\"width=device-width,initial-scale=1.0,minimum-scale=1.0,maximum-scale=1.0,user-scalable=no\"/>\n<meta name=\"format-detection\" content=\"telephone=no,email=no,address=no\" />\n<title>奥特曼:GPT5性能远超GPT4,OpenAI不怕copy</title>\n<style type=\"text/css\">\na,abbr,acronym,address,applet,article,aside,audio,b,big,blockquote,body,canvas,caption,center,cite,code,dd,del,details,dfn,div,dl,dt,\nem,embed,fieldset,figcaption,figure,footer,form,h1,h2,h3,h4,h5,h6,header,hgroup,html,i,iframe,img,ins,kbd,label,legend,li,mark,menu,nav,\nobject,ol,output,p,pre,q,ruby,s,samp,section,small,span,strike,strong,sub,summary,sup,table,tbody,td,tfoot,th,thead,time,tr,tt,u,ul,var,video{ font:inherit;margin:0;padding:0;vertical-align:baseline;border:0 }\nbody{ font-size:16px; line-height:1.5; color:#999; background:transparent; }\n.wrapper{ overflow:hidden;word-break:break-all;padding:10px; }\nh1,h2{ font-weight:normal; line-height:1.35; margin-bottom:.6em; }\nh3,h4,h5,h6{ line-height:1.35; margin-bottom:1em; }\nh1{ font-size:24px; }\nh2{ font-size:20px; }\nh3{ font-size:18px; }\nh4{ font-size:16px; }\nh5{ font-size:14px; }\nh6{ font-size:12px; }\np,ul,ol,blockquote,dl,table{ margin:1.2em 0; }\nul,ol{ margin-left:2em; }\nul{ list-style:disc; }\nol{ list-style:decimal; }\nli,li p{ margin:10px 0;}\nimg{ max-width:100%;display:block;margin:0 auto 1em; }\nblockquote{ color:#B5B2B1; border-left:3px solid #aaa; padding:1em; }\nstrong,b{font-weight:bold;}\nem,i{font-style:italic;}\ntable{ width:100%;border-collapse:collapse;border-spacing:1px;margin:1em 0;font-size:.9em; }\nth,td{ padding:5px;text-align:left;border:1px solid #aaa; }\nth{ font-weight:bold;background:#5d5d5d; }\n.symbol-link{font-weight:bold;}\n/* header{ border-bottom:1px solid #494756; } */\n.title{ margin:0 0 8px;line-height:1.3;color:#ddd; }\n.meta {color:#5e5c6d;font-size:13px;margin:0 0 .5em; }\na{text-decoration:none; color:#2a4b87;}\n.meta .head { display: inline-block; overflow: hidden}\n.head .h-thumb { width: 30px; height: 30px; margin: 0; padding: 0; border-radius: 50%; float: left;}\n.head .h-content { margin: 0; padding: 0 0 0 9px; float: left;}\n.head .h-name {font-size: 13px; color: #eee; margin: 0;}\n.head .h-time {font-size: 11px; color: #7E829C; margin: 0;line-height: 11px;}\n.small {font-size: 12.5px; display: inline-block; transform: scale(0.9); -webkit-transform: scale(0.9); transform-origin: left; -webkit-transform-origin: left;}\n.smaller {font-size: 12.5px; display: inline-block; transform: scale(0.8); -webkit-transform: scale(0.8); transform-origin: left; -webkit-transform-origin: left;}\n.bt-text {font-size: 12px;margin: 1.5em 0 0 0}\n.bt-text p {margin: 0}\n</style>\n</head>\n<body>\n<div class=\"wrapper\">\n<header>\n<h2 class=\"title\">\n奥特曼:GPT5性能远超GPT4,OpenAI不怕copy\n</h2>\n\n<h4 class=\"meta\">\n\n\n2024-04-26 11:57 北京时间 <a href=https://wallstreetcn.com/articles/3713677><strong>硬AI</strong></a>\n\n\n</h4>\n\n</header>\n<article>\n<div>\n<p>自从GPT-4发布以来,期间关于GPT-4.5或GPT-5的传闻从未停止,今年对于GPT-5的期待更是达到了白热化阶段。4月25日,媒体报道称,OpenAI联合创始人兼CEO 山姆·奥特曼现身斯坦福大学,并在英伟达(NVIDIA)礼堂举行了一场公开演讲,可容纳342人的礼堂爆满,还有超过千人挤在外面排队,并在随后举行了一场闭门会议。在演讲中,奥特曼表示,他不知道AGI何时到来,GPT-5性能将远超...</p>\n\n<a href=\"https://wallstreetcn.com/articles/3713677\">Web Link</a>\n\n</div>\n\n\n</article>\n</div>\n</body>\n</html>\n","type":0,"thumbnail":"https://static.tigerbbs.com/dad8137f5c36fbe8e90ee58b3838a18a","relate_stocks":{},"source_url":"https://wallstreetcn.com/articles/3713677","is_english":false,"share_image_url":"https://static.laohu8.com/e9f99090a1c2ed51c021029395664489","article_id":"2430292503","content_text":"自从GPT-4发布以来,期间关于GPT-4.5或GPT-5的传闻从未停止,今年对于GPT-5的期待更是达到了白热化阶段。4月25日,媒体报道称,OpenAI联合创始人兼CEO 山姆·奥特曼现身斯坦福大学,并在英伟达(NVIDIA)礼堂举行了一场公开演讲,可容纳342人的礼堂爆满,还有超过千人挤在外面排队,并在随后举行了一场闭门会议。在演讲中,奥特曼表示,他不知道AGI何时到来,GPT-5性能将远超GPT-4,GPT-6会比GPT-5更加厉害。这些都将成为人类历史上最令人瞩目的事件,但其实目前还远未触及智能极限。奥特曼认为,现在很多组织、个人开发者都能轻松复现GPT-4的能力,甚至在个别单元测试中超过它。但OpenAI的核心能力是技术变革,可以真正定义AI能力的下一个范式转变,就像苹果的iPhone对移动领域带来的颠覆性影响:复制技术相对容易,谷歌可以轻易地复制出类似Gemini的产品。然而,真正的挑战在于创新,如何构建全新的人工智能范式。在谈到如何实现AGI时,奥特曼认为开源不是最佳途径。开源意味着放弃对技术的专有控制,对于OpenAI来说,他们投入大量的人力和算力资源开发的产品,需要有商业回报。奥特曼表示,为了实现AGI,无论每年花费5亿、50亿还是500亿美元,只要能为全人类、AI领域做出一些贡献都不在乎。但这需要良性的资金来源,光靠别人捐献、融资是不行的。奥特曼,从现在的技术创新和功能迭代来看,人类远远没有达到AI的极限,尽管新技术最初可能会令人震惊,但社会很快就会适应:一年前,OpenAI发布GPT-4模型时,全世界陷入疯狂,认为将彻底改变很多行业的工作模式。如今我们回头再看GPT-4,经常会讥讽地说,它看起来好蠢啊,GPT-5到底何时发布?奥特曼认为,人工智能初创公司潜力巨大,现在是创办初创人工智能公司的最佳时机,但许多创业者和研究者正致力于弥补当前AI系统的缺陷,但随着GPT-5、GPT-6等后续版本的出现,这些基于既有局限性开展的工作很可能失去意义。奥特曼指出,OpenAI坚信Sora将开创一种前所未有的娱乐形式:每一次体验都将独一无二,它能根据用户的喜好与实时互动,动态生成介于电影与游戏之间的全新内容:OpenAI正在努力实现即使不依赖全新的数据集,模型的推理能力也能持续提升,这意味着模型能更有效地学习并适应现有知识OpenAI打造的是以人为本的工具,而非模拟生命的新物种展望未来,一项高薪职业将是为AI模型的输出提供专业且精准的反馈,以进一步优化其性能和效果。根据斯坦福学生Andrew Gao介绍,随后他有机会参加了奥特曼20人左右的闭门会议。他提到了一些大事,但我不能分享。另一位参加闭门会议的人也没有透露具体内容,但称总之对GPT-5很兴奋。对于新一代模型GPT5,市场期待什么Deep Trading创始人Peleg等人在社交媒体X上透露,GPT-5早已准备就绪,目前正处于选定用户的红队测试阶段,全面评估模型的安全性和可靠性。红队测试旨在邀请外部专家尝试以恶意用户的思路“攻击”并试图找出模型的潜在缺陷和风险点,是大型语言模型发布前的关键一环。根据过往测试的经验,市场推测,一般此阶段为期3-4个月,预计GPT-5最快今年夏天面世。回顾GPT模型前四代的表现,每一次更新都在性能上实现了全面的提升。而GPT-5作为最新一代的大语言模型,市场认为其有望在多模态理解、长文本输入、zero-shot学习等方面树立新的里程碑。有分析认为,GPT-5的升级并不会出现如同GPT-2到GPT-3的基础能力飞跃,将会是一次多方位的全面升级,而其中多模态能力是GPT-5迭代的最重要部分。GPT-5将补齐图像模态的多模态功能,实现图文互生的能力。此外,在今年年初Sora模型掀起视频多模态处理热潮后,GPT-5可能也会在视频模态上取得一定进展,将来GPT-5在视频理解和生成上的尝试,都将为未来数字世界和物理世界的深度融合铺平道路。除了多模态能力外,文本输入长度也是今年一季度各家模型厂商竞争的另一个关键焦点,较长的文本输入长度是实现复杂长文本处理和长逻辑推理的基础,也是构建能处理复杂任务的AI Agent的必要条件。目前,Gemini 1.5 Pro是1M,Claude 3是200K,GPT-4是128K,不知道GPT-5会突破怎样的惊人纪录。","news_type":1},"isVote":1,"tweetType":1,"viewCount":705,"commentLimit":10,"likeStatus":false,"favoriteStatus":false,"reportStatus":false,"symbols":["GPT.AU"],"verified":2,"subType":0,"readableState":1,"langContent":"CN","currentLanguage":"CN","warmUpFlag":false,"orderFlag":false,"shareable":true,"causeOfNotShareable":"","featuresForAnalytics":[],"commentAndTweetFlag":false,"andRepostAutoSelectedFlag":false,"upFlag":false,"length":162,"xxTargetLangEnum":"ZH_CN"},"commentList":[],"isCommentEnd":true,"isTiger":false,"isWeiXinMini":false,"url":"/m/post/299618789646384"}
精彩评论