$英伟达(NVDA)$  ‌就一个问题,靠算力堆出来的人工智能,是真的人工智能吗,难道不是更应该靠神经网络算法的不断升级吗?

免责声明:上述内容仅代表发帖人个人观点,不构成本平台的任何投资建议。

举报

评论7

  • 推荐
  • 最新
  • Patrick Tsui
    ·10-19
    精彩
    去Google算法和神经网路又不难,别只在网路上见过这两个词就觉得自己懂ai🤡
    回复
    举报
    收起
    • 期权我就看看
      嗯,还是你牛逼,会用google搜算法理论就懂AI了
      12-08
      回复
      举报
  • 就跟曾经的超级计算机一样,靠堆cpu实现的算力不及10年后的一颗cpu算力,其实都是资本的阴谋,否则哪来翻倍的想象力。当然很多所谓懂AI的人要嗤之以鼻了。
    回复
    举报
    收起
    • 期权我就看看
      哈哈,看看你楼下那位不就是吗,就是因为算法还不行效率太低了所以才需要上大算力才能出结果,但是算力是马上花钱买卡能解决的,算法可不是一时半会儿就能有质的飞跃,多数人只能看到眼前的利益
      12-08
      回复
      举报
  • Xzhouz
    ·10-18
    精彩
    这也是我一直思考的问题,如果堆量可以实现,那么买三五个低端卡代替一个高端卡,能解决这个问题。剩下的无非是成本和能耗的问题。所以制约人工智能的最重要的因素到底是高端显卡,还是算力,还是软件?
    回复
    举报
    收起
    • 二狗大石
      不冲突啊 算力是基础 神经网络算法也是基础 两者都要更好才能更好 至于3个低端卡换一个高端卡 是完全不划算的 多个低端卡提供高端卡一样的算力 能耗是更高的
      10-18
      回复
      举报
    • 二狗大石
      我跑过一些简单的人工智能模型 例如图片的智能识别 第一 需要合适的算法以及正确的标注 第二 需要高端的显卡才能快速跑完一次学习 如果算力不够 跑一次训练就要很多天 那就效率太低了 如果我一天就能跑完一次 你要100天才能跑完一次 那效率肯定是天壤之别的(跑完以后得到的模型又要不断的测试优化 真实的开发是需要跑无数次)
      10-18
      回复
      举报