高通吧 关注:187,631贴子:5,104,296
  • 42回复贴,共1

GPU ai性能 (lIm)测试(A19 Pro对比8E5)

只看楼主收藏回复

随手测了lIm本地内置benchmark,同一个软件同一个gemma-2-2b模型,A19Pro比8E5快一倍多


IP属地:湖南来自iPhone客户端1楼2026-04-12 21:49回复
    8e5成绩是14.62 token/s,a19Pro是28.63 token/s
    总时间8e5 37s,a19Pro 17s
    内存频率8e5 10667,a19Pro 9600


    IP属地:湖南来自iPhone客户端2楼2026-04-12 21:50
    收起回复
      2026-04-17 22:55:40
      广告
      不感兴趣
      开通SVIP免广告
      图片老是被吞,没办法


      IP属地:湖南来自iPhone客户端4楼2026-04-12 21:52
      收起回复
        17pm应该可以尝试部署Gemma4 E4B了,Q4量化内存只要6GB


        IP属地:江苏5楼2026-04-12 21:54
        回复
          试试看能不能发出来


          IP属地:江苏6楼2026-04-12 22:20
          收起回复
            一开始我搞错了拿M3跑的CPU模式


            IP属地:江苏7楼2026-04-12 22:33
            回复
              CPU模式,8e5 10.54 token/s,a19Pro 14.74token/s


              IP属地:湖南来自iPhone客户端8楼2026-04-12 22:38
              收起回复
                你看看8e5的prompt有多少,CPU模式和GPU模式prompt差异巨大,CPU模式M3prompt只有27tokens/sec,GPU模式有334tokens/sec,生成差距相对就小很多,CPU 14tokens/sec,GPU 27tokens/sec


                IP属地:江苏9楼2026-04-12 22:58
                收起回复
                  2026-04-17 22:49:40
                  广告
                  不感兴趣
                  开通SVIP免广告
                  a17p 是多少


                  IP属地:江苏来自iPhone客户端10楼2026-04-12 23:12
                  回复
                    通通这个GPU都没有tensercore,特性全面落后,垃圾就完事了


                    IP属地:海南来自iPhone客户端11楼2026-04-12 23:24
                    收起回复
                      手机llm有啥用啊,4090都只能跑弱智模型


                      IP属地:湖南来自Android客户端12楼2026-04-12 23:43
                      回复
                        软件给个GitHub地址?


                        IP属地:重庆来自Android客户端13楼2026-04-13 21:03
                        收起回复