ris
发表于 2024-1-11 18:48
lasx 发表于 2024-1-11 11:46
不用logic的话,真没必要用苹果系统。
收到。谢谢。
北极黑熊
发表于 2024-1-14 11:18
lasx 发表于 2024-1-6 00:26
音频从业者目前还不能替换intel苹果机器。
过渡怎么样了
lasx
发表于 2024-1-14 15:56
北极黑熊 发表于 2024-1-14 11:18
过渡怎么样了
暂时无法过渡。除非开从机跑音色。
北极黑熊
发表于 2024-1-14 22:49
lasx 发表于 2024-1-14 15:56
暂时无法过渡。除非开从机跑音色。
牛逼老哥
当年powerPC过渡到X86就搞了好久
差不多三年多
egryd0
发表于 2024-1-15 11:07
太牛了,我也想入手不知道 买什么好,楼主能否给点建议。
摄影爱好者
1、MBP M1 PRO 或M2 PRO 笔记本
2、就是你这种11000左右的预算,但是还得买个24寸的入门级作图显示器,3500左右。
目前 手挂ipadpro修图,PS还不会用,以后打算学。
欲望兽
发表于 2024-2-18 21:10
种草了.有活需要的时候入.
fut888
发表于 2024-2-26 11:25
lz跑30b和70b的推理回复tok/s大概是多少,油管上测试速度也不比n个4090慢多少
statesTQ2022
发表于 2024-2-26 11:31
fut888 发表于 2024-2-26 11:25
lz跑30b和70b的推理回复tok/s大概是多少,油管上测试速度也不比n个4090慢多少
最近没部署llm了,在干别的活儿
你这个测评是做了量化的,以及其它一些优化。精度很低
全量部署一些开源llm M2 ultra要比单卡4090慢一些,比三张4090慢非常多
statesTQ2022
发表于 2024-2-26 11:32
egryd0 发表于 2024-1-15 11:07
太牛了,我也想入手不知道 买什么好,楼主能否给点建议。
摄影爱好者
剪片都可以,我觉得买新不买旧 m2pro吧,m3pro反而有点缩水
fut888
发表于 2024-2-26 13:29
statesTQ2022 发表于 2024-2-26 11:31
最近没部署llm了,在干别的活儿
你这个测评是做了量化的,以及其它一些优化。精度很低
跑推理应该够了吧,反正模型越大,mac成本越低。5090要没个32gb真没啥好玩的了。 M2 Ultra running Llama 70B at 8bit.Lots of people have tried this, around 5t/s, using M3 Max instead increased to ~8t/s
statesTQ2022
发表于 2024-2-26 14:40
fut888 发表于 2024-2-26 13:29
跑推理应该够了吧,反正模型越大,mac成本越低。5090要没个32gb真没啥好玩的了。 M2 Ultra running Llama ...
按显存模型越大mac成本越低;按算力模型越大mac成本越高