如果一个达到「能用」程度的本地模型需要 1TB 的显存?那对于大部分人来说还是不能用。

可能最现实的方式还是研究目前 Codex / Copilot 的订阅付费方式中能够挖掘出什么来?