20Bクラスの学習をローカルでやるなら
なんらかのレンタルサーバーを使用したほうが良いと思います
LoRAにしても、ローカルで重みの更新ができるサイズはせいぜい7Bが関の山ですね
https://www.reddit.com/r/LocalLLaMA/comments/18o5u0k/helpful_vram_requirement_table_for_qlora_lora_and/
ただ推論するだけならば、最近はいわゆるdenseモデルよりMoEモデルが発展してきているので、計算速度はほどほどで帯域幅の広いユニファイドメモリを搭載したミニPCはかなり有力だと思います
20Bモデルを8bit量子化で動かした場合、必要メモリは20GB+コンテキスト+システムメモリで30GB程度あれば十分かと思います
すると、Mac mini/48GBモデル(27万)や、EVO-X2/96GB(20万)あたりが選択肢かなと思います