micro:bitに限らず、「プログラムに使う文字は半角英数字」が基本です。なぜなら「コンピューターは半角文字しか正しく理解できない」からです。
もともとコンピューターは海外で開発され、そのため文字や記号は英数字が基本でした。文字は人間にはわかりますが、「コンピューターには理解できない記号」です。そのため、文字にそれぞれ「コンピューターに理解できる番号」が割り振られました。その番号を元にコンピューターは何が書かれているか(どんな命令なのか)を理解し、その通りに実行します。
ですので当初は半角英数字に必要な文字数しか番号か割り当てておらず、7ビットの数値で表現されていました。7ビットは「2^7=128」で128文字を表せます。アルファベットは26文字で大文字を含めても52文字、さらに数値を含めても62文字、そして「制御文字」と言われる「改行」や「デリート」など、「スペース」やなどの特殊文字を含めても128種類があれば十分でした。
7ビットだと中途半端ですので更に1ビット足し、8ビットで一つのことを表すのが標準となりました。そのため、8ビットを一つのまとまりとして「1バイト」とする単位が決められてました。半角英数字が1バイト文字と言われるのはこのためです。
しかしパソコンが世界的に普及すると、世界各地で問題が発生しました。例えば日本語の場合、「ひらがな」「カタカナ」だけで100文字になり、さらに濁点や半濁点、小文字や「漢字」などを含めるととても128文字で収まらなくなります。そこで考えられたのが「一文字を2バイトで表現する」方法です。そうすると「2^16」となり、「65,536文字」を表せる事になります。そのため全角文字を「2バイト文字」と呼びます。
1バイト文字と2バイト文字では例えば同じ数字でも「コンピューターが理解できる番号が違う」ことになります。そのためプログラミングではコンピューターが理解できる「1バイト文字」が必要であり、それが「半角英数字」と言うことになります。ですので「プログラミングする文字は必ず1バイト文字でなければならず、そうでないとコンピューターは理解できないか間違った理解をしてしまう」と言うことになります。
しかしこれはあくまで「プログラミング」の文字の話しであり、例えばディスプレイなどに表示させる文字は半角英数字でなくてもかまいません。画面に表示させる文字は「プログラムには直接関係ない」ですので、全角文字でもきちんとその通りに表示されます。