Performance: Binário x Integer

Pessoal, há diferença na performance entre binário e integer?
Por exemplo, em contas como:

0x00000000 + 0x00000001 = 0x00000001
0 + 1 = 1

há diferença entre os dois na performance? ou só serve pra deixar o código-fonte estiloso, mesmo? :stuck_out_tongue:

integer é um tipo de dados. Representa um número com sinal, e usa 32 bits para armazena-lo.

Binário não é um tipo de dado, mas uma forma de representar o dado (base numérica).
Ao invés de usarmos 10 dígitos (0 até 9), como na base decimal, usamos apenas 2 (0 até 1). Da mesma forma é o octal (0 até 7) e o hexadecimal (0 até 9 + A até F).

É importante entender essa diferença, pois você perceberá que números binários também são armazenados dentro de um integer. Na verdade, para o computador, só existem números binários.
Quando dizemos que o integer tem 32 bits, dizemos que dentro dele há 32 dígitos binários possíveis, sendo 1 usado para o sinal. Ou seja, os números vão de:
1111 1111 1111 1111 1111 1111 1111 1111 até 0111 1111 1111 1111 1111 1111 1111 1111

Então, respondendo sua pergunta.
Usando um computador, fazer contas em decimal, binário ou hexadecimal dá na mesma, pois todas as contas serão realizadas no sistema binário.

Não é questão também de deixar o código estiloso. Usamos outras representações numéricas quando são mais convenientes.
Por exemplo, veja o caso das cores. Temos 3 canais de cor, portanto, é melhor exibir o número em hexadecimal, pois cada canal ocupa dois dígitos:

int cor = 0xFF00A0;  //aqui podemos ver que o valor FF foi atribuído ao vermelho, portanto, é um vermelho forte. 00 foi atribuído ao verde e A0 ao azul.

Veja como usar decimal nesse caso não nos diz nada:

int cor = 16711840; //mesma cor acima. Não dá para saber o que vai em cada canal