diff --git a/README.md b/README.md
index e574b6f..810d2c5 100644
--- a/README.md
+++ b/README.md
@@ -182,101 +182,101 @@ code is a little circuitous):
```s
interpret:
- pushq %rbp
- movq %rsp, %rbp // standard x86-64 function header
- subq $48, %rsp // allocate space for local variables
- movq %rdi, -40(%rbp) // callee saves %rsi and %rdi
- movq %rsi, -48(%rbp)
- jmp for_loop_condition
+ pushq %rbp
+ movq %rsp, %rbp // standard x86-64 function header
+ subq $48, %rsp // allocate space for local variables
+ movq %rdi, -40(%rbp) // callee saves %rsi and %rdi
+ movq %rsi, -48(%rbp)
+ jmp for_loop_condition
for_loop_body:
-
- cmpl $43, %eax // case '+'
- je add_branch
- cmpl $61, %eax // case '='
- je assign_branch
- cmpl $42, %eax // case '*'
- je mult_branch
- jmp switch_default // default
+
+ cmpl $43, %eax // case '+'
+ je add_branch
+ cmpl $61, %eax // case '='
+ je assign_branch
+ cmpl $42, %eax // case '*'
+ je mult_branch
+ jmp switch_default // default
assign_branch:
// the "bunch of stuff" above calculated *src and *dst, which are
// stored in -24(%rbp) and -32(%rbp).
- movq -24(%rbp), %rax // %rax = src
- movsd (%rax), %xmm0 // %xmm0 = src.r
- movq -32(%rbp), %rax // %rax = dst
- movsd %xmm0, (%rax) // dst.r = %xmm0
+ movq -24(%rbp), %rax // %rax = src
+ movsd (%rax), %xmm0 // %xmm0 = src.r
+ movq -32(%rbp), %rax // %rax = dst
+ movsd %xmm0, (%rax) // dst.r = %xmm0
- movq -24(%rbp), %rax // %rax = src
- movsd 8(%rax), %xmm0 // %xmm0 = src.i
- movq -32(%rbp), %rax // %rax = dst
- movsd %xmm0, 8(%rax) // dst.i = %xmm0
+ movq -24(%rbp), %rax // %rax = src
+ movsd 8(%rax), %xmm0 // %xmm0 = src.i
+ movq -32(%rbp), %rax // %rax = dst
+ movsd %xmm0, 8(%rax) // dst.i = %xmm0
- jmp for_loop_step
+ jmp for_loop_step
add_branch:
- movq -32(%rbp), %rax // %rax = dst
- movsd (%rax), %xmm1 // %xmm1 = dst.r
- movq -24(%rbp), %rax // %rax = src
- movsd (%rax), %xmm0 // %xmm0 = src.r
- addsd %xmm1, %xmm0 // %xmm0 += %xmm1
- movq -32(%rbp), %rax // %rax = dst
- movsd %xmm0, (%rax) // dst.r = %xmm0
+ movq -32(%rbp), %rax // %rax = dst
+ movsd (%rax), %xmm1 // %xmm1 = dst.r
+ movq -24(%rbp), %rax // %rax = src
+ movsd (%rax), %xmm0 // %xmm0 = src.r
+ addsd %xmm1, %xmm0 // %xmm0 += %xmm1
+ movq -32(%rbp), %rax // %rax = dst
+ movsd %xmm0, (%rax) // dst.r = %xmm0
- movq -32(%rbp), %rax // same thing for src.i and dst.i
- movsd 8(%rax), %xmm1
- movq -24(%rbp), %rax
- movsd 8(%rax), %xmm0
- addsd %xmm1, %xmm0
- movq -32(%rbp), %rax
- movsd %xmm0, 8(%rax)
+ movq -32(%rbp), %rax // same thing for src.i and dst.i
+ movsd 8(%rax), %xmm1
+ movq -24(%rbp), %rax
+ movsd 8(%rax), %xmm0
+ addsd %xmm1, %xmm0
+ movq -32(%rbp), %rax
+ movsd %xmm0, 8(%rax)
- jmp for_loop_step
+ jmp for_loop_step
mult_branch:
- movq -32(%rbp), %rax
- movsd (%rax), %xmm1
- movq -24(%rbp), %rax
- movsd (%rax), %xmm0
- mulsd %xmm1, %xmm0
- movq -32(%rbp), %rax
- movsd 8(%rax), %xmm2
- movq -24(%rbp), %rax
- movsd 8(%rax), %xmm1
- mulsd %xmm2, %xmm1
- subsd %xmm1, %xmm0
- movsd %xmm0, -16(%rbp) // double r = src.r*dst.r - src.i*dst.i
+ movq -32(%rbp), %rax
+ movsd (%rax), %xmm1
+ movq -24(%rbp), %rax
+ movsd (%rax), %xmm0
+ mulsd %xmm1, %xmm0
+ movq -32(%rbp), %rax
+ movsd 8(%rax), %xmm2
+ movq -24(%rbp), %rax
+ movsd 8(%rax), %xmm1
+ mulsd %xmm2, %xmm1
+ subsd %xmm1, %xmm0
+ movsd %xmm0, -16(%rbp) // double r = src.r*dst.r - src.i*dst.i
- movq -32(%rbp), %rax
- movsd (%rax), %xmm1
- movq -24(%rbp), %rax
- movsd 8(%rax), %xmm0
- mulsd %xmm0, %xmm1
- movq -32(%rbp), %rax
- movsd 8(%rax), %xmm2
- movq -24(%rbp), %rax
- movsd (%rax), %xmm0
- mulsd %xmm2, %xmm0
- addsd %xmm1, %xmm0
- movsd %xmm0, -8(%rbp) // double i = src.r*dst.i + src.i*dst.r
+ movq -32(%rbp), %rax
+ movsd (%rax), %xmm1
+ movq -24(%rbp), %rax
+ movsd 8(%rax), %xmm0
+ mulsd %xmm0, %xmm1
+ movq -32(%rbp), %rax
+ movsd 8(%rax), %xmm2
+ movq -24(%rbp), %rax
+ movsd (%rax), %xmm0
+ mulsd %xmm2, %xmm0
+ addsd %xmm1, %xmm0
+ movsd %xmm0, -8(%rbp) // double i = src.r*dst.i + src.i*dst.r
- movq -32(%rbp), %rax
- movsd -16(%rbp), %xmm0
- movsd %xmm0, (%rax) // dst.r = r
- movq -32(%rbp), %rax
- movsd -8(%rbp), %xmm0
- movsd %xmm0, 8(%rax) // dst.i = i
- jmp for_loop_step
+ movq -32(%rbp), %rax
+ movsd -16(%rbp), %xmm0
+ movsd %xmm0, (%rax) // dst.r = r
+ movq -32(%rbp), %rax
+ movsd -8(%rbp), %xmm0
+ movsd %xmm0, 8(%rax) // dst.i = i
+ jmp for_loop_step
for_loop_step:
- addq $3, -48(%rbp)
+ addq $3, -48(%rbp)
for_loop_condition:
- movq -48(%rbp), %rax
- movzbl (%rax), %eax
- testb %al, %al
- jne .L8
- nop
- leave // reset %rsp
- ret // pop and jmp
+ movq -48(%rbp), %rax
+ movzbl (%rax), %eax
+ testb %al, %al
+ jne .L8
+ nop
+ leave // reset %rsp
+ ret // pop and jmp
```