1 /* $NetBSD: frameasm.h,v 1.13 2008/11/21 10:05:41 ad Exp $ */ 2 3 #ifndef _AMD64_MACHINE_FRAMEASM_H 4 #define _AMD64_MACHINE_FRAMEASM_H 5 6 #ifdef _KERNEL_OPT 7 #include "opt_xen.h" 8 #endif 9 10 /* 11 * Macros to define pushing/popping frames for interrupts, traps 12 * and system calls. Currently all the same; will diverge later. 13 */ 14 15 #ifdef XEN 16 #define HYPERVISOR_iret hypercall_page + (__HYPERVISOR_iret * 32) 17 /* Xen do not need swapgs, done by hypervisor */ 18 #define swapgs 19 #define iretq pushq $0 ; jmp HYPERVISOR_iret 20 #endif 21 22 /* 23 * These are used on interrupt or trap entry or exit. 24 */ 25 #define INTR_SAVE_GPRS \ 26 movq %rdi,TF_RDI(%rsp) ; \ 27 movq %rsi,TF_RSI(%rsp) ; \ 28 movq %rdx,TF_RDX(%rsp) ; \ 29 movq %rcx,TF_RCX(%rsp) ; \ 30 movq %r8,TF_R8(%rsp) ; \ 31 movq %r9,TF_R9(%rsp) ; \ 32 movq %r10,TF_R10(%rsp) ; \ 33 movq %r11,TF_R11(%rsp) ; \ 34 movq %r12,TF_R12(%rsp) ; \ 35 movq %r13,TF_R13(%rsp) ; \ 36 movq %r14,TF_R14(%rsp) ; \ 37 movq %r15,TF_R15(%rsp) ; \ 38 movq %rbp,TF_RBP(%rsp) ; \ 39 movq %rbx,TF_RBX(%rsp) ; \ 40 movq %rax,TF_RAX(%rsp) ; \ 41 cld 42 43 #define INTR_RESTORE_GPRS \ 44 movq TF_RDI(%rsp),%rdi ; \ 45 movq TF_RSI(%rsp),%rsi ; \ 46 movq TF_RDX(%rsp),%rdx ; \ 47 movq TF_RCX(%rsp),%rcx ; \ 48 movq TF_R8(%rsp),%r8 ; \ 49 movq TF_R9(%rsp),%r9 ; \ 50 movq TF_R10(%rsp),%r10 ; \ 51 movq TF_R11(%rsp),%r11 ; \ 52 movq TF_R12(%rsp),%r12 ; \ 53 movq TF_R13(%rsp),%r13 ; \ 54 movq TF_R14(%rsp),%r14 ; \ 55 movq TF_R15(%rsp),%r15 ; \ 56 movq TF_RBP(%rsp),%rbp ; \ 57 movq TF_RBX(%rsp),%rbx ; \ 58 movq TF_RAX(%rsp),%rax 59 60 #define INTRENTRY \ 61 subq $TF_REGSIZE,%rsp ; \ 62 testq $SEL_UPL,TF_CS(%rsp) ; \ 63 je 98f ; \ 64 swapgs ; \ 65 movw %gs,TF_GS(%rsp) ; \ 66 movw %fs,TF_FS(%rsp) ; \ 67 movw %es,TF_ES(%rsp) ; \ 68 movw %ds,TF_DS(%rsp) ; \ 69 98: INTR_SAVE_GPRS 70 71 #ifndef XEN 72 #define INTRFASTEXIT \ 73 INTR_RESTORE_GPRS ; \ 74 testq $SEL_UPL,TF_CS(%rsp) /* Interrupted %cs */ ; \ 75 je 99f ; \ 76 cli ; \ 77 swapgs ; \ 78 movw TF_GS(%rsp),%gs ; \ 79 movw TF_FS(%rsp),%fs ; \ 80 movw TF_ES(%rsp),%es ; \ 81 movw TF_DS(%rsp),%ds ; \ 82 99: addq $TF_REGSIZE+16,%rsp /* + T_xxx and error code */ ; \ 83 iretq 84 85 #define INTR_RECURSE_HWFRAME \ 86 movq %rsp,%r10 ; \ 87 movl %ss,%r11d ; \ 88 pushq %r11 ; \ 89 pushq %r10 ; \ 90 pushfq ; \ 91 movl %cs,%r11d ; \ 92 pushq %r11 ; \ 93 pushq %r13 ; 94 95 #else /* !XEN */ 96 /* 97 * Disabling events before going to user mode sounds like a BAD idea 98 * do no restore gs either, HYPERVISOR_iret will do a swapgs 99 */ 100 #define INTRFASTEXIT \ 101 INTR_RESTORE_GPRS ; \ 102 testq $SEL_UPL,TF_CS(%rsp) ; \ 103 je 99f ; \ 104 movw TF_FS(%rsp),%fs ; \ 105 movw TF_ES(%rsp),%es ; \ 106 movw TF_DS(%rsp),%ds ; \ 107 99: addq $TF_REGSIZE+16,%rsp /* + T_xxx and error code */ ; \ 108 iretq 109 110 /* We must fixup CS, as even kernel mode runs at CPL 3 */ 111 #define INTR_RECURSE_HWFRAME \ 112 movq %rsp,%r10 ; \ 113 movl %ss,%r11d ; \ 114 pushq %r11 ; \ 115 pushq %r10 ; \ 116 pushfq ; \ 117 movl %cs,%r11d ; \ 118 pushq %r11 ; \ 119 andb $0xfc,(%rsp) ; \ 120 pushq %r13 ; 121 122 #endif /* !XEN */ 123 124 #define DO_DEFERRED_SWITCH \ 125 cmpq $0, CPUVAR(WANT_PMAPLOAD) ; \ 126 jz 1f ; \ 127 call _C_LABEL(do_pmap_load) ; \ 128 1: 129 130 #define CHECK_DEFERRED_SWITCH \ 131 cmpq $0, CPUVAR(WANT_PMAPLOAD) 132 133 #define CHECK_ASTPENDING(reg) cmpl $0, L_MD_ASTPENDING(reg) 134 #define CLEAR_ASTPENDING(reg) movl $0, L_MD_ASTPENDING(reg) 135 136 #ifdef XEN 137 #define CLI(temp_reg) \ 138 movl CPUVAR(CPUID),%e/**/temp_reg ; \ 139 shlq $6,%r/**/temp_reg ; \ 140 addq CPUVAR(VCPU),%r/**/temp_reg ; \ 141 movb $1,EVTCHN_UPCALL_MASK(%r/**/temp_reg) 142 #define STI(temp_reg) \ 143 movl CPUVAR(CPUID),%e/**/temp_reg ; \ 144 shlq $6,%r/**/temp_reg ; \ 145 addq CPUVAR(VCPU),%r/**/temp_reg ; \ 146 movb $0,EVTCHN_UPCALL_MASK(%r/**/temp_reg) 147 #else /* XEN */ 148 #define CLI(temp_reg) cli 149 #define STI(temp_reg) sti 150 #endif /* XEN */ 151 152 #endif /* _AMD64_MACHINE_FRAMEASM_H */ 153