VirtualBox

Changeset 3696 in vbox for trunk/src


Ignore:
Timestamp:
Jul 18, 2007 5:00:33 PM (18 years ago)
Author:
vboxsync
Message:

double underscore cleanup.

Location:
trunk/src/VBox/VMM
Files:
20 edited

Legend:

Unmodified
Added
Removed
  • trunk/src/VBox/VMM/DBGFSym.cpp

    r2981 r3696  
    2525*******************************************************************************/
    2626#define LOG_GROUP LOG_GROUP_DBGF
    27 #if defined(__WIN__) && defined(DEBUG_bird) // enabled this is you want to debug win32 guests or the hypervisor.
     27#if defined(RT_OS_WINDOWS) && defined(DEBUG_bird) // enabled this is you want to debug win32 guests or the hypervisor.
    2828# include <Windows.h>
    2929# define _IMAGEHLP64
  • trunk/src/VBox/VMM/PATM/PATM.cpp

    r3073 r3696  
    148148    pVM->patm.s.PatchLookupTreeGC = MMHyperHC2GC(pVM, pVM->patm.s.PatchLookupTreeHC);
    149149
    150 #ifdef __AMD64__ /* see patmReinit(). */
     150#ifdef RT_ARCH_AMD64 /* see patmReinit(). */
    151151    /* Check CFGM option. */
    152152    rc = CFGMR3QueryBool(CFGMR3GetRoot(pVM), "PATMEnabled", &pVM->fPATMEnabled);
     
    156156# else
    157157        pVM->fPATMEnabled = true;
    158 # endif 
     158# endif
    159159#endif
    160160
     
    314314    pVM->patm.s.offVM = RT_OFFSETOF(VM, patm);
    315315
    316 #ifndef __AMD64__ /* would be nice if this was changed everywhere. was driving me crazy on AMD64. */
     316#ifndef RT_ARCH_AMD64 /* would be nice if this was changed everywhere. was driving me crazy on AMD64. */
    317317#ifndef PATM_DISABLE_ALL
    318318    pVM->fPATMEnabled = true;
     
    26772677    }
    26782678
    2679     if (!(pPatch->flags & (PATMFL_IDTHANDLER|PATMFL_IDTHANDLER_WITHOUT_ENTRYPOINT|PATMFL_SYSENTER|PATMFL_INT3_REPLACEMENT_BLOCK)))   
     2679    if (!(pPatch->flags & (PATMFL_IDTHANDLER|PATMFL_IDTHANDLER_WITHOUT_ENTRYPOINT|PATMFL_SYSENTER|PATMFL_INT3_REPLACEMENT_BLOCK)))
    26802680        pPatch->flags |= PATMFL_MUST_INSTALL_PATCHJMP;
    26812681
     
    57685768        /* Only harmless instructions are acceptable. */
    57695769        rc = CPUMR3DisasmInstrCPU(pVM, pCtx, pCurPatchInstrGC, &CpuOld, 0);
    5770         if (    VBOX_FAILURE(rc) 
     5770        if (    VBOX_FAILURE(rc)
    57715771            ||  !(CpuOld.pCurInstr->optype & OPTYPE_HARMLESS))
    57725772            break;
  • trunk/src/VBox/VMM/PATM/PATMA.asm

    r2988 r3696  
    4646BEGINCODE
    4747
    48 %ifdef __AMD64__
     48%ifdef RT_ARCH_AMD64
    4949 BITS 32 ; switch to 32-bit mode (x86).
    5050%endif
     
    12341234iret_notring0:
    12351235
    1236 ; if interrupts are pending, then we must go back to the host context to handle them! 
     1236; if interrupts are pending, then we must go back to the host context to handle them!
    12371237; Note: This is very important as pending pic interrupts can be overriden by apic interrupts if we don't check early enough (Fedora 5 boot)
    1238 ; @@todo fix this properly, so we can dispatch pending interrupts in GC 
     1238; @@todo fix this properly, so we can dispatch pending interrupts in GC
    12391239    test    dword [ss:PATM_VM_FORCEDACTIONS], VM_FF_INTERRUPT_APIC | VM_FF_INTERRUPT_PIC
    1240     jz      iret_continue 
    1241 
    1242 ; Go to our hypervisor trap handler to dispatch the pending irq 
    1243     mov     dword [ss:PATM_TEMP_EAX], eax 
    1244     mov     dword [ss:PATM_TEMP_ECX], ecx 
    1245     mov     dword [ss:PATM_TEMP_EDI], edi 
    1246     mov     dword [ss:PATM_TEMP_RESTORE_FLAGS], PATM_RESTORE_EAX | PATM_RESTORE_ECX | PATM_RESTORE_EDI 
    1247     mov     eax, PATM_ACTION_PENDING_IRQ_AFTER_IRET 
    1248     lock    or dword [ss:PATM_PENDINGACTION], eax 
    1249     mov     ecx, PATM_ACTION_MAGIC 
    1250     mov     edi, PATM_CURINSTRADDR 
    1251 
    1252     popfd 
    1253     db      0fh, 0bh        ; illegal instr (hardcoded assumption in PATMHandleIllegalInstrTrap) 
    1254     ; does not return 
     1240    jz      iret_continue
     1241
     1242; Go to our hypervisor trap handler to dispatch the pending irq
     1243    mov     dword [ss:PATM_TEMP_EAX], eax
     1244    mov     dword [ss:PATM_TEMP_ECX], ecx
     1245    mov     dword [ss:PATM_TEMP_EDI], edi
     1246    mov     dword [ss:PATM_TEMP_RESTORE_FLAGS], PATM_RESTORE_EAX | PATM_RESTORE_ECX | PATM_RESTORE_EDI
     1247    mov     eax, PATM_ACTION_PENDING_IRQ_AFTER_IRET
     1248    lock    or dword [ss:PATM_PENDINGACTION], eax
     1249    mov     ecx, PATM_ACTION_MAGIC
     1250    mov     edi, PATM_CURINSTRADDR
     1251
     1252    popfd
     1253    db      0fh, 0bh        ; illegal instr (hardcoded assumption in PATMHandleIllegalInstrTrap)
     1254    ; does not return
    12551255
    12561256iret_continue :
     
    13791379    DD      0
    13801380%endif
    1381     DD      PATM_VM_FORCEDACTIONS 
    1382     DD      0 
    1383     DD      PATM_TEMP_EAX 
    1384     DD      0 
    1385     DD      PATM_TEMP_ECX 
    1386     DD      0 
    1387     DD      PATM_TEMP_EDI 
    1388     DD      0 
    1389     DD      PATM_TEMP_RESTORE_FLAGS 
    1390     DD      0 
    1391     DD      PATM_PENDINGACTION 
    1392     DD      0 
    1393     DD      PATM_CURINSTRADDR 
    1394     DD      0 
     1381    DD      PATM_VM_FORCEDACTIONS
     1382    DD      0
     1383    DD      PATM_TEMP_EAX
     1384    DD      0
     1385    DD      PATM_TEMP_ECX
     1386    DD      0
     1387    DD      PATM_TEMP_EDI
     1388    DD      0
     1389    DD      PATM_TEMP_RESTORE_FLAGS
     1390    DD      0
     1391    DD      PATM_PENDINGACTION
     1392    DD      0
     1393    DD      PATM_CURINSTRADDR
     1394    DD      0
    13951395    DD      PATM_VMFLAGS
    13961396    DD      0
  • trunk/src/VBox/VMM/PGM.cpp

    r2981 r3696  
    198198
    199199
    200 #if 1/// @todo ndef __AMD64__
     200#if 1/// @todo ndef RT_ARCH_AMD64
    201201/*
    202202 * Shadow - 32-bit mode
     
    274274#undef PGM_SHW_NAME_GC_STR
    275275#undef PGM_SHW_NAME_R0_STR
    276 #endif /* !__AMD64__ */
     276#endif /* !RT_ARCH_AMD64 */
    277277
    278278
  • trunk/src/VBox/VMM/TRPM.cpp

    r2981 r3696  
    11611161    {
    11621162        /*
    1163          * Only replace handlers for which we are 100% certain there won't be 
    1164          * any host interrupts. 
     1163         * Only replace handlers for which we are 100% certain there won't be
     1164         * any host interrupts.
    11651165         *
    11661166         * 0x2E is safe on Windows because it's the system service interrupt gate. Not
     
    11711171         * and will therefor never assign hardware interrupts to 0x80.
    11721172         *
    1173          * Exactly why 0x80 is safe on 32-bit Windows is a bit hazy, but it seems 
    1174          * to work ok... However on 64-bit Vista (SMP?) is doesn't work reliably. 
     1173         * Exactly why 0x80 is safe on 32-bit Windows is a bit hazy, but it seems
     1174         * to work ok... However on 64-bit Vista (SMP?) is doesn't work reliably.
    11751175         * Booting Linux/BSD guest will cause system lockups on most of the computers.
    11761176         *
    11771177         * PORTME - Check if your host keeps any of these gates free from hw ints.
    1178          * 
     1178         *
    11791179         * Note! SELMR3SyncTSS also has code related to this interrupt handler replacing.
    11801180         */
    11811181        /** @todo handle those dependencies better! */
    11821182        /** @todo Solve this in a proper manner. see defect #1186 */
    1183 #if defined(__WIN__) && defined(__X86__)
     1183#if defined(RT_OS_WINDOWS) && defined(RT_ARCH_X86)
    11841184        if (iTrap == 0x2E || iTrap == 0x80)
    1185 #elif defined(__LINUX__)
     1185#elif defined(RT_OS_LINUX)
    11861186        if (iTrap == 0x80)
    11871187#else
     
    13531353                /* Must check pending forced actions as our IDT or GDT might be out of sync */
    13541354                EMR3CheckRawForcedActions(pVM);
    1355                
     1355
    13561356                /* There's a handler -> let's execute it in raw mode */
    13571357                rc = TRPMForwardTrap(pVM, CPUMCTX2CORE(pCtx), u8Interrupt, 0, TRPM_TRAP_NO_ERRORCODE, enmEvent);
  • trunk/src/VBox/VMM/VM.cpp

    r2984 r3696  
    306306                break;
    307307            case VERR_VM_DRIVER_NOT_ACCESSIBLE:
    308 #ifdef __LINUX__
     308#ifdef RT_OS_LINUX
    309309                pszError = N_("The VirtualBox kernel driver is not accessible to the current "
    310310                              "user. Make sure that the user has write permissions for "
     
    316316                break;
    317317            case VERR_VM_DRIVER_NOT_INSTALLED:
    318 #ifdef __LINUX__
     318#ifdef RT_OS_LINUX
    319319                pszError = N_("VirtualBox kernel driver not installed. The vboxdrv kernel module "
    320320                              "was either not loaded or /dev/vboxdrv was not created for some "
  • trunk/src/VBox/VMM/VMM.cpp

    r3324 r3696  
    181181{
    182182    NULL, /* invalid entry */
    183 #ifndef __AMD64__
     183#ifndef RT_ARCH_AMD64
    184184    &vmmR3Switcher32BitTo32Bit_Def,
    185185    &vmmR3Switcher32BitToPAE_Def,
     
    683683#else /* 64-bit GC */
    684684        CPUMPushHyper(pVM, u64TS);                      /* Param 3: The program startup TS. */
    685 #endif       
     685#endif
    686686        CPUMPushHyper(pVM, VBOX_VERSION);               /* Param 2: Version argument. */
    687687        CPUMPushHyper(pVM, VMMGC_DO_VMMGC_INIT);        /* Param 1: Operation. */
     
    12551255            }
    12561256
    1257 #if defined(__AMD64__) || defined(VBOX_WITH_HYBIRD_32BIT_KERNEL)
     1257#if defined(RT_ARCH_AMD64) || defined(VBOX_WITH_HYBIRD_32BIT_KERNEL)
    12581258            /*
    12591259             * 64-bit HC pointer fixup to (HC) target within the code (32-bit offset).
     
    12741274            {
    12751275                Assert(offSrc < pSwitcher->cbCode);
    1276 #if defined(__DARWIN__) && defined(VBOX_WITH_HYBIRD_32BIT_KERNEL)
     1276#if defined(RT_OS_DARWIN) && defined(VBOX_WITH_HYBIRD_32BIT_KERNEL)
    12771277                *uSrc.pu16 = 0x80; /* KERNEL64_CS from i386/seg.h */
    12781278#else
     
    17981798{
    17991799    /*
    1800      * This really needs some careful tuning. While we shouldn't be too gready since 
     1800     * This really needs some careful tuning. While we shouldn't be too gready since
    18011801     * that'll cause the rest of the system to stop up, we shouldn't be too nice either
    18021802     * because that'll cause us to stop up.
    18031803     *
    1804      * The current logic is to use the default interval when there is no lag worth 
     1804     * The current logic is to use the default interval when there is no lag worth
    18051805     * mentioning, but when we start accumulating lag we don't bother yielding at all.
    18061806     *
  • trunk/src/VBox/VMM/VMMAll/CPUMAllA.asm

    r2988 r3696  
    4040;; @def CPUM_REG
    4141; The register which we load the CPUM pointer into.
    42 %ifdef __AMD64__
     42%ifdef RT_ARCH_AMD64
    4343 %define CPUM_REG   rdx
    4444%else
     
    9595    ; loaded the GC FPU. Because if we have, this is an trap for the guest - raw ring-3.
    9696    ;
    97 %ifdef __AMD64__
    98  %ifdef __WIN__
     97%ifdef RT_ARCH_AMD64
     98 %ifdef RT_OS_WINDOWS
    9999    mov     xDX, rcx
    100100 %else
     
    115115    mov     eax, [xDX + CPUM.Guest.cr0]
    116116    and     eax, X86_CR0_MP | X86_CR0_EM | X86_CR0_TS
    117 %ifdef __AMD64__
     117%ifdef RT_ARCH_AMD64
    118118    lea     r8, [hlfpuajmp1 wrt rip]
    119119    jmp     qword [rax*4 + r8]
     
    150150%ifndef IN_RING3 ; IN_GC or IN_RING0
    151151    mov     xCX, cr0
    152  %ifdef __AMD64__
     152 %ifdef RT_ARCH_AMD64
    153153    lea     r8, [hlfpu_afFlags wrt rip]
    154154    and     rcx, [rax*4 + r8]                   ; calc the new cr0 flags.
     
    160160    mov     cr0, xAX                            ; clear flags so we don't trap here.
    161161%endif
    162 %ifndef __AMD64__
     162%ifndef RT_ARCH_AMD64
    163163    test    dword [xDX + CPUM.CPUFeatures.edx], X86_CPUID_FEATURE_EDX_FXSR
    164164    jz short hlfpua_no_fxsave
     
    176176    ret
    177177
    178 %ifndef __AMD64__
     178%ifndef RT_ARCH_AMD64
    179179; legacy support.
    180180hlfpua_no_fxsave:
     
    191191    frstor  [xDX + CPUM.Guest.fpu]
    192192    jmp near hlfpua_finished_switch
    193 %endif ; !__AMD64__
     193%endif ; !RT_ARCH_AMD64
    194194
    195195
     
    212212align 16
    213213BEGINPROC CPUMRestoreHostFPUStateAsm
    214 %ifdef __AMD64__
    215  %ifdef __WIN__
     214%ifdef RT_ARCH_AMD64
     215 %ifdef RT_OS_WINDOWS
    216216    mov     xDX, rcx
    217217 %else
  • trunk/src/VBox/VMM/VMMAll/EMAllA.asm

    r2988 r3696  
    2929;; @def MY_PTR_REG
    3030; The register we use for value pointers (And,Or,Dec,Inc).
    31 %ifdef __AMD64__
     31%ifdef RT_ARCH_AMD64
    3232%define MY_PTR_REG  rcx
    3333%else
     
    3737;; @def MY_RET_REG
    3838; The register we return the result in.
    39 %ifdef __AMD64__
     39%ifdef RT_ARCH_AMD64
    4040%define MY_RET_REG  rax
    4141%else
     
    5757align 16
    5858BEGINPROC   EMEmulateCmp
    59 %ifdef __AMD64__
     59%ifdef RT_ARCH_AMD64
    6060%ifdef __WIN64__
    6161    mov     rax, r8                     ; eax = size of parameters
     
    6565    mov     rdx, rsi                    ; rdx = second parameter
    6666%endif  ; !__WIN64__
    67 %else   ; !__AMD64__
     67%else   ; !RT_ARCH_AMD64
    6868    mov     eax, [esp + 0ch]            ; eax = size of parameters
    6969    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    7272
    7373    ; switch on size
    74 %ifdef __AMD64__
    75     cmp     al, 8
    76     je short .do_qword                  ; 8 bytes variant
    77 %endif
    78     cmp     al, 4
    79     je short .do_dword                  ; 4 bytes variant
    80     cmp     al, 2
    81     je short .do_word                   ; 2 byte variant
    82     cmp     al, 1
    83     je short .do_byte                   ; 1 bytes variant
    84     int3
    85 
    86     ; workers
    87 %ifdef __AMD64__
     74%ifdef RT_ARCH_AMD64
     75    cmp     al, 8
     76    je short .do_qword                  ; 8 bytes variant
     77%endif
     78    cmp     al, 4
     79    je short .do_dword                  ; 4 bytes variant
     80    cmp     al, 2
     81    je short .do_word                   ; 2 byte variant
     82    cmp     al, 1
     83    je short .do_byte                   ; 1 bytes variant
     84    int3
     85
     86    ; workers
     87%ifdef RT_ARCH_AMD64
    8888.do_qword:
    8989    cmp     rcx, rdx                    ; do 8 bytes CMP
     
    122122align 16
    123123BEGINPROC   EMEmulateAnd
    124 %ifdef __AMD64__
     124%ifdef RT_ARCH_AMD64
    125125%ifdef __WIN64__
    126126    mov     rax, r8                     ; eax = size of parameters
     
    130130    mov     rdx, rsi                    ; rdx = second parameter
    131131%endif  ; !__WIN64__
    132 %else   ; !__AMD64__
     132%else   ; !RT_ARCH_AMD64
    133133    mov     eax, [esp + 0ch]            ; eax = size of parameters
    134134    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    137137
    138138    ; switch on size
    139 %ifdef __AMD64__
    140     cmp     al, 8
    141     je short .do_qword                  ; 8 bytes variant
    142 %endif
    143     cmp     al, 4
    144     je short .do_dword                  ; 4 bytes variant
    145     cmp     al, 2
    146     je short .do_word                   ; 2 byte variant
    147     cmp     al, 1
    148     je short .do_byte                   ; 1 bytes variant
    149     int3
    150 
    151     ; workers
    152 %ifdef __AMD64__
     139%ifdef RT_ARCH_AMD64
     140    cmp     al, 8
     141    je short .do_qword                  ; 8 bytes variant
     142%endif
     143    cmp     al, 4
     144    je short .do_dword                  ; 4 bytes variant
     145    cmp     al, 2
     146    je short .do_word                   ; 2 byte variant
     147    cmp     al, 1
     148    je short .do_byte                   ; 1 bytes variant
     149    int3
     150
     151    ; workers
     152%ifdef RT_ARCH_AMD64
    153153.do_qword:
    154154    and     [MY_PTR_REG], rdx           ; do 8 bytes AND
     
    187187align 16
    188188BEGINPROC   EMEmulateOr
    189 %ifdef __AMD64__
     189%ifdef RT_ARCH_AMD64
    190190%ifdef __WIN64__
    191191    mov     rax, r8                     ; eax = size of parameters
     
    195195    mov     rdx, rsi                    ; rdx = second parameter
    196196%endif  ; !__WIN64__
    197 %else   ; !__AMD64__
     197%else   ; !RT_ARCH_AMD64
    198198    mov     eax, [esp + 0ch]            ; eax = size of parameters
    199199    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    202202
    203203    ; switch on size
    204 %ifdef __AMD64__
    205     cmp     al, 8
    206     je short .do_qword                  ; 8 bytes variant
    207 %endif
    208     cmp     al, 4
    209     je short .do_dword                  ; 4 bytes variant
    210     cmp     al, 2
    211     je short .do_word                   ; 2 byte variant
    212     cmp     al, 1
    213     je short .do_byte                   ; 1 bytes variant
    214     int3
    215 
    216     ; workers
    217 %ifdef __AMD64__
     204%ifdef RT_ARCH_AMD64
     205    cmp     al, 8
     206    je short .do_qword                  ; 8 bytes variant
     207%endif
     208    cmp     al, 4
     209    je short .do_dword                  ; 4 bytes variant
     210    cmp     al, 2
     211    je short .do_word                   ; 2 byte variant
     212    cmp     al, 1
     213    je short .do_byte                   ; 1 bytes variant
     214    int3
     215
     216    ; workers
     217%ifdef RT_ARCH_AMD64
    218218.do_qword:
    219219    or      [MY_PTR_REG], rdx           ; do 8 bytes OR
     
    251251align 16
    252252BEGINPROC   EMEmulateXor
    253 %ifdef __AMD64__
     253%ifdef RT_ARCH_AMD64
    254254%ifdef __WIN64__
    255255    mov     rax, r8                     ; eax = size of parameters
     
    259259    mov     rdx, rsi                    ; rdx = second parameter
    260260%endif  ; !__WIN64__
    261 %else   ; !__AMD64__
     261%else   ; !RT_ARCH_AMD64
    262262    mov     eax, [esp + 0ch]            ; eax = size of parameters
    263263    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    266266
    267267    ; switch on size
    268 %ifdef __AMD64__
    269     cmp     al, 8
    270     je short .do_qword                  ; 8 bytes variant
    271 %endif
    272     cmp     al, 4
    273     je short .do_dword                  ; 4 bytes variant
    274     cmp     al, 2
    275     je short .do_word                   ; 2 byte variant
    276     cmp     al, 1
    277     je short .do_byte                   ; 1 bytes variant
    278     int3
    279 
    280     ; workers
    281 %ifdef __AMD64__
     268%ifdef RT_ARCH_AMD64
     269    cmp     al, 8
     270    je short .do_qword                  ; 8 bytes variant
     271%endif
     272    cmp     al, 4
     273    je short .do_dword                  ; 4 bytes variant
     274    cmp     al, 2
     275    je short .do_word                   ; 2 byte variant
     276    cmp     al, 1
     277    je short .do_byte                   ; 1 bytes variant
     278    int3
     279
     280    ; workers
     281%ifdef RT_ARCH_AMD64
    282282.do_qword:
    283283    xor     [MY_PTR_REG], rdx           ; do 8 bytes XOR
     
    314314align 16
    315315BEGINPROC   EMEmulateInc
    316 %ifdef __AMD64__
     316%ifdef RT_ARCH_AMD64
    317317%ifdef __WIN64__
    318318    mov     rax, rdx                    ; eax = size of parameters
     
    321321    mov     rcx, rdi                    ; rcx = first parameter
    322322%endif  ; !__WIN64__
    323 %else   ; !__AMD64__
     323%else   ; !RT_ARCH_AMD64
    324324    mov     eax, [esp + 08h]            ; eax = size of parameters
    325325    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    327327
    328328    ; switch on size
    329 %ifdef __AMD64__
    330     cmp     al, 8
    331     je short .do_qword                  ; 8 bytes variant
    332 %endif
    333     cmp     al, 4
    334     je short .do_dword                  ; 4 bytes variant
    335     cmp     al, 2
    336     je short .do_word                   ; 2 byte variant
    337     cmp     al, 1
    338     je short .do_byte                   ; 1 bytes variant
    339     int3
    340 
    341     ; workers
    342 %ifdef __AMD64__
     329%ifdef RT_ARCH_AMD64
     330    cmp     al, 8
     331    je short .do_qword                  ; 8 bytes variant
     332%endif
     333    cmp     al, 4
     334    je short .do_dword                  ; 4 bytes variant
     335    cmp     al, 2
     336    je short .do_word                   ; 2 byte variant
     337    cmp     al, 1
     338    je short .do_byte                   ; 1 bytes variant
     339    int3
     340
     341    ; workers
     342%ifdef RT_ARCH_AMD64
    343343.do_qword:
    344344    inc     qword [MY_PTR_REG]          ; do 8 bytes INC
     
    377377align 16
    378378BEGINPROC   EMEmulateDec
    379 %ifdef __AMD64__
     379%ifdef RT_ARCH_AMD64
    380380%ifdef __WIN64__
    381381    mov     rax, rdx                    ; eax = size of parameters
     
    384384    mov     rcx, rdi                    ; rcx = first parameter
    385385%endif  ; !__WIN64__
    386 %else   ; !__AMD64__
     386%else   ; !RT_ARCH_AMD64
    387387    mov     eax, [esp + 08h]            ; eax = size of parameters
    388388    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    390390
    391391    ; switch on size
    392 %ifdef __AMD64__
    393     cmp     al, 8
    394     je short .do_qword                  ; 8 bytes variant
    395 %endif
    396     cmp     al, 4
    397     je short .do_dword                  ; 4 bytes variant
    398     cmp     al, 2
    399     je short .do_word                   ; 2 byte variant
    400     cmp     al, 1
    401     je short .do_byte                   ; 1 bytes variant
    402     int3
    403 
    404     ; workers
    405 %ifdef __AMD64__
     392%ifdef RT_ARCH_AMD64
     393    cmp     al, 8
     394    je short .do_qword                  ; 8 bytes variant
     395%endif
     396    cmp     al, 4
     397    je short .do_dword                  ; 4 bytes variant
     398    cmp     al, 2
     399    je short .do_word                   ; 2 byte variant
     400    cmp     al, 1
     401    je short .do_byte                   ; 1 bytes variant
     402    int3
     403
     404    ; workers
     405%ifdef RT_ARCH_AMD64
    406406.do_qword:
    407407    dec     qword [MY_PTR_REG]          ; do 8 bytes DEC
     
    440440align 16
    441441BEGINPROC   EMEmulateAdd
    442 %ifdef __AMD64__
     442%ifdef RT_ARCH_AMD64
    443443%ifdef __WIN64__
    444444    mov     rax, r8                     ; eax = size of parameters
     
    448448    mov     rdx, rsi                    ; rdx = second parameter
    449449%endif  ; !__WIN64__
    450 %else   ; !__AMD64__
     450%else   ; !RT_ARCH_AMD64
    451451    mov     eax, [esp + 0ch]            ; eax = size of parameters
    452452    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    455455
    456456    ; switch on size
    457 %ifdef __AMD64__
    458     cmp     al, 8
    459     je short .do_qword                  ; 8 bytes variant
    460 %endif
    461     cmp     al, 4
    462     je short .do_dword                  ; 4 bytes variant
    463     cmp     al, 2
    464     je short .do_word                   ; 2 byte variant
    465     cmp     al, 1
    466     je short .do_byte                   ; 1 bytes variant
    467     int3
    468 
    469     ; workers
    470 %ifdef __AMD64__
     457%ifdef RT_ARCH_AMD64
     458    cmp     al, 8
     459    je short .do_qword                  ; 8 bytes variant
     460%endif
     461    cmp     al, 4
     462    je short .do_dword                  ; 4 bytes variant
     463    cmp     al, 2
     464    je short .do_word                   ; 2 byte variant
     465    cmp     al, 1
     466    je short .do_byte                   ; 1 bytes variant
     467    int3
     468
     469    ; workers
     470%ifdef RT_ARCH_AMD64
    471471.do_qword:
    472472    add     [MY_PTR_REG], rdx           ; do 8 bytes ADD
     
    504504align 16
    505505BEGINPROC   EMEmulateAdcWithCarrySet
    506 %ifdef __AMD64__
     506%ifdef RT_ARCH_AMD64
    507507%ifdef __WIN64__
    508508    mov     rax, r8                     ; eax = size of parameters
     
    512512    mov     rdx, rsi                    ; rdx = second parameter
    513513%endif  ; !__WIN64__
    514 %else   ; !__AMD64__
     514%else   ; !RT_ARCH_AMD64
    515515    mov     eax, [esp + 0ch]            ; eax = size of parameters
    516516    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    519519
    520520    ; switch on size
    521 %ifdef __AMD64__
    522     cmp     al, 8
    523     je short .do_qword                  ; 8 bytes variant
    524 %endif
    525     cmp     al, 4
    526     je short .do_dword                  ; 4 bytes variant
    527     cmp     al, 2
    528     je short .do_word                   ; 2 byte variant
    529     cmp     al, 1
    530     je short .do_byte                   ; 1 bytes variant
    531     int3
    532 
    533     ; workers
    534 %ifdef __AMD64__
     521%ifdef RT_ARCH_AMD64
     522    cmp     al, 8
     523    je short .do_qword                  ; 8 bytes variant
     524%endif
     525    cmp     al, 4
     526    je short .do_dword                  ; 4 bytes variant
     527    cmp     al, 2
     528    je short .do_word                   ; 2 byte variant
     529    cmp     al, 1
     530    je short .do_byte                   ; 1 bytes variant
     531    int3
     532
     533    ; workers
     534%ifdef RT_ARCH_AMD64
    535535.do_qword:
    536536    stc     ; set carry flag
     
    572572align 16
    573573BEGINPROC   EMEmulateSub
    574 %ifdef __AMD64__
     574%ifdef RT_ARCH_AMD64
    575575%ifdef __WIN64__
    576576    mov     rax, r8                     ; eax = size of parameters
     
    580580    mov     rdx, rsi                    ; rdx = second parameter
    581581%endif  ; !__WIN64__
    582 %else   ; !__AMD64__
     582%else   ; !RT_ARCH_AMD64
    583583    mov     eax, [esp + 0ch]            ; eax = size of parameters
    584584    mov     ecx, [esp + 04h]            ; ecx = first parameter
     
    587587
    588588    ; switch on size
    589 %ifdef __AMD64__
    590     cmp     al, 8
    591     je short .do_qword                  ; 8 bytes variant
    592 %endif
    593     cmp     al, 4
    594     je short .do_dword                  ; 4 bytes variant
    595     cmp     al, 2
    596     je short .do_word                   ; 2 byte variant
    597     cmp     al, 1
    598     je short .do_byte                   ; 1 bytes variant
    599     int3
    600 
    601     ; workers
    602 %ifdef __AMD64__
     589%ifdef RT_ARCH_AMD64
     590    cmp     al, 8
     591    je short .do_qword                  ; 8 bytes variant
     592%endif
     593    cmp     al, 4
     594    je short .do_dword                  ; 4 bytes variant
     595    cmp     al, 2
     596    je short .do_word                   ; 2 byte variant
     597    cmp     al, 1
     598    je short .do_byte                   ; 1 bytes variant
     599    int3
     600
     601    ; workers
     602%ifdef RT_ARCH_AMD64
    603603.do_qword:
    604604    sub     [MY_PTR_REG], rdx           ; do 8 bytes SUB
     
    636636align 16
    637637BEGINPROC   EMEmulateBtr
    638 %ifdef __AMD64__
     638%ifdef RT_ARCH_AMD64
    639639%ifndef __WIN64__
    640640    mov     rcx, rdi                    ; rcx = first parameter
    641641    mov     rdx, rsi                    ; rdx = second parameter
    642642%endif  ; !__WIN64__
    643 %else   ; !__AMD64__
     643%else   ; !RT_ARCH_AMD64
    644644    mov     ecx, [esp + 04h]            ; ecx = first parameter
    645645    mov     edx, [esp + 08h]            ; edx = second parameter
     
    666666align 16
    667667BEGINPROC   EMEmulateBtc
    668 %ifdef __AMD64__
     668%ifdef RT_ARCH_AMD64
    669669%ifndef __WIN64__
    670670    mov     rcx, rdi                    ; rcx = first parameter
    671671    mov     rdx, rsi                    ; rdx = second parameter
    672672%endif  ; !__WIN64__
    673 %else   ; !__AMD64__
     673%else   ; !RT_ARCH_AMD64
    674674    mov     ecx, [esp + 04h]            ; ecx = first parameter
    675675    mov     edx, [esp + 08h]            ; edx = second parameter
     
    696696align 16
    697697BEGINPROC   EMEmulateBts
    698 %ifdef __AMD64__
     698%ifdef RT_ARCH_AMD64
    699699%ifndef __WIN64__
    700700    mov     rcx, rdi                    ; rcx = first parameter
    701701    mov     rdx, rsi                    ; rdx = second parameter
    702702%endif  ; !__WIN64__
    703 %else   ; !__AMD64__
     703%else   ; !RT_ARCH_AMD64
    704704    mov     ecx, [esp + 04h]            ; ecx = first parameter
    705705    mov     edx, [esp + 08h]            ; edx = second parameter
  • trunk/src/VBox/VMM/VMMAll/PGMAll.cpp

    r2981 r3696  
    8484
    8585
    86 #if 1///@todo ndef __AMD64__
     86#if 1///@todo ndef RT_ARCH_AMD64
    8787/*
    8888 * Shadow - 32-bit mode
     
    132132#undef PGM_SHW_TYPE
    133133#undef PGM_SHW_NAME
    134 #endif /* !__AMD64__ */
     134#endif /* !RT_ARCH_AMD64 */
    135135
    136136
  • trunk/src/VBox/VMM/VMMAll/TMAllVirtual.cpp

    r3393 r3696  
    137137        u64Delta = u32UpdateIntervalTSC;
    138138    }
    139 #if !defined(_MSC_VER) || defined(__AMD64__) /* GCC makes very pretty code from these two inline calls, while MSC cannot. */
     139#if !defined(_MSC_VER) || defined(RT_ARCH_AMD64) /* GCC makes very pretty code from these two inline calls, while MSC cannot. */
    140140    u64Delta = ASMMult2xU32RetU64((uint32_t)u64Delta, u32NanoTSFactor0);
    141141    u64Delta = ASMDivU64ByU32RetU32(u64Delta, u32UpdateIntervalTSC);
  • trunk/src/VBox/VMM/VMMGC/PGMGC.cpp

    r2981 r3696  
    5252
    5353
    54 #ifndef __AMD64__
     54#ifndef RT_ARCH_AMD64
    5555/*
    5656 * Shadow - 32-bit mode
     
    9292#undef PGM_SHW_TYPE
    9393#undef PGM_SHW_NAME
    94 #endif /* !__AMD64__ */
     94#endif /* !RT_ARCH_AMD64 */
    9595
    9696
  • trunk/src/VBox/VMM/VMMInternal.h

    r2981 r3696  
    113113#if HC_ARCH_BITS == 64
    114114    uint64_t    rbx;
    115 # ifdef __WIN__
     115# ifdef RT_OS_WINDOWS
    116116    uint64_t    rsi;
    117117    uint64_t    rdi;
  • trunk/src/VBox/VMM/VMMInternal.mac

    r2988 r3696  
    2323
    2424struc VMMR0JMPBUF
    25 %ifdef __X86__
     25%ifdef RT_ARCH_X86
    2626    ; traditional jmp_buf
    2727    .ebx            resd 1
     
    4040    .SpResume       resd 1
    4141%endif
    42 %ifdef __AMD64__
     42%ifdef RT_ARCH_AMD64
    4343    ; traditional jmp_buf
    4444    .rbx            resq 1
    45 %ifdef __WIN__
     45%ifdef RT_OS_WINDOWS
    4646    .rsi            resq 1
    4747    .rdi            resq 1
  • trunk/src/VBox/VMM/VMMR0/HWACCMR0A.asm

    r3151 r3696  
    2929%include "VBox/x86.mac"
    3030
    31 %ifdef __OS2__ ;; @todo build cvs nasm like on OS X.
     31%ifdef RT_OS_OS2 ;; @todo build cvs nasm like on OS X.
    3232 %macro vmwrite 2,
    3333    int3
     
    5454; @param 2  16-bit regsiter name for \a 1.
    5555
    56 %ifdef __AMD64__
     56%ifdef RT_ARCH_AMD64
    5757 %ifdef ASM_CALL64_GCC
    5858  %macro MYPUSHAD 0
     
    106106    push    rax
    107107    push    gs
    108  %endmacro 
     108 %endmacro
    109109
    110110 %macro MYPOPSEGS 2
     
    126126 %endmacro
    127127
    128 %else ; __X86__
     128%else ; RT_ARCH_X86
    129129  %macro MYPUSHAD 0
    130130    pushad
    131   %endmacro 
     131  %endmacro
    132132  %macro MYPOPAD 0
    133133    popad
     
    135135
    136136  %macro MYPUSHSEGS 2
    137     push    ds 
    138     push    es 
    139     push    fs 
     137    push    ds
     138    push    es
     139    push    fs
    140140    push    gs
    141   %endmacro 
     141  %endmacro
    142142  %macro MYPOPSEGS 2
    143143    pop     gs
     
    164164
    165165    ;/* First we have to save some final CPU context registers. */
    166 %ifdef __AMD64__
     166%ifdef RT_ARCH_AMD64
    167167    mov     rax, qword .vmlaunch_done
    168168    push    rax
     
    194194
    195195    ;/* Save the Guest CPU context pointer. */
    196 %ifdef __AMD64__
     196%ifdef RT_ARCH_AMD64
    197197 %ifdef ASM_CALL64_GCC
    198198    mov     rsi, rdi ; pCtx
     
    250250
    251251    push    xDI
    252     mov     xDI, [xSP + xS * 2]         ; pCtx 
     252    mov     xDI, [xSP + xS * 2]         ; pCtx
    253253
    254254    mov     [ss:xDI + CPUMCTX.eax], eax
     
    258258    mov     [ss:xDI + CPUMCTX.esi], esi
    259259    mov     [ss:xDI + CPUMCTX.ebp], ebp
    260 %ifdef __AMD64__
     260%ifdef RT_ARCH_AMD64
    261261    pop     xAX                                 ; the guest edi we pushed above
    262262    mov     dword [ss:xDI + CPUMCTX.edi], eax
     
    339339
    340340    ;/* First we have to save some final CPU context registers. */
    341 %ifdef __AMD64__
     341%ifdef RT_ARCH_AMD64
    342342    mov     rax, qword .vmresume_done
    343343    push    rax
     
    369369
    370370    ;/* Save the Guest CPU context pointer. */
    371 %ifdef __AMD64__
     371%ifdef RT_ARCH_AMD64
    372372 %ifdef ASM_CALL64_GCC
    373373    mov     rsi, rdi        ; pCtx
     
    425425
    426426    push    xDI
    427     mov     xDI, [xSP + xS * 2]         ; pCtx 
     427    mov     xDI, [xSP + xS * 2]         ; pCtx
    428428
    429429    mov     [ss:xDI + CPUMCTX.eax], eax
     
    433433    mov     [ss:xDI + CPUMCTX.esi], esi
    434434    mov     [ss:xDI + CPUMCTX.ebp], ebp
    435 %ifdef __AMD64__
     435%ifdef RT_ARCH_AMD64
    436436    pop     xAX                                 ; the guest edi we pushed above
    437437    mov     dword [ss:xDI + CPUMCTX.edi], eax
     
    500500
    501501
    502 %ifdef __AMD64__
     502%ifdef RT_ARCH_AMD64
    503503;/**
    504504; * Executes VMWRITE
     
    569569;DECLASM(int) VMXEnable(RTHCPHYS HCPhysVMXOn);
    570570BEGINPROC VMXEnable
    571 %ifdef __AMD64__
     571%ifdef RT_ARCH_AMD64
    572572    xor     rax, rax
    573573 %ifdef ASM_CALL64_GCC
     
    590590
    591591.the_end:
    592 %ifdef __AMD64__
     592%ifdef RT_ARCH_AMD64
    593593    add     rsp, 8
    594594%endif
     
    615615;DECLASM(int) VMXClearVMCS(RTHCPHYS HCPhysVMCS);
    616616BEGINPROC VMXClearVMCS
    617 %ifdef __AMD64__
     617%ifdef RT_ARCH_AMD64
    618618    xor     rax, rax
    619619 %ifdef ASM_CALL64_GCC
     
    630630    mov     eax, VERR_VMX_INVALID_VMCS_PTR
    631631.the_end:
    632 %ifdef __AMD64__
     632%ifdef RT_ARCH_AMD64
    633633    add     rsp, 8
    634634%endif
     
    645645;DECLASM(int) VMXActivateVMCS(RTHCPHYS HCPhysVMCS);
    646646BEGINPROC VMXActivateVMCS
    647 %ifdef __AMD64__
     647%ifdef RT_ARCH_AMD64
    648648    xor     rax, rax
    649649 %ifdef ASM_CALL64_GCC
     
    660660    mov     eax, VERR_VMX_INVALID_VMCS_PTR
    661661.the_end:
    662 %ifdef __AMD64__
     662%ifdef RT_ARCH_AMD64
    663663    add     rsp, 8
    664664%endif
     
    666666ENDPROC VMXActivateVMCS
    667667
    668 %endif ; __AMD64__
     668%endif ; RT_ARCH_AMD64
    669669
    670670
     
    678678; */
    679679BEGINPROC SVMVMRun
    680 %ifdef __AMD64__ ; fake a cdecl stack frame - I'm lazy, sosume.
     680%ifdef RT_ARCH_AMD64 ; fake a cdecl stack frame - I'm lazy, sosume.
    681681 %ifdef ASM_CALL64_GCC
    682682    push    rdx
     
    708708    ;/* Save the Guest CPU context pointer. */
    709709    mov     xSI, [xBP + xS*2 + RTHCPHYS_CB*2]   ; pCtx
    710     push    xSI                     ; push for saving the state at the end 
     710    push    xSI                     ; push for saving the state at the end
    711711
    712712    ; Restore CR2
     
    768768
    769769    pop     xBP
    770 %ifdef __AMD64__
     770%ifdef RT_ARCH_AMD64
    771771    add     xSP, 4*xS
    772772%endif
     
    774774ENDPROC SVMVMRun
    775775
    776 %ifdef __AMD64__
    777 %ifdef __WIN__
     776%ifdef RT_ARCH_AMD64
     777%ifdef RT_OS_WINDOWS
    778778
    779779;;
    780780; Executes INVLPGA
    781 ; 
     781;
    782782; @param   pPageGC  msc:ecx  gcc:edi  x86:[esp+04]  Virtual page to invalidate
    783783; @param   uASID    msc:edx  gcc:esi  x86:[esp+08]  Tagged TLB id
    784 ; 
     784;
    785785;DECLASM(void) SVMInvlpgA(RTGCPTR pPageGC, uint32_t uASID);
    786786BEGINPROC SVMInvlpgA
    787 %ifdef __AMD64__
     787%ifdef RT_ARCH_AMD64
    788788 %ifdef ASM_CALL64_GCC
    789789    mov     eax, edi                    ;; @todo 64-bit guest.
  • trunk/src/VBox/VMM/VMMR0/TRPMR0A.asm

    r2988 r3696  
    4141    mov     xBP, xSP
    4242
    43 %ifdef __AMD64__
     43%ifdef RT_ARCH_AMD64
    4444    mov     r11, rsp                    ; save the RSP for the iret frame.
    4545    and     rsp, 0fffffffffffffff0h     ; align the stack. (do it unconditionally saves some jump mess)
     
    146146;
    147147BEGINPROC trpmR0InterruptDispatcher
    148 %ifdef __AMD64__
     148%ifdef RT_ARCH_AMD64
    149149    lea     rsp, [rsp + 10h]            ; skip pVM and uOperation
    150150    swapgs
    151151    db 48h
    152152    retf
    153 %else  ; !__AMD64__
     153%else  ; !RT_ARCH_AMD64
    154154    add     esp, byte 4                 ; skip pVM
    155155    pop     ds
     
    157157    pop     es
    158158    retf
    159 %endif ; !__AMD64__
     159%endif ; !RT_ARCH_AMD64
    160160ENDPROC   trpmR0InterruptDispatcher
    161161
     
    166166; Issues a software interrupt to the specified interrupt vector.
    167167;
    168 ; @param   uActiveVector   x86:[esp+4]   msc:rcx  gcc:rdi   The vector number. 
     168; @param   uActiveVector   x86:[esp+4]   msc:rcx  gcc:rdi   The vector number.
    169169;
    170170;DECLASM(void) trpmR0DispatchHostInterruptSimple(RTUINT uActiveVector);
    171171BEGINPROC trpmR0DispatchHostInterruptSimple
    172 %ifdef __X86__
     172%ifdef RT_ARCH_X86
    173173    mov     eax, [esp + 4]
    174174    jmp     dword [.jmp_table + eax * 4]
     
    181181 %endif
    182182%endif
    183    
     183
    184184.jmp_table:
    185185%assign i 0
  • trunk/src/VBox/VMM/VMMR0/VMMR0.cpp

    r3312 r3696  
    4242#include <iprt/stdarg.h>
    4343
    44 #if defined(_MSC_VER) && defined(__AMD64__) /** @todo check this with with VC7! */
     44#if defined(_MSC_VER) && defined(RT_ARCH_AMD64) /** @todo check this with with VC7! */
    4545#  pragma intrinsic(_AddressOfReturnAddress)
    4646#endif
     
    6969/** Pointer to the internal networking service instance. */
    7070PINTNET g_pIntNet = 0;
    71 #endif 
     71#endif
    7272
    7373
     
    458458# if defined(__GNUC__)
    459459                    void *pvRet = (uint8_t *)__builtin_frame_address(0) + sizeof(void *);
    460 # elif defined(_MSC_VER) && defined(__AMD64__) /** @todo check this with with VC7! */
     460# elif defined(_MSC_VER) && defined(RT_ARCH_AMD64) /** @todo check this with with VC7! */
    461461                    void *pvRet = (uint8_t *)_AddressOfReturnAddress();
    462 # elif defined(__X86__)
     462# elif defined(RT_ARCH_X86)
    463463                    void *pvRet = (uint8_t *)&pVM - sizeof(pVM);
    464464# else
     
    699699     * Check that the jump buffer is armed.
    700700     */
    701 #ifdef __X86__
     701#ifdef RT_ARCH_X86
    702702    if (!pVM->vmm.s.CallHostR0JmpBuf.eip)
    703703#else
  • trunk/src/VBox/VMM/VMMR0/VMMR0A.asm

    r2988 r3696  
    2828
    2929
    30 %ifdef __X86__      ; The other architecture(s) use(s) C99 variadict macros.
     30%ifdef RT_ARCH_X86      ; The other architecture(s) use(s) C99 variadict macros.
    3131extern IMPNAME(RTLogLogger)
    3232%endif
     
    4949;
    5050BEGINPROC vmmR0CallHostSetJmp
    51 %ifdef __X86__
     51%ifdef RT_ARCH_X86
    5252    ;
    5353    ; Save the registers.
     
    126126    xor     eax, eax                    ; VINF_SUCCESS
    127127    ret
    128 %endif ; __X86__
    129 
    130 %ifdef __AMD64__
     128%endif ; RT_ARCH_X86
     129
     130%ifdef RT_ARCH_AMD64
    131131    ;
    132132    ; Save the registers.
     
    186186    mov     rdi, [rdx + VMMR0JMPBUF.rdi]
    187187 %endif
    188     mov     r12, [rdx + VMMR0JMPBUF.r12] 
    189     mov     r13, [rdx + VMMR0JMPBUF.r13] 
    190     mov     r14, [rdx + VMMR0JMPBUF.r14] 
    191     mov     r15, [rdx + VMMR0JMPBUF.r15] 
     188    mov     r12, [rdx + VMMR0JMPBUF.r12]
     189    mov     r13, [rdx + VMMR0JMPBUF.r13]
     190    mov     r14, [rdx + VMMR0JMPBUF.r14]
     191    mov     r15, [rdx + VMMR0JMPBUF.r15]
    192192    mov     eax, VERR_INTERNAL_ERROR    ; todo better return code!
    193193    ret
     
    243243;
    244244BEGINPROC vmmR0CallHostLongJmp
    245 %ifdef __X86__
     245%ifdef RT_ARCH_X86
    246246    ;
    247247    ; Save the registers on the stack.
     
    308308    mov     esp, [edx + VMMR0JMPBUF.esp]
    309309    jmp     ecx
    310 %endif ; __X86__
    311 
    312 %ifdef __AMD64__
     310%endif ; RT_ARCH_X86
     311
     312%ifdef RT_ARCH_AMD64
    313313    ;
    314314    ; Save the registers on the stack.
     
    409409;
    410410EXPORTEDNAME vmmR0LoggerWrapper
    411 %ifdef __X86__      ; The other architecture(s) use(s) C99 variadict macros.
     411%ifdef RT_ARCH_X86      ; The other architecture(s) use(s) C99 variadict macros.
    412412    push    0                           ; assumes we're the wrapper for a default instance.
    413413    call    IMP(RTLogLogger)
  • trunk/src/VBox/VMM/VMReq.cpp

    r2981 r3696  
    764764            } u;
    765765            u.pfn = pReq->u.Internal.pfn;
    766 #ifdef __AMD64__
     766#ifdef RT_ARCH_AMD64
    767767            switch (pReq->u.Internal.cArgs)
    768768            {
  • trunk/src/VBox/VMM/testcase/tstAsmStructsAsm.asm

    r2988 r3696  
    2323;
    2424
    25 %ifdef __AMD64__
     25%ifdef RT_ARCH_AMD64
    2626BITS 64
    2727%endif
Note: See TracChangeset for help on using the changeset viewer.

© 2024 Oracle Support Privacy / Do Not Sell My Info Terms of Use Trademark Policy Automated Access Etiquette