VirtualBox

Changeset 100868 in vbox for trunk/src/VBox/VMM


Ignore:
Timestamp:
Aug 14, 2023 12:49:27 AM (18 months ago)
Author:
vboxsync
Message:

VBox/log.h,VMM/IEM: Added a dedicated logging group for IEM memory accesses: IEM_MEM bugref:10369

Location:
trunk/src/VBox/VMM
Files:
4 edited

Legend:

Unmodified
Added
Removed
  • trunk/src/VBox/VMM/VMMAll/IEMAll.cpp

    r100860 r100868  
    7979 *      - Level 6  (Log6) : Enables/disables the lockstep comparison with REM.
    8080 *      - Level 7  (Log7) : iret++ execution logging.
    81  *      - Level 8  (Log8) : Memory writes.
    82  *      - Level 9  (Log9) : Memory reads.
     81 *      - Level 8  (Log8) :
     82 *      - Level 9  (Log9) :
    8383 *      - Level 10 (Log10): TLBs.
    8484 *      - Level 11 (Log11): Unmasked FPU exceptions.
     85 *
     86 * The \"IEM_MEM\" log group covers most of memory related details logging,
     87 * except for errors and exceptions:
     88 *      - Level 1  (Log)  : Reads.
     89 *      - Level 2  (Log2) : Read fallbacks.
     90 *      - Level 3  (Log3) : MemMap read.
     91 *      - Level 4  (Log4) : MemMap read fallbacks.
     92 *      - Level 5  (Log5) : Writes
     93 *      - Level 6  (Log6) : Write fallbacks.
     94 *      - Level 7  (Log7) : MemMap writes and read-writes.
     95 *      - Level 8  (Log8) : MemMap write and read-write fallbacks.
     96 *      - Level 9  (Log9) : Stack reads.
     97 *      - Level 10 (Log10): Stack read fallbacks.
     98 *      - Level 11 (Log11): Stack writes.
     99 *      - Level 12 (Log12): Stack write fallbacks.
     100 *      - Flow  (LogFlow) :
    85101 *
    86102 * The SVM (AMD-V) and VMX (VT-x) code has the following assignments:
     
    54635479 */
    54645480
     5481#undef  LOG_GROUP
     5482#define LOG_GROUP LOG_GROUP_IEM_MEM
    54655483
    54665484/**
     
    56175635    if (RT_FAILURE(rc))
    56185636    {
    5619         Log(("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - failed to fetch page -> #PF\n", GCPtrMem));
     5637        LogEx(LOG_GROUP_IEM,("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - failed to fetch page -> #PF\n", GCPtrMem));
    56205638        /** @todo Check unassigned memory in unpaged mode. */
    56215639        /** @todo Reserved bits in page tables. Requires new PGM interface. */
     
    56395657                || (pVCpu->cpum.GstCtx.cr0 & X86_CR0_WP)))
    56405658        {
    5641             Log(("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - read-only page -> #PF\n", GCPtrMem));
     5659            LogEx(LOG_GROUP_IEM,("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - read-only page -> #PF\n", GCPtrMem));
    56425660            *pGCPhysMem = NIL_RTGCPHYS;
    56435661#ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
     
    56535671            && !(fAccess & IEM_ACCESS_WHAT_SYS))
    56545672        {
    5655             Log(("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - user access to kernel page -> #PF\n", GCPtrMem));
     5673            LogEx(LOG_GROUP_IEM,("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - user access to kernel page -> #PF\n", GCPtrMem));
    56565674            *pGCPhysMem = NIL_RTGCPHYS;
    56575675#ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
     
    56675685            && (pVCpu->cpum.GstCtx.msrEFER & MSR_K6_EFER_NXE) )
    56685686        {
    5669             Log(("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - NX -> #PF\n", GCPtrMem));
     5687            LogEx(LOG_GROUP_IEM,("iemMemPageTranslateAndCheckAccess: GCPtrMem=%RGv - NX -> #PF\n", GCPtrMem));
    56705688            *pGCPhysMem = NIL_RTGCPHYS;
    56715689#ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
     
    58025820                    else if (PGM_PHYS_RW_IS_SUCCESS(rcStrict))
    58035821                    {
    5804                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc\n",
    5805                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
    5806                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
     5822                        LogEx(LOG_GROUP_IEM,
     5823                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc\n",
     5824                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
     5825                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
    58075826                        rcStrict = iemSetPassUpStatus(pVCpu, rcStrict);
    58085827                    }
     
    58105829                    else if (fPostponeFail)
    58115830                    {
    5812                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (postponed)\n",
    5813                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
    5814                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
     5831                        LogEx(LOG_GROUP_IEM,
     5832                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (postponed)\n",
     5833                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
     5834                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
    58155835                        pVCpu->iem.s.aMemMappings[iMemMap].fAccess |= IEM_ACCESS_PENDING_R3_WRITE_2ND;
    58165836                        VMCPU_FF_SET(pVCpu, VMCPU_FF_IEM);
     
    58205840                    else
    58215841                    {
    5822                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (!!)\n",
    5823                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
    5824                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
     5842                        LogEx(LOG_GROUP_IEM,
     5843                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (!!)\n",
     5844                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
     5845                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
    58255846                        return rcStrict;
    58265847                    }
     
    58315852                if (!cbSecond)
    58325853                {
    5833                     Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc\n",
    5834                          pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict) ));
     5854                    LogEx(LOG_GROUP_IEM,
     5855                          ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc\n",
     5856                           pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict) ));
    58355857                    rcStrict = iemSetPassUpStatus(pVCpu, rcStrict);
    58365858                }
     
    58445866                    if (rcStrict2 == VINF_SUCCESS)
    58455867                    {
    5846                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc GCPhysSecond=%RGp/%#x\n",
    5847                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
    5848                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond));
     5868                        LogEx(LOG_GROUP_IEM,
     5869                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc GCPhysSecond=%RGp/%#x\n",
     5870                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
     5871                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond));
    58495872                        rcStrict = iemSetPassUpStatus(pVCpu, rcStrict);
    58505873                    }
    58515874                    else if (PGM_PHYS_RW_IS_SUCCESS(rcStrict2))
    58525875                    {
    5853                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc GCPhysSecond=%RGp/%#x %Rrc\n",
    5854                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
    5855                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict2) ));
     5876                        LogEx(LOG_GROUP_IEM,
     5877                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc GCPhysSecond=%RGp/%#x %Rrc\n",
     5878                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
     5879                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict2) ));
    58565880                        PGM_PHYS_RW_DO_UPDATE_STRICT_RC(rcStrict, rcStrict2);
    58575881                        rcStrict = iemSetPassUpStatus(pVCpu, rcStrict);
     
    58605884                    else if (fPostponeFail)
    58615885                    {
    5862                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (postponed)\n",
    5863                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
    5864                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
     5886                        LogEx(LOG_GROUP_IEM,
     5887                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (postponed)\n",
     5888                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
     5889                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
    58655890                        pVCpu->iem.s.aMemMappings[iMemMap].fAccess |= IEM_ACCESS_PENDING_R3_WRITE_2ND;
    58665891                        VMCPU_FF_SET(pVCpu, VMCPU_FF_IEM);
     
    58705895                    else
    58715896                    {
    5872                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc GCPhysSecond=%RGp/%#x %Rrc (!!)\n",
    5873                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
    5874                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict2) ));
     5897                        LogEx(LOG_GROUP_IEM,
     5898                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc GCPhysSecond=%RGp/%#x %Rrc (!!)\n",
     5899                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
     5900                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict2) ));
    58755901                        return rcStrict2;
    58765902                    }
     
    58805906            else if (fPostponeFail)
    58815907            {
    5882                 Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (postponed)\n",
    5883                      pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
    5884                      pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
     5908                LogEx(LOG_GROUP_IEM,
     5909                      ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (postponed)\n",
     5910                       pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
     5911                       pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, VBOXSTRICTRC_VAL(rcStrict) ));
    58855912                if (!cbSecond)
    58865913                    pVCpu->iem.s.aMemMappings[iMemMap].fAccess |= IEM_ACCESS_PENDING_R3_WRITE_1ST;
     
    58935920            else
    58945921            {
    5895                 Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc [GCPhysSecond=%RGp/%#x] (!!)\n",
    5896                      pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
    5897                      pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond));
     5922                LogEx(LOG_GROUP_IEM,
     5923                      ("iemMemBounceBufferCommitAndUnmap: PGMPhysWrite GCPhysFirst=%RGp/%#x %Rrc [GCPhysSecond=%RGp/%#x] (!!)\n",
     5924                       pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, VBOXSTRICTRC_VAL(rcStrict),
     5925                       pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond));
    58985926                return rcStrict;
    58995927            }
     
    59145942                    else
    59155943                    {
    5916                         Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysSimpleWriteGCPhys GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (!!)\n",
    5917                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
    5918                              pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, rc));
     5944                        LogEx(LOG_GROUP_IEM,
     5945                              ("iemMemBounceBufferCommitAndUnmap: PGMPhysSimpleWriteGCPhys GCPhysFirst=%RGp/%#x GCPhysSecond=%RGp/%#x %Rrc (!!)\n",
     5946                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst,
     5947                               pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond, rc));
    59195948                        return rc;
    59205949                    }
     
    59235952            else
    59245953            {
    5925                 Log(("iemMemBounceBufferCommitAndUnmap: PGMPhysSimpleWriteGCPhys GCPhysFirst=%RGp/%#x %Rrc [GCPhysSecond=%RGp/%#x] (!!)\n",
    5926                      pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, rc,
    5927                      pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond));
     5954                LogEx(LOG_GROUP_IEM,
     5955                      ("iemMemBounceBufferCommitAndUnmap: PGMPhysSimpleWriteGCPhys GCPhysFirst=%RGp/%#x %Rrc [GCPhysSecond=%RGp/%#x] (!!)\n",
     5956                       pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst, cbFirst, rc,
     5957                       pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond, cbSecond));
    59285958                return rc;
    59295959            }
     
    59325962
    59335963#if defined(IEM_LOG_MEMORY_WRITES)
    5934     Log(("IEM Wrote %RGp: %.*Rhxs\n", pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst,
    5935          RT_MAX(RT_MIN(pVCpu->iem.s.aMemBbMappings[iMemMap].cbFirst, 64), 1), &pVCpu->iem.s.aBounceBuffers[iMemMap].ab[0]));
     5964    Log5(("IEM Wrote %RGp: %.*Rhxs\n", pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysFirst,
     5965          RT_MAX(RT_MIN(pVCpu->iem.s.aMemBbMappings[iMemMap].cbFirst, 64), 1), &pVCpu->iem.s.aBounceBuffers[iMemMap].ab[0]));
    59365966    if (pVCpu->iem.s.aMemBbMappings[iMemMap].cbSecond)
    5937         Log(("IEM Wrote %RGp: %.*Rhxs [2nd page]\n", pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond,
    5938              RT_MIN(pVCpu->iem.s.aMemBbMappings[iMemMap].cbSecond, 64),
    5939              &pVCpu->iem.s.aBounceBuffers[iMemMap].ab[pVCpu->iem.s.aMemBbMappings[iMemMap].cbFirst]));
     5967        Log5(("IEM Wrote %RGp: %.*Rhxs [2nd page]\n", pVCpu->iem.s.aMemBbMappings[iMemMap].GCPhysSecond,
     5968              RT_MIN(pVCpu->iem.s.aMemBbMappings[iMemMap].cbSecond, 64),
     5969              &pVCpu->iem.s.aBounceBuffers[iMemMap].ab[pVCpu->iem.s.aMemBbMappings[iMemMap].cbFirst]));
    59405970
    59415971    size_t cbWrote = pVCpu->iem.s.aMemBbMappings[iMemMap].cbFirst + pVCpu->iem.s.aMemBbMappings[iMemMap].cbSecond;
     
    60076037                else
    60086038                {
    6009                     Log(("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysSecond=%RGp rcStrict2=%Rrc (!!)\n",
    6010                          GCPhysSecond, VBOXSTRICTRC_VAL(rcStrict) ));
     6039                    LogEx(LOG_GROUP_IEM, ("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysSecond=%RGp rcStrict2=%Rrc (!!)\n",
     6040                                          GCPhysSecond, VBOXSTRICTRC_VAL(rcStrict) ));
    60116041                    return rcStrict;
    60126042                }
     
    60226052                else
    60236053                {
    6024                     Log(("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysSecond=%RGp rcStrict2=%Rrc (rcStrict=%Rrc) (!!)\n",
    6025                          GCPhysSecond, VBOXSTRICTRC_VAL(rcStrict2), VBOXSTRICTRC_VAL(rcStrict2) ));
     6054                    LogEx(LOG_GROUP_IEM,
     6055                          ("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysSecond=%RGp rcStrict2=%Rrc (rcStrict=%Rrc) (!!)\n",
     6056                           GCPhysSecond, VBOXSTRICTRC_VAL(rcStrict2), VBOXSTRICTRC_VAL(rcStrict2) ));
    60266057                    return rcStrict2;
    60276058                }
     
    60296060            else
    60306061            {
    6031                 Log(("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysFirst=%RGp rcStrict=%Rrc (!!)\n",
    6032                      GCPhysFirst, VBOXSTRICTRC_VAL(rcStrict) ));
     6062                LogEx(LOG_GROUP_IEM, ("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysFirst=%RGp rcStrict=%Rrc (!!)\n",
     6063                                      GCPhysFirst, VBOXSTRICTRC_VAL(rcStrict) ));
    60336064                return rcStrict;
    60346065            }
     
    60486079                else
    60496080                {
    6050                     Log(("iemMemBounceBufferMapPhys: PGMPhysSimpleReadGCPhys GCPhysSecond=%RGp rc=%Rrc (!!)\n", GCPhysSecond, rc));
     6081                    LogEx(LOG_GROUP_IEM,
     6082                          ("iemMemBounceBufferMapPhys: PGMPhysSimpleReadGCPhys GCPhysSecond=%RGp rc=%Rrc (!!)\n", GCPhysSecond, rc));
    60516083                    return rc;
    60526084                }
     
    60546086            else
    60556087            {
    6056                 Log(("iemMemBounceBufferMapPhys: PGMPhysSimpleReadGCPhys GCPhysFirst=%RGp rc=%Rrc (!!)\n", GCPhysFirst, rc));
     6088                LogEx(LOG_GROUP_IEM,
     6089                      ("iemMemBounceBufferMapPhys: PGMPhysSimpleReadGCPhys GCPhysFirst=%RGp rc=%Rrc (!!)\n", GCPhysFirst, rc));
    60576090                return rc;
    60586091            }
     
    61256158                else
    61266159                {
    6127                     Log(("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysFirst=%RGp rcStrict=%Rrc (!!)\n",
    6128                          GCPhysFirst, VBOXSTRICTRC_VAL(rcStrict) ));
     6160                    LogEx(LOG_GROUP_IEM, ("iemMemBounceBufferMapPhys: PGMPhysRead GCPhysFirst=%RGp rcStrict=%Rrc (!!)\n",
     6161                                          GCPhysFirst, VBOXSTRICTRC_VAL(rcStrict) ));
    61296162                    return rcStrict;
    61306163                }
     
    61376170                else
    61386171                {
    6139                     Log(("iemMemBounceBufferMapPhys: PGMPhysSimpleReadGCPhys GCPhysFirst=%RGp rcStrict=%Rrc (!!)\n",
    6140                          GCPhysFirst, rc));
     6172                    LogEx(LOG_GROUP_IEM, ("iemMemBounceBufferMapPhys: PGMPhysSimpleReadGCPhys GCPhysFirst=%RGp rcStrict=%Rrc (!!)\n",
     6173                                          GCPhysFirst, rc));
    61416174                    return rc;
    61426175                }
     
    62976330        if (RT_FAILURE(rc))
    62986331        {
    6299             Log(("iemMemMap: GCPtrMem=%RGv - failed to fetch page -> #PF\n", GCPtrMem));
     6332            LogEx(LOG_GROUP_IEM, ("iemMemMap: GCPtrMem=%RGv - failed to fetch page -> #PF\n", GCPtrMem));
    63006333# ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
    63016334            if (Walk.fFailed & PGM_WALKFAIL_EPT)
     
    63266359                || (pVCpu->cpum.GstCtx.cr0 & X86_CR0_WP)))
    63276360        {
    6328             Log(("iemMemMap: GCPtrMem=%RGv - read-only page -> #PF\n", GCPtrMem));
     6361            LogEx(LOG_GROUP_IEM, ("iemMemMap: GCPtrMem=%RGv - read-only page -> #PF\n", GCPtrMem));
    63296362# ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
    63306363            if (Walk.fFailed & PGM_WALKFAIL_EPT)
     
    63396372            && !(fAccess & IEM_ACCESS_WHAT_SYS))
    63406373        {
    6341             Log(("iemMemMap: GCPtrMem=%RGv - user access to kernel page -> #PF\n", GCPtrMem));
     6374            LogEx(LOG_GROUP_IEM, ("iemMemMap: GCPtrMem=%RGv - user access to kernel page -> #PF\n", GCPtrMem));
    63426375# ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
    63436376            if (Walk.fFailed & PGM_WALKFAIL_EPT)
     
    64286461
    64296462    if (fAccess & IEM_ACCESS_TYPE_WRITE)
    6430         Log8(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
     6463        Log6(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
    64316464    if (fAccess & IEM_ACCESS_TYPE_READ)
    6432         Log9(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
     6465        Log2(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
    64336466
    64346467#else  /* !IEM_WITH_DATA_TLB */
     
    64406473
    64416474    if (fAccess & IEM_ACCESS_TYPE_WRITE)
    6442         Log8(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
     6475        Log6(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
    64436476    if (fAccess & IEM_ACCESS_TYPE_READ)
    6444         Log9(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
     6477        Log2(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
    64456478
    64466479    void *pvMem;
     
    66246657        if (RT_FAILURE(rc))
    66256658        {
    6626             Log(("iemMemMap: GCPtrMem=%RGv - failed to fetch page -> #PF\n", GCPtrMem));
     6659            LogEx(LOG_GROUP_IEM, ("iemMemMap: GCPtrMem=%RGv - failed to fetch page -> #PF\n", GCPtrMem));
    66276660# ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
    66286661            if (Walk.fFailed & PGM_WALKFAIL_EPT)
     
    66686701        if (pTlbe->fFlagsAndPhysRev & fNoWriteNoDirty & IEMTLBE_F_PT_NO_WRITE)
    66696702        {
    6670             Log(("iemMemMapJmp: GCPtrMem=%RGv - read-only page -> #PF\n", GCPtrMem));
     6703            LogEx(LOG_GROUP_IEM, ("iemMemMapJmp: GCPtrMem=%RGv - read-only page -> #PF\n", GCPtrMem));
    66716704# ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
    66726705            if (Walk.fFailed & PGM_WALKFAIL_EPT)
     
    66796712        if (pTlbe->fFlagsAndPhysRev & fNoUser & IEMTLBE_F_PT_NO_USER)
    66806713        {
    6681             Log(("iemMemMapJmp: GCPtrMem=%RGv - user access to kernel page -> #PF\n", GCPtrMem));
     6714            LogEx(LOG_GROUP_IEM, ("iemMemMapJmp: GCPtrMem=%RGv - user access to kernel page -> #PF\n", GCPtrMem));
    66826715# ifdef VBOX_WITH_NESTED_HWVIRT_VMX_EPT
    66836716            if (Walk.fFailed & PGM_WALKFAIL_EPT)
     
    67646797
    67656798    if (fAccess & IEM_ACCESS_TYPE_WRITE)
    6766         Log8(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
     6799        Log6(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
    67676800    if (fAccess & IEM_ACCESS_TYPE_READ)
    6768         Log9(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
     6801        Log2(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, pTlbe->GCPhys | (GCPtrMem & GUEST_PAGE_OFFSET_MASK), cbMem));
    67696802
    67706803#else  /* !IEM_WITH_DATA_TLB */
     
    67776810
    67786811    if (fAccess & IEM_ACCESS_TYPE_WRITE)
    6779         Log8(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
     6812        Log6(("IEM WR %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
    67806813    if (fAccess & IEM_ACCESS_TYPE_READ)
    6781         Log9(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
     6814        Log2(("IEM RD %RGv (%RGp) LB %#zx\n", GCPtrMem, GCPhysFirst, cbMem));
    67826815
    67836816    void *pvMem;
     
    69977030        *pu64Dst = *pu32Src;
    69987031        rc = iemMemCommitAndUnmap(pVCpu, (void *)pu32Src, IEM_ACCESS_DATA_R);
    6999         Log9(("IEM RD dword %d|%RGv: %#010RX64\n", iSegReg, GCPtrMem, *pu64Dst));
     7032        Log(("IEM RD dword %d|%RGv: %#010RX64\n", iSegReg, GCPtrMem, *pu64Dst));
    70007033    }
    70017034    return rc;
     
    70247057        *pu64Dst = *pi32Src;
    70257058        rc = iemMemCommitAndUnmap(pVCpu, (void *)pi32Src, IEM_ACCESS_DATA_R);
    7026         Log9(("IEM RD dword %d|%RGv: %#010x\n", iSegReg, GCPtrMem, (uint32_t)*pu64Dst));
     7059        Log(("IEM RD dword %d|%RGv: %#010x\n", iSegReg, GCPtrMem, (uint32_t)*pu64Dst));
    70277060    }
    70287061#ifdef __GNUC__ /* warning: GCC may be a royal pain */
     
    70547087        *pr80Dst = *pr80Src;
    70557088        rc = iemMemCommitAndUnmap(pVCpu, (void *)pr80Src, IEM_ACCESS_DATA_R);
    7056         Log9(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pr80Dst));
     7089        Log(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pr80Dst));
    70577090    }
    70587091    return rc;
     
    70767109    *pr80Dst = *pr80Src;
    70777110    iemMemCommitAndUnmapJmp(pVCpu, (void *)pr80Src, IEM_ACCESS_DATA_R);
    7078     Log9(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pr80Dst));
     7111    Log(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pr80Dst));
    70797112}
    70807113#endif
     
    71017134        *pd80Dst = *pd80Src;
    71027135        rc = iemMemCommitAndUnmap(pVCpu, (void *)pd80Src, IEM_ACCESS_DATA_R);
    7103         Log9(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pd80Dst));
     7136        Log(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pd80Dst));
    71047137    }
    71057138    return rc;
     
    71247157    *pd80Dst = *pd80Src;
    71257158    iemMemCommitAndUnmapJmp(pVCpu, (void *)pd80Src, IEM_ACCESS_DATA_R);
    7126     Log9(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pd80Dst));
     7159    Log(("IEM RD tword %d|%RGv: %.10Rhxs\n", iSegReg, GCPtrMem, pd80Dst));
    71277160}
    71287161#endif
     
    71507183        pu128Dst->au64[1] = pu128Src->au64[1];
    71517184        rc = iemMemCommitAndUnmap(pVCpu, (void *)pu128Src, IEM_ACCESS_DATA_R);
    7152         Log9(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7185        Log(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    71537186    }
    71547187    return rc;
     
    71747207    pu128Dst->au64[1] = pu128Src->au64[1];
    71757208    iemMemCommitAndUnmapJmp(pVCpu, (void *)pu128Src, IEM_ACCESS_DATA_R);
    7176     Log9(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7209    Log(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    71777210}
    71787211#endif
     
    72037236        pu128Dst->au64[1] = pu128Src->au64[1];
    72047237        rc = iemMemCommitAndUnmap(pVCpu, (void *)pu128Src, IEM_ACCESS_DATA_R);
    7205         Log9(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7238        Log(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    72067239    }
    72077240    return rc;
     
    72317264    pu128Dst->au64[1] = pu128Src->au64[1];
    72327265    iemMemCommitAndUnmapJmp(pVCpu, (void *)pu128Src, IEM_ACCESS_DATA_R);
    7233     Log9(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7266    Log(("IEM RD dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    72347267}
    72357268#endif
     
    72597292        pu256Dst->au64[3] = pu256Src->au64[3];
    72607293        rc = iemMemCommitAndUnmap(pVCpu, (void *)pu256Src, IEM_ACCESS_DATA_R);
    7261         Log9(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7294        Log(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    72627295    }
    72637296    return rc;
     
    72857318    pu256Dst->au64[3] = pu256Src->au64[3];
    72867319    iemMemCommitAndUnmapJmp(pVCpu, (void *)pu256Src, IEM_ACCESS_DATA_R);
    7287     Log9(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7320    Log(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    72887321}
    72897322#endif
     
    73167349        pu256Dst->au64[3] = pu256Src->au64[3];
    73177350        rc = iemMemCommitAndUnmap(pVCpu, (void *)pu256Src, IEM_ACCESS_DATA_R);
    7318         Log9(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7351        Log(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    73197352    }
    73207353    return rc;
     
    73467379    pu256Dst->au64[3] = pu256Src->au64[3];
    73477380    iemMemCommitAndUnmapJmp(pVCpu, (void *)pu256Src, IEM_ACCESS_DATA_R);
    7348     Log9(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7381    Log(("IEM RD qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    73497382}
    73507383#endif
     
    74447477        pu128Dst->au64[1] = u128Value.au64[1];
    74457478        rc = iemMemCommitAndUnmap(pVCpu, pu128Dst, IEM_ACCESS_DATA_W);
    7446         Log8(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7479        Log5(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    74477480    }
    74487481    return rc;
     
    74687501    pu128Dst->au64[1] = u128Value.au64[1];
    74697502    iemMemCommitAndUnmapJmp(pVCpu, pu128Dst, IEM_ACCESS_DATA_W);
    7470     Log8(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7503    Log5(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    74717504}
    74727505#endif
     
    74947527        pu128Dst->au64[1] = u128Value.au64[1];
    74957528        rc = iemMemCommitAndUnmap(pVCpu, pu128Dst, IEM_ACCESS_DATA_W);
    7496         Log8(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7529        Log5(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    74977530    }
    74987531    return rc;
     
    75207553    pu128Dst->au64[1] = u128Value.au64[1];
    75217554    iemMemCommitAndUnmapJmp(pVCpu, pu128Dst, IEM_ACCESS_DATA_W);
    7522     Log8(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
     7555    Log5(("IEM WR dqword %d|%RGv: %.16Rhxs\n", iSegReg, GCPtrMem, pu128Dst));
    75237556}
    75247557#endif
     
    75487581        pu256Dst->au64[3] = pu256Value->au64[3];
    75497582        rc = iemMemCommitAndUnmap(pVCpu, pu256Dst, IEM_ACCESS_DATA_W);
    7550         Log8(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7583        Log5(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    75517584    }
    75527585    return rc;
     
    75747607    pu256Dst->au64[3] = pu256Value->au64[3];
    75757608    iemMemCommitAndUnmapJmp(pVCpu, pu256Dst, IEM_ACCESS_DATA_W);
    7576     Log8(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7609    Log5(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    75777610}
    75787611#endif
     
    76027635        pu256Dst->au64[3] = pu256Value->au64[3];
    76037636        rc = iemMemCommitAndUnmap(pVCpu, pu256Dst, IEM_ACCESS_DATA_W);
    7604         Log8(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7637        Log5(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    76057638    }
    76067639    return rc;
     
    76307663    pu256Dst->au64[3] = pu256Value->au64[3];
    76317664    iemMemCommitAndUnmapJmp(pVCpu, pu256Dst, IEM_ACCESS_DATA_W);
    7632     Log8(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
     7665    Log5(("IEM WR qqword %d|%RGv: %.32Rhxs\n", iSegReg, GCPtrMem, pu256Dst));
    76337666}
    76347667#endif
     
    79187951            || (uSel | X86_SEL_RPL_LDT) > pVCpu->cpum.GstCtx.ldtr.u32Limit )
    79197952        {
    7920             Log(("iemMemFetchSelDesc: LDT selector %#x is out of bounds (%3x) or ldtr is NP (%#x)\n",
    7921                  uSel, pVCpu->cpum.GstCtx.ldtr.u32Limit, pVCpu->cpum.GstCtx.ldtr.Sel));
     7953            LogEx(LOG_GROUP_IEM, ("iemMemFetchSelDesc: LDT selector %#x is out of bounds (%3x) or ldtr is NP (%#x)\n",
     7954                   uSel, pVCpu->cpum.GstCtx.ldtr.u32Limit, pVCpu->cpum.GstCtx.ldtr.Sel));
    79227955            return iemRaiseXcptOrInt(pVCpu, 0, uXcpt, IEM_XCPT_FLAGS_T_CPU_XCPT | IEM_XCPT_FLAGS_ERR,
    79237956                                     uErrorCode, 0);
     
    79317964        if ((uSel | X86_SEL_RPL_LDT) > pVCpu->cpum.GstCtx.gdtr.cbGdt)
    79327965        {
    7933             Log(("iemMemFetchSelDesc: GDT selector %#x is out of bounds (%3x)\n", uSel, pVCpu->cpum.GstCtx.gdtr.cbGdt));
     7966            LogEx(LOG_GROUP_IEM, ("iemMemFetchSelDesc: GDT selector %#x is out of bounds (%3x)\n", uSel, pVCpu->cpum.GstCtx.gdtr.cbGdt));
    79347967            return iemRaiseXcptOrInt(pVCpu, 0, uXcpt, IEM_XCPT_FLAGS_T_CPU_XCPT | IEM_XCPT_FLAGS_ERR,
    79357968                                     uErrorCode, 0);
     
    79688001        else
    79698002        {
    7970             Log(("iemMemFetchSelDesc: system selector %#x is out of bounds\n", uSel));
     8003            LogEx(LOG_GROUP_IEM,("iemMemFetchSelDesc: system selector %#x is out of bounds\n", uSel));
    79718004            /** @todo is this the right exception? */
    79728005            return iemRaiseXcptOrInt(pVCpu, 0, uXcpt, IEM_XCPT_FLAGS_T_CPU_XCPT | IEM_XCPT_FLAGS_ERR, uErrorCode, 0);
     
    80458078    return iemMemCommitAndUnmap(pVCpu, (void *)pu32, IEM_ACCESS_SYS_RW);
    80468079}
     8080
     8081
     8082#undef  LOG_GROUP
     8083#define LOG_GROUP LOG_GROUP_IEM
    80478084
    80488085/** @} */
  • trunk/src/VBox/VMM/VMMAll/IEMAllMemRWTmpl.cpp.h

    r100860 r100868  
    6262        *puDst = *puSrc;
    6363        rc = iemMemCommitAndUnmap(pVCpu, (void *)puSrc, IEM_ACCESS_DATA_R);
    64         Log9(("IEM RD " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, *puDst));
     64        Log2(("IEM RD " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, *puDst));
    6565    }
    6666    return rc;
     
    8282    TMPL_MEM_TYPE const  uRet = *puSrc;
    8383    iemMemCommitAndUnmapJmp(pVCpu, (void *)puSrc, IEM_ACCESS_DATA_R);
    84     Log9(("IEM RD " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uRet));
     84    Log2(("IEM RD " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uRet));
    8585    return uRet;
    8686}
     
    105105        *puDst = uValue;
    106106        rc = iemMemCommitAndUnmap(pVCpu, puDst, IEM_ACCESS_DATA_W);
    107         Log8(("IEM WR " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uValue));
     107        Log6(("IEM WR " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uValue));
    108108    }
    109109    return rc;
     
    127127    pVCpu->iem.s.DataTlb.cTlbSafeWritePath++;
    128128# endif
    129     Log8(("IEM WR " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uValue));
     129    Log6(("IEM WR " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uValue));
    130130    TMPL_MEM_TYPE *puDst = (TMPL_MEM_TYPE *)iemMemMapJmp(pVCpu, sizeof(*puDst), iSegReg, GCPtrMem,
    131131                                                         IEM_ACCESS_DATA_W, TMPL_MEM_TYPE_ALIGN);
     
    201201    pVCpu->iem.s.DataTlb.cTlbSafeWritePath++;
    202202# endif
    203     Log9(("IEM RO/map " TMPL_MEM_FMT_DESC " %d|%RGv\n", iSegReg, GCPtrMem));
     203    Log4(("IEM RO/map " TMPL_MEM_FMT_DESC " %d|%RGv\n", iSegReg, GCPtrMem));
    204204    *pbUnmapInfo = 1 | (IEM_ACCESS_TYPE_READ << 4); /* zero is for the TLB hit */
    205205    return (TMPL_MEM_TYPE *)iemMemMapJmp(pVCpu, sizeof(TMPL_MEM_TYPE), iSegReg, GCPtrMem, IEM_ACCESS_DATA_R, TMPL_MEM_TYPE_ALIGN);
     
    237237        if (rc == VINF_SUCCESS)
    238238        {
    239             Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
    240                   GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
     239            Log12(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
     240                   GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
    241241            pVCpu->cpum.GstCtx.rsp = uNewRsp;
    242242            return VINF_SUCCESS;
     
    274274        if (rc == VINF_SUCCESS)
    275275        {
    276             Log9(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
    277                   GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, *puValue));
     276            Log10(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
     277                   GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, *puValue));
    278278            pVCpu->cpum.GstCtx.rsp = uNewRsp;
    279279            return VINF_SUCCESS;
     
    311311        if (rc == VINF_SUCCESS)
    312312        {
    313             Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [ex]\n",
    314                   GCPtrTop, pTmpRsp->u, NewRsp.u, uValue));
     313            Log12(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [ex]\n",
     314                   GCPtrTop, pTmpRsp->u, NewRsp.u, uValue));
    315315            *pTmpRsp = NewRsp;
    316316            return VINF_SUCCESS;
     
    349349        if (rc == VINF_SUCCESS)
    350350        {
    351             Log9(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [ex]\n",
    352                   GCPtrTop, pTmpRsp->u, NewRsp.u, *puValue));
     351            Log10(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [ex]\n",
     352                   GCPtrTop, pTmpRsp->u, NewRsp.u, *puValue));
    353353            *pTmpRsp = NewRsp;
    354354            return VINF_SUCCESS;
     
    381381
    382382    /* Commit the RSP change. */
    383     Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
    384           GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
     383    Log12(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
     384           GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
    385385    pVCpu->cpum.GstCtx.rsp = uNewRsp;
    386386}
     
    407407
    408408    /* Commit the RSP change and return the popped value. */
    409     Log9(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
    410           GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uRet));
     409    Log10(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
     410           GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uRet));
    411411    pVCpu->cpum.GstCtx.rsp = uNewRsp;
    412412
     
    445445
    446446    /* Commit the RSP change. */
    447     Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [sreg]\n",
    448           GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
     447    Log12(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [sreg]\n",
     448           GCPtrTop, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
    449449    pVCpu->cpum.GstCtx.rsp = uNewRsp;
    450450}
  • trunk/src/VBox/VMM/VMMAll/IEMAllMemRWTmplInline.cpp.h

    r100866 r100868  
    5151#endif
    5252
    53 /** @todo fix logging   */
    5453
    5554#ifdef IEM_WITH_SETJMP
     
    102101                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    103102                TMPL_MEM_TYPE const uRet = *(TMPL_MEM_TYPE const *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK];
    104                 Log9(("IEM RD " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uRet));
     103                LogEx(LOG_GROUP_IEM_MEM,("IEM RD " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uRet));
    105104                return uRet;
    106105            }
     
    110109    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    111110       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    112     Log10Func(("%u:%RGv falling back\n", iSegReg, GCPtrMem));
     111    LogEx(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %u:%RGv falling back\n", LOG_FN_NAME, iSegReg, GCPtrMem));
    113112# endif
    114113    return RT_CONCAT3(iemMemFetchData,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu, iSegReg, GCPtrMem);
     
    156155                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    157156                TMPL_MEM_TYPE const uRet = *(TMPL_MEM_TYPE const *)&pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK];
    158                 Log9(("IEM RD " TMPL_MEM_FMT_DESC " %RGv: " TMPL_MEM_FMT_TYPE "\n", GCPtrMem, uRet));
     157                LogEx(LOG_GROUP_IEM_MEM,("IEM RD " TMPL_MEM_FMT_DESC " %RGv: " TMPL_MEM_FMT_TYPE "\n", GCPtrMem, uRet));
    159158                return uRet;
    160159            }
     
    164163    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    165164       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    166     Log10Func(("%RGv falling back\n", GCPtrMem));
     165    LogEx(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrMem));
    167166# endif
    168167    return RT_CONCAT3(iemMemFetchData,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu, UINT8_MAX, GCPtrMem);
     
    220219                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    221220                *(TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK] = uValue;
    222                 Log9(("IEM WR " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uValue));
     221                Log5Ex(LOG_GROUP_IEM_MEM,("IEM WR " TMPL_MEM_FMT_DESC " %d|%RGv: " TMPL_MEM_FMT_TYPE "\n", iSegReg, GCPtrMem, uValue));
    223222                return;
    224223            }
     
    228227    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    229228       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    230     Log10Func(("%u:%RGv falling back\n", iSegReg, GCPtrMem));
     229    Log6Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %u:%RGv falling back\n", LOG_FN_NAME, iSegReg, GCPtrMem));
    231230#  endif
    232231    RT_CONCAT3(iemMemStoreData,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu, iSegReg, GCPtrMem, uValue);
     
    274273                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    275274                *(TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK] = uValue;
    276                 Log9(("IEM WR " TMPL_MEM_FMT_DESC " %RGv: " TMPL_MEM_FMT_TYPE "\n", GCPtrMem, uValue));
     275                Log5Ex(LOG_GROUP_IEM_MEM,("IEM WR " TMPL_MEM_FMT_DESC " %RGv: " TMPL_MEM_FMT_TYPE "\n", GCPtrMem, uValue));
    277276                return;
    278277            }
     
    282281    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    283282       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    284     Log10Func(("%RGv falling back\n", GCPtrMem));
     283    Log6Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrMem));
    285284#  endif
    286285    RT_CONCAT3(iemMemStoreData,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu, UINT8_MAX, GCPtrMem, uValue);
     
    337336                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    338337                *pbUnmapInfo = 0;
    339                 Log8(("IEM RW/map " TMPL_MEM_FMT_DESC " %d|%RGv: %p\n",
    340                       iSegReg, GCPtrMem, &pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK]));
     338                Log7Ex(LOG_GROUP_IEM_MEM,("IEM RW/map " TMPL_MEM_FMT_DESC " %d|%RGv: %p\n",
     339                                          iSegReg, GCPtrMem, &pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK]));
    341340                return (TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK];
    342341            }
     
    346345    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    347346       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    348     Log10Func(("%u:%RGv falling back\n", iSegReg, GCPtrMem));
     347    Log8Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %u:%RGv falling back\n", LOG_FN_NAME, iSegReg, GCPtrMem));
    349348#  endif
    350349    return RT_CONCAT3(iemMemMapData,TMPL_MEM_FN_SUFF,RwSafeJmp)(pVCpu, pbUnmapInfo, iSegReg, GCPtrMem);
     
    393392                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    394393                *pbUnmapInfo = 0;
    395                 Log8(("IEM RW/map " TMPL_MEM_FMT_DESC " %RGv: %p\n",
    396                       GCPtrMem, &pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK]));
     394                Log7Ex(LOG_GROUP_IEM_MEM,("IEM RW/map " TMPL_MEM_FMT_DESC " %RGv: %p\n",
     395                                          GCPtrMem, &pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK]));
    397396                return (TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK];
    398397            }
     
    402401    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    403402       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    404     Log10Func(("%RGv falling back\n", GCPtrMem));
     403    Log8Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrMem));
    405404#  endif
    406405    return RT_CONCAT3(iemMemMapData,TMPL_MEM_FN_SUFF,RwSafeJmp)(pVCpu, pbUnmapInfo, UINT8_MAX, GCPtrMem);
     
    450449                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    451450                *pbUnmapInfo = 0;
    452                 Log8(("IEM WO/map " TMPL_MEM_FMT_DESC " %d|%RGv: %p\n",
    453                       iSegReg, GCPtrMem, &pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK]));
     451                Log7Ex(LOG_GROUP_IEM_MEM,("IEM WO/map " TMPL_MEM_FMT_DESC " %d|%RGv: %p\n",
     452                                          iSegReg, GCPtrMem, &pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK]));
    454453                return (TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK];
    455454            }
     
    459458    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    460459       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    461     Log10Func(("%u:%RGv falling back\n", iSegReg, GCPtrMem));
     460    Log8Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %u:%RGv falling back\n", LOG_FN_NAME, iSegReg, GCPtrMem));
    462461#  endif
    463462    return RT_CONCAT3(iemMemMapData,TMPL_MEM_FN_SUFF,WoSafeJmp)(pVCpu, pbUnmapInfo, iSegReg, GCPtrMem);
     
    506505                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    507506                *pbUnmapInfo = 0;
    508                 Log8(("IEM WO/map " TMPL_MEM_FMT_DESC " %RGv: %p\n",
    509                       GCPtrMem, &pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK]));
     507                Log7Ex(LOG_GROUP_IEM_MEM,("IEM WO/map " TMPL_MEM_FMT_DESC " %RGv: %p\n",
     508                                          GCPtrMem, &pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK]));
    510509                return (TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK];
    511510            }
     
    515514    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    516515       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    517     Log10Func(("%RGv falling back\n", GCPtrMem));
     516    Log8Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrMem));
    518517#  endif
    519518    return RT_CONCAT3(iemMemMapData,TMPL_MEM_FN_SUFF,WoSafeJmp)(pVCpu, pbUnmapInfo, UINT8_MAX, GCPtrMem);
     
    562561                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    563562                *pbUnmapInfo = 0;
    564                 Log9(("IEM RO/map " TMPL_MEM_FMT_DESC " %d|%RGv: %p\n",
    565                       iSegReg, GCPtrMem, &pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK]));
     563                Log3Ex(LOG_GROUP_IEM_MEM,("IEM RO/map " TMPL_MEM_FMT_DESC " %d|%RGv: %p\n",
     564                                          iSegReg, GCPtrMem, &pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK]));
    566565                return (TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK];
    567566            }
     
    571570    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    572571       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    573     Log10Func(("%u:%RGv falling back\n", iSegReg, GCPtrMem));
     572    Log4Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %u:%RGv falling back\n", LOG_FN_NAME, iSegReg, GCPtrMem));
    574573#  endif
    575574    return RT_CONCAT3(iemMemMapData,TMPL_MEM_FN_SUFF,RoSafeJmp)(pVCpu, pbUnmapInfo, iSegReg, GCPtrMem);
     
    617616                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    618617                *pbUnmapInfo = 0;
    619                 Log9(("IEM RO/map " TMPL_MEM_FMT_DESC " %RGv: %p\n",
    620                       GCPtrMem, &pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK]));
     618                Log3Ex(LOG_GROUP_IEM_MEM,("IEM RO/map " TMPL_MEM_FMT_DESC " %RGv: %p\n",
     619                                          GCPtrMem, &pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK]));
    621620                return (TMPL_MEM_TYPE const *)&pTlbe->pbMappingR3[GCPtrMem & GUEST_PAGE_OFFSET_MASK];
    622621            }
     
    626625    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    627626       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    628     Log10Func(("%RGv falling back\n", GCPtrMem));
     627    Log4Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrMem));
    629628#  endif
    630629    return RT_CONCAT3(iemMemMapData,TMPL_MEM_FN_SUFF,RoSafeJmp)(pVCpu, pbUnmapInfo, UINT8_MAX, GCPtrMem);
     
    683682                Assert(pTlbe->pbMappingR3); /* (Only ever cleared by the owning EMT.) */
    684683                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    685                 Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
    686                       GCPtrEff, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
     684                Log11Ex(LOG_GROUP_IEM_MEM,("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
     685                                           GCPtrEff, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
    687686                *(TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK] = uValue;
    688687                pVCpu->cpum.GstCtx.rsp = uNewRsp;
     
    694693    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    695694       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    696     Log10Func(("%RGv falling back\n", GCPtrEff));
     695    Log12Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrEff));
    697696#  endif
    698697    RT_CONCAT3(iemMemStackPush,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu, uValue);
     
    743742                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    744743                TMPL_MEM_TYPE const uRet = *(TMPL_MEM_TYPE const *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK];
    745                 Log9(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
    746                       GCPtrEff, pVCpu->cpum.GstCtx.rsp, uNewRsp, uRet));
     744                Log9Ex(LOG_GROUP_IEM_MEM,("IEM RD " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE "\n",
     745                                          GCPtrEff, pVCpu->cpum.GstCtx.rsp, uNewRsp, uRet));
    747746                pVCpu->cpum.GstCtx.rsp = uNewRsp;
    748747                return uRet;
     
    753752    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    754753       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    755     Log10Func(("%RGv falling back\n", GCPtrEff));
     754    Log10Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrEff));
    756755#  endif
    757756    return RT_CONCAT3(iemMemStackPop,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu);
     
    805804                Assert(pTlbe->pbMappingR3); /* (Only ever cleared by the owning EMT.) */
    806805                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    807                 Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [sreg]\n",
    808                       GCPtrEff, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
     806                Log11Ex(LOG_GROUP_IEM_MEM,("IEM WR " TMPL_MEM_FMT_DESC " SS|%RGv (%RX64->%RX64): " TMPL_MEM_FMT_TYPE " [sreg]\n",
     807                                           GCPtrEff, pVCpu->cpum.GstCtx.rsp, uNewRsp, uValue));
    809808                *(uint16_t *)&pTlbe->pbMappingR3[GCPtrEff & GUEST_PAGE_OFFSET_MASK] = (uint16_t)uValue;
    810809                pVCpu->cpum.GstCtx.rsp = uNewRsp;
     
    816815    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    817816       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    818     Log10Func(("%RGv falling back\n", GCPtrEff));
     817    Log12Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RGv falling back\n", LOG_FN_NAME, GCPtrEff));
    819818#  endif
    820819    RT_CONCAT3(iemMemStackPush,TMPL_MEM_FN_SUFF,SRegSafeJmp)(pVCpu, uValue);
     
    868867                Assert(pTlbe->pbMappingR3); /* (Only ever cleared by the owning EMT.) */
    869868                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    870                 Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RX32 (<-%RX32): " TMPL_MEM_FMT_TYPE "\n",
    871                       uNewEsp, pVCpu->cpum.GstCtx.esp, uValue));
     869                Log11Ex(LOG_GROUP_IEM_MEM,("IEM WR " TMPL_MEM_FMT_DESC " SS|%RX32 (<-%RX32): " TMPL_MEM_FMT_TYPE "\n",
     870                                           uNewEsp, pVCpu->cpum.GstCtx.esp, uValue));
    872871                *(TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[uNewEsp & GUEST_PAGE_OFFSET_MASK] = uValue;
    873872                pVCpu->cpum.GstCtx.rsp = uNewEsp;
     
    879878    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    880879       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    881     Log10Func(("%RX32 falling back\n", uNewEsp));
     880    Log12Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RX32 falling back\n", LOG_FN_NAME, uNewEsp));
    882881#  endif
    883882    RT_CONCAT3(iemMemStackPush,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu, uValue);
     
    926925                TMPL_MEM_TYPE const uRet = *(TMPL_MEM_TYPE const *)&pTlbe->pbMappingR3[uOldEsp & GUEST_PAGE_OFFSET_MASK];
    927926                pVCpu->cpum.GstCtx.rsp = uOldEsp + sizeof(TMPL_MEM_TYPE);
    928                 Log9(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RX32 (->%RX32): " TMPL_MEM_FMT_TYPE "\n",
    929                       uOldEsp, uOldEsp + sizeof(TMPL_MEM_TYPE), uRet));
     927                Log9Ex(LOG_GROUP_IEM_MEM,("IEM RD " TMPL_MEM_FMT_DESC " SS|%RX32 (->%RX32): " TMPL_MEM_FMT_TYPE "\n",
     928                                          uOldEsp, uOldEsp + sizeof(TMPL_MEM_TYPE), uRet));
    930929                return uRet;
    931930            }
     
    935934    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    936935       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    937     Log10Func(("%RX32 falling back\n", uOldEsp));
     936    Log10Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RX32 falling back\n", LOG_FN_NAME, uOldEsp));
    938937#  endif
    939938    return RT_CONCAT3(iemMemStackPop,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu);
     
    983982                Assert(pTlbe->pbMappingR3); /* (Only ever cleared by the owning EMT.) */
    984983                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    985                 Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RX32 (<-%RX32): " TMPL_MEM_FMT_TYPE " [sreg]\n",
    986                       uNewEsp, pVCpu->cpum.GstCtx.esp, uValue));
     984                Log11Ex(LOG_GROUP_IEM_MEM,("IEM WR " TMPL_MEM_FMT_DESC " SS|%RX32 (<-%RX32): " TMPL_MEM_FMT_TYPE " [sreg]\n",
     985                                           uNewEsp, pVCpu->cpum.GstCtx.esp, uValue));
    987986                *(uint16_t *)&pTlbe->pbMappingR3[uNewEsp & GUEST_PAGE_OFFSET_MASK] = (uint16_t)uValue;
    988987                pVCpu->cpum.GstCtx.rsp = uNewEsp;
     
    994993    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    995994       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    996     Log10Func(("%RX32 falling back\n", uNewEsp));
     995    Log12Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RX32 falling back\n", LOG_FN_NAME, uNewEsp));
    997996#  endif
    998997    RT_CONCAT3(iemMemStackPush,TMPL_MEM_FN_SUFF,SRegSafeJmp)(pVCpu, uValue);
     
    10421041                Assert(pTlbe->pbMappingR3); /* (Only ever cleared by the owning EMT.) */
    10431042                Assert(!((uintptr_t)pTlbe->pbMappingR3 & GUEST_PAGE_OFFSET_MASK));
    1044                 Log8(("IEM WR " TMPL_MEM_FMT_DESC " SS|%RX64 (<-%RX64): " TMPL_MEM_FMT_TYPE "\n",
    1045                       uNewRsp, pVCpu->cpum.GstCtx.esp, uValue));
     1043                Log11Ex(LOG_GROUP_IEM_MEM,("IEM WR " TMPL_MEM_FMT_DESC " SS|%RX64 (<-%RX64): " TMPL_MEM_FMT_TYPE "\n",
     1044                                           uNewRsp, pVCpu->cpum.GstCtx.esp, uValue));
    10461045                *(TMPL_MEM_TYPE *)&pTlbe->pbMappingR3[uNewRsp & GUEST_PAGE_OFFSET_MASK] = uValue;
    10471046                pVCpu->cpum.GstCtx.rsp = uNewRsp;
     
    10531052    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    10541053       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    1055     Log10Func(("%RX64 falling back\n", uNewRsp));
     1054    Log12Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RX64 falling back\n", LOG_FN_NAME, uNewRsp));
    10561055#  endif
    10571056    RT_CONCAT3(iemMemStackPush,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu, uValue);
     
    11001099                TMPL_MEM_TYPE const uRet = *(TMPL_MEM_TYPE const *)&pTlbe->pbMappingR3[uOldRsp & GUEST_PAGE_OFFSET_MASK];
    11011100                pVCpu->cpum.GstCtx.rsp = uOldRsp + sizeof(TMPL_MEM_TYPE);
    1102                 Log9(("IEM RD " TMPL_MEM_FMT_DESC " SS|%RX64 (->%RX64): " TMPL_MEM_FMT_TYPE "\n",
    1103                       uOldRsp, uOldRsp + sizeof(TMPL_MEM_TYPE), uRet));
     1101                Log9Ex(LOG_GROUP_IEM_MEM,("IEM RD " TMPL_MEM_FMT_DESC " SS|%RX64 (->%RX64): " TMPL_MEM_FMT_TYPE "\n",
     1102                                          uOldRsp, uOldRsp + sizeof(TMPL_MEM_TYPE), uRet));
    11041103                return uRet;
    11051104            }
     
    11091108    /* Fall back on the slow careful approach in case of TLB miss, MMIO, exception
    11101109       outdated page pointer, or other troubles.  (This will do a TLB load.) */
    1111     Log10Func(("%RX64 falling back\n", uOldRsp));
     1110    Log10Ex(LOG_GROUP_IEM_MEM,(LOG_FN_FMT ": %RX64 falling back\n", LOG_FN_NAME, uOldRsp));
    11121111#  endif
    11131112    return RT_CONCAT3(iemMemStackPop,TMPL_MEM_FN_SUFF,SafeJmp)(pVCpu);
  • trunk/src/VBox/VMM/include/IEMInline.h

    r100860 r100868  
    100100                     || rcPassUp < VBOXSTRICTRC_VAL(rcStrict))
    101101            {
    102                 Log(("IEM: rcPassUp=%Rrc! rcStrict=%Rrc\n", rcPassUp, VBOXSTRICTRC_VAL(rcStrict)));
     102                LogEx(LOG_GROUP_IEM,("IEM: rcPassUp=%Rrc! rcStrict=%Rrc\n", rcPassUp, VBOXSTRICTRC_VAL(rcStrict)));
    103103                pVCpu->iem.s.cRetPassUpStatus++;
    104104                rcStrict = rcPassUp;
     
    106106            else
    107107            {
    108                 Log(("IEM: rcPassUp=%Rrc  rcStrict=%Rrc!\n", rcPassUp, VBOXSTRICTRC_VAL(rcStrict)));
     108                LogEx(LOG_GROUP_IEM,("IEM: rcPassUp=%Rrc  rcStrict=%Rrc!\n", rcPassUp, VBOXSTRICTRC_VAL(rcStrict)));
    109109                pVCpu->iem.s.cRetInfStatuses++;
    110110            }
     
    152152        if (rcPassUp < rcOldPassUp)
    153153        {
    154             Log(("IEM: rcPassUp=%Rrc! rcOldPassUp=%Rrc\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
     154            LogEx(LOG_GROUP_IEM,("IEM: rcPassUp=%Rrc! rcOldPassUp=%Rrc\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
    155155            pVCpu->iem.s.rcPassUp = VBOXSTRICTRC_VAL(rcPassUp);
    156156        }
    157157        else
    158             Log(("IEM: rcPassUp=%Rrc  rcOldPassUp=%Rrc!\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
     158            LogEx(LOG_GROUP_IEM,("IEM: rcPassUp=%Rrc  rcOldPassUp=%Rrc!\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
    159159    }
    160160    /* Override EM scheduling with specific status code. */
    161161    else if (rcOldPassUp >= VINF_EM_FIRST && rcOldPassUp <= VINF_EM_LAST)
    162162    {
    163         Log(("IEM: rcPassUp=%Rrc! rcOldPassUp=%Rrc\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
     163        LogEx(LOG_GROUP_IEM,("IEM: rcPassUp=%Rrc! rcOldPassUp=%Rrc\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
    164164        pVCpu->iem.s.rcPassUp = VBOXSTRICTRC_VAL(rcPassUp);
    165165    }
    166166    /* Don't override specific status code, first come first served. */
    167167    else
    168         Log(("IEM: rcPassUp=%Rrc  rcOldPassUp=%Rrc!\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
     168        LogEx(LOG_GROUP_IEM,("IEM: rcPassUp=%Rrc  rcOldPassUp=%Rrc!\n", VBOXSTRICTRC_VAL(rcPassUp), rcOldPassUp));
    169169    return VINF_SUCCESS;
    170170}
     
    31463146            uint16_t    uSel = iemSRegFetchU16(pVCpu, iSegReg);
    31473147            AssertRelease(uSel == 0);
    3148             Log(("iemMemSegCheckWriteAccessEx: %#x (index %u) - bad selector -> #GP\n", uSel, iSegReg));
     3148            LogEx(LOG_GROUP_IEM,("iemMemSegCheckWriteAccessEx: %#x (index %u) - bad selector -> #GP\n", uSel, iSegReg));
    31493149            return iemRaiseGeneralProtectionFault0(pVCpu);
    31503150        }
     
    31863186            uint16_t    uSel = iemSRegFetchU16(pVCpu, iSegReg);
    31873187            AssertRelease(uSel == 0);
    3188             Log(("iemMemSegCheckReadAccessEx: %#x (index %u) - bad selector -> #GP\n", uSel, iSegReg));
     3188            LogEx(LOG_GROUP_IEM,("iemMemSegCheckReadAccessEx: %#x (index %u) - bad selector -> #GP\n", uSel, iSegReg));
    31893189            return iemRaiseGeneralProtectionFault0(pVCpu);
    31903190        }
Note: See TracChangeset for help on using the changeset viewer.

© 2024 Oracle Support Privacy / Do Not Sell My Info Terms of Use Trademark Policy Automated Access Etiquette