]> err.no Git - linux-2.6/blobdiff - arch/x86/mm/init_64.c
x86: PAT phys_mem_access_prot_allowed for dev/mem mmap
[linux-2.6] / arch / x86 / mm / init_64.c
index ef9e9cfb1fc2a39df01dacfbe7f351e3c7032493..49c274ee2fba64ea9b48713b96f814fc0afa5d23 100644 (file)
@@ -47,9 +47,6 @@
 #include <asm/numa.h>
 #include <asm/cacheflush.h>
 
-const struct dma_mapping_ops *dma_ops;
-EXPORT_SYMBOL(dma_ops);
-
 static unsigned long dma_reserve __initdata;
 
 DEFINE_PER_CPU(struct mmu_gather, mmu_gathers);
@@ -313,7 +310,7 @@ __meminit void early_iounmap(void *addr, unsigned long size)
        __flush_tlb_all();
 }
 
-static void __meminit
+static unsigned long __meminit
 phys_pmd_init(pmd_t *pmd_page, unsigned long address, unsigned long end)
 {
        int i = pmd_index(address);
@@ -335,21 +332,26 @@ phys_pmd_init(pmd_t *pmd_page, unsigned long address, unsigned long end)
                set_pte((pte_t *)pmd,
                        pfn_pte(address >> PAGE_SHIFT, PAGE_KERNEL_LARGE));
        }
+       return address;
 }
 
-static void __meminit
+static unsigned long __meminit
 phys_pmd_update(pud_t *pud, unsigned long address, unsigned long end)
 {
        pmd_t *pmd = pmd_offset(pud, 0);
+       unsigned long last_map_addr;
+
        spin_lock(&init_mm.page_table_lock);
-       phys_pmd_init(pmd, address, end);
+       last_map_addr = phys_pmd_init(pmd, address, end);
        spin_unlock(&init_mm.page_table_lock);
        __flush_tlb_all();
+       return last_map_addr;
 }
 
-static void __meminit
+static unsigned long __meminit
 phys_pud_init(pud_t *pud_page, unsigned long addr, unsigned long end)
 {
+       unsigned long last_map_addr = end;
        int i = pud_index(addr);
 
        for (; i < PTRS_PER_PUD; i++, addr = (addr & PUD_MASK) + PUD_SIZE) {
@@ -368,13 +370,14 @@ phys_pud_init(pud_t *pud_page, unsigned long addr, unsigned long end)
 
                if (pud_val(*pud)) {
                        if (!pud_large(*pud))
-                               phys_pmd_update(pud, addr, end);
+                               last_map_addr = phys_pmd_update(pud, addr, end);
                        continue;
                }
 
                if (direct_gbpages) {
                        set_pte((pte_t *)pud,
                                pfn_pte(addr >> PAGE_SHIFT, PAGE_KERNEL_LARGE));
+                       last_map_addr = (addr & PUD_MASK) + PUD_SIZE;
                        continue;
                }
 
@@ -382,12 +385,14 @@ phys_pud_init(pud_t *pud_page, unsigned long addr, unsigned long end)
 
                spin_lock(&init_mm.page_table_lock);
                set_pud(pud, __pud(pmd_phys | _KERNPG_TABLE));
-               phys_pmd_init(pmd, addr, end);
+               last_map_addr = phys_pmd_init(pmd, addr, end);
                spin_unlock(&init_mm.page_table_lock);
 
                unmap_low_page(pmd);
        }
        __flush_tlb_all();
+
+       return last_map_addr >> PAGE_SHIFT;
 }
 
 static void __init find_early_table_space(unsigned long end)
@@ -542,9 +547,9 @@ static void __init early_memtest(unsigned long start, unsigned long end)
  * This runs before bootmem is initialized and gets pages directly from
  * the physical memory. To access them they are temporarily mapped.
  */
-void __init_refok init_memory_mapping(unsigned long start, unsigned long end)
+unsigned long __init_refok init_memory_mapping(unsigned long start, unsigned long end)
 {
-       unsigned long next;
+       unsigned long next, last_map_addr = end;
        unsigned long start_phys = start, end_phys = end;
 
        printk(KERN_INFO "init_memory_mapping\n");
@@ -577,7 +582,7 @@ void __init_refok init_memory_mapping(unsigned long start, unsigned long end)
                next = start + PGDIR_SIZE;
                if (next > end)
                        next = end;
-               phys_pud_init(pud, __pa(start), __pa(next));
+               last_map_addr = phys_pud_init(pud, __pa(start), __pa(next));
                if (!after_bootmem)
                        set_pgd(pgd_offset_k(start), mk_kernel_pgd(pud_phys));
                unmap_low_page(pud);
@@ -593,6 +598,8 @@ void __init_refok init_memory_mapping(unsigned long start, unsigned long end)
 
        if (!after_bootmem)
                early_memtest(start_phys, end_phys);
+
+       return last_map_addr;
 }
 
 #ifndef CONFIG_NUMA
@@ -632,11 +639,13 @@ int arch_add_memory(int nid, u64 start, u64 size)
 {
        struct pglist_data *pgdat = NODE_DATA(nid);
        struct zone *zone = pgdat->node_zones + ZONE_NORMAL;
-       unsigned long start_pfn = start >> PAGE_SHIFT;
+       unsigned long last_mapped_pfn, start_pfn = start >> PAGE_SHIFT;
        unsigned long nr_pages = size >> PAGE_SHIFT;
        int ret;
 
-       init_memory_mapping(start, start + size-1);
+       last_mapped_pfn = init_memory_mapping(start, start + size-1);
+       if (last_mapped_pfn > max_pfn_mapped)
+               max_pfn_mapped = last_mapped_pfn;
 
        ret = __add_pages(zone, start_pfn, nr_pages);
        WARN_ON(1);
@@ -655,6 +664,26 @@ EXPORT_SYMBOL_GPL(memory_add_physaddr_to_nid);
 
 #endif /* CONFIG_MEMORY_HOTPLUG */
 
+/*
+ * devmem_is_allowed() checks to see if /dev/mem access to a certain address
+ * is valid. The argument is a physical page number.
+ *
+ *
+ * On x86, access has to be given to the first megabyte of ram because that area
+ * contains bios code and data regions used by X and dosemu and similar apps.
+ * Access has to be given to non-kernel-ram areas as well, these contain the PCI
+ * mmio resources as well as potential bios/acpi data regions.
+ */
+int devmem_is_allowed(unsigned long pagenr)
+{
+       if (pagenr <= 256)
+               return 1;
+       if (!page_is_ram(pagenr))
+               return 1;
+       return 0;
+}
+
+
 static struct kcore_list kcore_mem, kcore_vmalloc, kcore_kernel,
                         kcore_modules, kcore_vsyscall;