]> err.no Git - linux-2.6/blobdiff - mm/internal.h
pcmcia: add another pata/ide ID
[linux-2.6] / mm / internal.h
index 17256bb2f4ef23bfef9ec32856057124149f414d..0034e947e4bc677c9220c267eaaa75d5d89e7760 100644 (file)
@@ -8,23 +8,55 @@
  * as published by the Free Software Foundation; either version
  * 2 of the License, or (at your option) any later version.
  */
+#ifndef __MM_INTERNAL_H
+#define __MM_INTERNAL_H
 
-static inline void set_page_refs(struct page *page, int order)
+#include <linux/mm.h>
+
+static inline void set_page_count(struct page *page, int v)
+{
+       atomic_set(&page->_count, v);
+}
+
+/*
+ * Turn a non-refcounted page (->_count == 0) into refcounted with
+ * a count of one.
+ */
+static inline void set_page_refcounted(struct page *page)
 {
-#ifdef CONFIG_MMU
+       VM_BUG_ON(PageTail(page));
+       VM_BUG_ON(atomic_read(&page->_count));
        set_page_count(page, 1);
-#else
-       int i;
-
-       /*
-        * We need to reference all the pages for this order, otherwise if
-        * anyone accesses one of the pages with (get/put) it will be freed.
-        * - eg: access_process_vm()
-        */
-       for (i = 0; i < (1 << order); i++)
-               set_page_count(page + i, 1);
-#endif /* CONFIG_MMU */
 }
 
-extern void fastcall __init __free_pages_bootmem(struct page *page,
-                                               unsigned int order);
+static inline void __put_page(struct page *page)
+{
+       atomic_dec(&page->_count);
+}
+
+extern void __free_pages_bootmem(struct page *page, unsigned int order);
+
+/*
+ * function for dealing with page's order in buddy system.
+ * zone->lock is already acquired when we use these.
+ * So, we don't need atomic page->flags operations here.
+ */
+static inline unsigned long page_order(struct page *page)
+{
+       VM_BUG_ON(!PageBuddy(page));
+       return page_private(page);
+}
+
+/*
+ * FLATMEM and DISCONTIGMEM configurations use alloc_bootmem_node,
+ * so all functions starting at paging_init should be marked __init
+ * in those cases. SPARSEMEM, however, allows for memory hotplug,
+ * and alloc_bootmem_node is not used.
+ */
+#ifdef CONFIG_SPARSEMEM
+#define __paginginit __meminit
+#else
+#define __paginginit __init
+#endif
+
+#endif