]> err.no Git - linux-2.6/blob - include/asm-x86/smp_64.h
x86: make set_cpu_sibling_map nonstatic
[linux-2.6] / include / asm-x86 / smp_64.h
1 #ifndef __ASM_SMP_H
2 #define __ASM_SMP_H
3
4 #include <linux/cpumask.h>
5 #include <linux/init.h>
6
7 /*
8  * We need the APIC definitions automatically as part of 'smp.h'
9  */
10 #include <asm/apic.h>
11 #include <asm/io_apic.h>
12 #include <asm/mpspec.h>
13 #include <asm/pda.h>
14 #include <asm/thread_info.h>
15
16 extern cpumask_t cpu_initialized;
17 extern cpumask_t cpu_callin_map;
18
19 extern int smp_call_function_mask(cpumask_t mask, void (*func)(void *),
20                                   void *info, int wait);
21
22 extern u16 __initdata x86_cpu_to_apicid_init[];
23 extern u16 __initdata x86_bios_cpu_apicid_init[];
24 extern void *x86_cpu_to_apicid_early_ptr;
25 extern void *x86_bios_cpu_apicid_early_ptr;
26
27 DECLARE_PER_CPU(cpumask_t, cpu_sibling_map);
28 DECLARE_PER_CPU(cpumask_t, cpu_core_map);
29 DECLARE_PER_CPU(u16, cpu_llc_id);
30 DECLARE_PER_CPU(u16, x86_cpu_to_apicid);
31 DECLARE_PER_CPU(u16, x86_bios_cpu_apicid);
32
33 static inline int cpu_present_to_apicid(int mps_cpu)
34 {
35         if (cpu_present(mps_cpu))
36                 return (int)per_cpu(x86_bios_cpu_apicid, mps_cpu);
37         else
38                 return BAD_APICID;
39 }
40
41 #ifdef CONFIG_SMP
42
43 #define SMP_TRAMPOLINE_BASE 0x6000
44
45 extern int __cpu_disable(void);
46 extern void __cpu_die(unsigned int cpu);
47
48 #define raw_smp_processor_id()  read_pda(cpunumber)
49 #define cpu_physical_id(cpu)    per_cpu(x86_cpu_to_apicid, cpu)
50
51 #define stack_smp_processor_id()                                        \
52         ({                                                              \
53         struct thread_info *ti;                                         \
54         __asm__("andq %%rsp,%0; ":"=r" (ti) : "0" (CURRENT_MASK));      \
55         ti->cpu;                                                        \
56 })
57
58 /*
59  * On x86 all CPUs are mapped 1:1 to the APIC space. This simplifies
60  * scheduling and IPI sending and compresses data structures.
61  */
62 static inline int num_booting_cpus(void)
63 {
64         return cpus_weight(cpu_callout_map);
65 }
66
67 #else /* CONFIG_SMP */
68
69 extern unsigned int boot_cpu_id;
70 #define cpu_physical_id(cpu)    boot_cpu_id
71 #define stack_smp_processor_id() 0
72
73 #endif /* !CONFIG_SMP */
74
75 #define safe_smp_processor_id()         smp_processor_id()
76
77 static __inline int logical_smp_processor_id(void)
78 {
79         /* we don't want to mark this access volatile - bad code generation */
80         return GET_APIC_LOGICAL_ID(*(u32 *)(APIC_BASE + APIC_LDR));
81 }
82
83 static inline int hard_smp_processor_id(void)
84 {
85         /* we don't want to mark this access volatile - bad code generation */
86         return GET_APIC_ID(*(u32 *)(APIC_BASE + APIC_ID));
87 }
88
89 #endif
90