]> err.no Git - linux-2.6/blob - arch/x86/kernel/i8253.c
clocksource: add unregister function to disable unusable clocksources
[linux-2.6] / arch / x86 / kernel / i8253.c
1 /*
2  * 8253/PIT functions
3  *
4  */
5 #include <linux/clockchips.h>
6 #include <linux/init.h>
7 #include <linux/interrupt.h>
8 #include <linux/jiffies.h>
9 #include <linux/module.h>
10 #include <linux/spinlock.h>
11
12 #include <asm/smp.h>
13 #include <asm/delay.h>
14 #include <asm/i8253.h>
15 #include <asm/io.h>
16 #include <asm/hpet.h>
17
18 DEFINE_SPINLOCK(i8253_lock);
19 EXPORT_SYMBOL(i8253_lock);
20
21 /*
22  * HPET replaces the PIT, when enabled. So we need to know, which of
23  * the two timers is used
24  */
25 struct clock_event_device *global_clock_event;
26
27 /*
28  * Initialize the PIT timer.
29  *
30  * This is also called after resume to bring the PIT into operation again.
31  */
32 static void init_pit_timer(enum clock_event_mode mode,
33                            struct clock_event_device *evt)
34 {
35         unsigned long flags;
36
37         spin_lock_irqsave(&i8253_lock, flags);
38
39         switch(mode) {
40         case CLOCK_EVT_MODE_PERIODIC:
41                 /* binary, mode 2, LSB/MSB, ch 0 */
42                 outb_p(0x34, PIT_MODE);
43                 outb_p(LATCH & 0xff , PIT_CH0); /* LSB */
44                 outb(LATCH >> 8 , PIT_CH0);     /* MSB */
45                 break;
46
47         case CLOCK_EVT_MODE_SHUTDOWN:
48         case CLOCK_EVT_MODE_UNUSED:
49                 if (evt->mode == CLOCK_EVT_MODE_PERIODIC ||
50                     evt->mode == CLOCK_EVT_MODE_ONESHOT) {
51                         outb_p(0x30, PIT_MODE);
52                         outb_p(0, PIT_CH0);
53                         outb_p(0, PIT_CH0);
54                 }
55                 break;
56
57         case CLOCK_EVT_MODE_ONESHOT:
58                 /* One shot setup */
59                 outb_p(0x38, PIT_MODE);
60                 break;
61
62         case CLOCK_EVT_MODE_RESUME:
63                 /* Nothing to do here */
64                 break;
65         }
66         spin_unlock_irqrestore(&i8253_lock, flags);
67 }
68
69 /*
70  * Program the next event in oneshot mode
71  *
72  * Delta is given in PIT ticks
73  */
74 static int pit_next_event(unsigned long delta, struct clock_event_device *evt)
75 {
76         unsigned long flags;
77
78         spin_lock_irqsave(&i8253_lock, flags);
79         outb_p(delta & 0xff , PIT_CH0); /* LSB */
80         outb(delta >> 8 , PIT_CH0);     /* MSB */
81         spin_unlock_irqrestore(&i8253_lock, flags);
82
83         return 0;
84 }
85
86 /*
87  * On UP the PIT can serve all of the possible timer functions. On SMP systems
88  * it can be solely used for the global tick.
89  *
90  * The profiling and update capabilities are switched off once the local apic is
91  * registered. This mechanism replaces the previous #ifdef LOCAL_APIC -
92  * !using_apic_timer decisions in do_timer_interrupt_hook()
93  */
94 struct clock_event_device pit_clockevent = {
95         .name           = "pit",
96         .features       = CLOCK_EVT_FEAT_PERIODIC | CLOCK_EVT_FEAT_ONESHOT,
97         .set_mode       = init_pit_timer,
98         .set_next_event = pit_next_event,
99         .shift          = 32,
100         .irq            = 0,
101 };
102
103 /*
104  * Initialize the conversion factor and the min/max deltas of the clock event
105  * structure and register the clock event source with the framework.
106  */
107 void __init setup_pit_timer(void)
108 {
109         /*
110          * Start pit with the boot cpu mask and make it global after the
111          * IO_APIC has been initialized.
112          */
113         pit_clockevent.cpumask = cpumask_of_cpu(smp_processor_id());
114         pit_clockevent.mult = div_sc(CLOCK_TICK_RATE, NSEC_PER_SEC, 32);
115         pit_clockevent.max_delta_ns =
116                 clockevent_delta2ns(0x7FFF, &pit_clockevent);
117         pit_clockevent.min_delta_ns =
118                 clockevent_delta2ns(0xF, &pit_clockevent);
119         clockevents_register_device(&pit_clockevent);
120         global_clock_event = &pit_clockevent;
121 }
122
123 #ifndef CONFIG_X86_64
124 /*
125  * Since the PIT overflows every tick, its not very useful
126  * to just read by itself. So use jiffies to emulate a free
127  * running counter:
128  */
129 static cycle_t pit_read(void)
130 {
131         unsigned long flags;
132         int count;
133         u32 jifs;
134         static int old_count;
135         static u32 old_jifs;
136
137         spin_lock_irqsave(&i8253_lock, flags);
138         /*
139          * Although our caller may have the read side of xtime_lock,
140          * this is now a seqlock, and we are cheating in this routine
141          * by having side effects on state that we cannot undo if
142          * there is a collision on the seqlock and our caller has to
143          * retry.  (Namely, old_jifs and old_count.)  So we must treat
144          * jiffies as volatile despite the lock.  We read jiffies
145          * before latching the timer count to guarantee that although
146          * the jiffies value might be older than the count (that is,
147          * the counter may underflow between the last point where
148          * jiffies was incremented and the point where we latch the
149          * count), it cannot be newer.
150          */
151         jifs = jiffies;
152         outb_p(0x00, PIT_MODE); /* latch the count ASAP */
153         count = inb_p(PIT_CH0); /* read the latched count */
154         count |= inb_p(PIT_CH0) << 8;
155
156         /* VIA686a test code... reset the latch if count > max + 1 */
157         if (count > LATCH) {
158                 outb_p(0x34, PIT_MODE);
159                 outb_p(LATCH & 0xff, PIT_CH0);
160                 outb(LATCH >> 8, PIT_CH0);
161                 count = LATCH - 1;
162         }
163
164         /*
165          * It's possible for count to appear to go the wrong way for a
166          * couple of reasons:
167          *
168          *  1. The timer counter underflows, but we haven't handled the
169          *     resulting interrupt and incremented jiffies yet.
170          *  2. Hardware problem with the timer, not giving us continuous time,
171          *     the counter does small "jumps" upwards on some Pentium systems,
172          *     (see c't 95/10 page 335 for Neptun bug.)
173          *
174          * Previous attempts to handle these cases intelligently were
175          * buggy, so we just do the simple thing now.
176          */
177         if (count > old_count && jifs == old_jifs) {
178                 count = old_count;
179         }
180         old_count = count;
181         old_jifs = jifs;
182
183         spin_unlock_irqrestore(&i8253_lock, flags);
184
185         count = (LATCH - 1) - count;
186
187         return (cycle_t)(jifs * LATCH) + count;
188 }
189
190 static struct clocksource clocksource_pit = {
191         .name   = "pit",
192         .rating = 110,
193         .read   = pit_read,
194         .mask   = CLOCKSOURCE_MASK(32),
195         .mult   = 0,
196         .shift  = 20,
197 };
198
199 static int __init init_pit_clocksource(void)
200 {
201          /*
202           * Several reasons not to register PIT as a clocksource:
203           *
204           * - On SMP PIT does not scale due to i8253_lock
205           * - when HPET is enabled
206           * - when local APIC timer is active (PIT is switched off)
207           */
208         if (num_possible_cpus() > 1 || is_hpet_enabled() ||
209             pit_clockevent.mode != CLOCK_EVT_MODE_PERIODIC)
210                 return 0;
211
212         clocksource_pit.mult = clocksource_hz2mult(CLOCK_TICK_RATE, 20);
213         return clocksource_register(&clocksource_pit);
214 }
215 arch_initcall(init_pit_clocksource);
216
217 #endif