]> err.no Git - linux-2.6/blob - include/net/xfrm.h
[TCP]: Abstract tp->highest_sack accessing & point to next skb
[linux-2.6] / include / net / xfrm.h
1 #ifndef _NET_XFRM_H
2 #define _NET_XFRM_H
3
4 #include <linux/compiler.h>
5 #include <linux/xfrm.h>
6 #include <linux/spinlock.h>
7 #include <linux/list.h>
8 #include <linux/skbuff.h>
9 #include <linux/socket.h>
10 #include <linux/pfkeyv2.h>
11 #include <linux/ipsec.h>
12 #include <linux/in6.h>
13 #include <linux/mutex.h>
14 #include <linux/audit.h>
15
16 #include <net/sock.h>
17 #include <net/dst.h>
18 #include <net/ip.h>
19 #include <net/route.h>
20 #include <net/ipv6.h>
21 #include <net/ip6_fib.h>
22
23 #define XFRM_PROTO_ESP          50
24 #define XFRM_PROTO_AH           51
25 #define XFRM_PROTO_COMP         108
26 #define XFRM_PROTO_IPIP         4
27 #define XFRM_PROTO_IPV6         41
28 #define XFRM_PROTO_ROUTING      IPPROTO_ROUTING
29 #define XFRM_PROTO_DSTOPTS      IPPROTO_DSTOPTS
30
31 #define XFRM_ALIGN8(len)        (((len) + 7) & ~7)
32 #define MODULE_ALIAS_XFRM_MODE(family, encap) \
33         MODULE_ALIAS("xfrm-mode-" __stringify(family) "-" __stringify(encap))
34 #define MODULE_ALIAS_XFRM_TYPE(family, proto) \
35         MODULE_ALIAS("xfrm-type-" __stringify(family) "-" __stringify(proto))
36
37 extern struct sock *xfrm_nl;
38 extern u32 sysctl_xfrm_aevent_etime;
39 extern u32 sysctl_xfrm_aevent_rseqth;
40 extern int sysctl_xfrm_larval_drop;
41 extern u32 sysctl_xfrm_acq_expires;
42
43 extern struct mutex xfrm_cfg_mutex;
44
45 /* Organization of SPD aka "XFRM rules"
46    ------------------------------------
47
48    Basic objects:
49    - policy rule, struct xfrm_policy (=SPD entry)
50    - bundle of transformations, struct dst_entry == struct xfrm_dst (=SA bundle)
51    - instance of a transformer, struct xfrm_state (=SA)
52    - template to clone xfrm_state, struct xfrm_tmpl
53
54    SPD is plain linear list of xfrm_policy rules, ordered by priority.
55    (To be compatible with existing pfkeyv2 implementations,
56    many rules with priority of 0x7fffffff are allowed to exist and
57    such rules are ordered in an unpredictable way, thanks to bsd folks.)
58
59    Lookup is plain linear search until the first match with selector.
60
61    If "action" is "block", then we prohibit the flow, otherwise:
62    if "xfrms_nr" is zero, the flow passes untransformed. Otherwise,
63    policy entry has list of up to XFRM_MAX_DEPTH transformations,
64    described by templates xfrm_tmpl. Each template is resolved
65    to a complete xfrm_state (see below) and we pack bundle of transformations
66    to a dst_entry returned to requestor.
67
68    dst -. xfrm  .-> xfrm_state #1
69     |---. child .-> dst -. xfrm .-> xfrm_state #2
70                      |---. child .-> dst -. xfrm .-> xfrm_state #3
71                                       |---. child .-> NULL
72
73    Bundles are cached at xrfm_policy struct (field ->bundles).
74
75
76    Resolution of xrfm_tmpl
77    -----------------------
78    Template contains:
79    1. ->mode            Mode: transport or tunnel
80    2. ->id.proto        Protocol: AH/ESP/IPCOMP
81    3. ->id.daddr        Remote tunnel endpoint, ignored for transport mode.
82       Q: allow to resolve security gateway?
83    4. ->id.spi          If not zero, static SPI.
84    5. ->saddr           Local tunnel endpoint, ignored for transport mode.
85    6. ->algos           List of allowed algos. Plain bitmask now.
86       Q: ealgos, aalgos, calgos. What a mess...
87    7. ->share           Sharing mode.
88       Q: how to implement private sharing mode? To add struct sock* to
89       flow id?
90
91    Having this template we search through SAD searching for entries
92    with appropriate mode/proto/algo, permitted by selector.
93    If no appropriate entry found, it is requested from key manager.
94
95    PROBLEMS:
96    Q: How to find all the bundles referring to a physical path for
97       PMTU discovery? Seems, dst should contain list of all parents...
98       and enter to infinite locking hierarchy disaster.
99       No! It is easier, we will not search for them, let them find us.
100       We add genid to each dst plus pointer to genid of raw IP route,
101       pmtu disc will update pmtu on raw IP route and increase its genid.
102       dst_check() will see this for top level and trigger resyncing
103       metrics. Plus, it will be made via sk->sk_dst_cache. Solved.
104  */
105
106 /* Full description of state of transformer. */
107 struct xfrm_state
108 {
109         /* Note: bydst is re-used during gc */
110         struct hlist_node       bydst;
111         struct hlist_node       bysrc;
112         struct hlist_node       byspi;
113
114         atomic_t                refcnt;
115         spinlock_t              lock;
116
117         struct xfrm_id          id;
118         struct xfrm_selector    sel;
119
120         u32                     genid;
121
122         /* Key manger bits */
123         struct {
124                 u8              state;
125                 u8              dying;
126                 u32             seq;
127         } km;
128
129         /* Parameters of this state. */
130         struct {
131                 u32             reqid;
132                 u8              mode;
133                 u8              replay_window;
134                 u8              aalgo, ealgo, calgo;
135                 u8              flags;
136                 u16             family;
137                 xfrm_address_t  saddr;
138                 int             header_len;
139                 int             trailer_len;
140         } props;
141
142         struct xfrm_lifetime_cfg lft;
143
144         /* Data for transformer */
145         struct xfrm_algo        *aalg;
146         struct xfrm_algo        *ealg;
147         struct xfrm_algo        *calg;
148
149         /* Data for encapsulator */
150         struct xfrm_encap_tmpl  *encap;
151
152         /* Data for care-of address */
153         xfrm_address_t  *coaddr;
154
155         /* IPComp needs an IPIP tunnel for handling uncompressed packets */
156         struct xfrm_state       *tunnel;
157
158         /* If a tunnel, number of users + 1 */
159         atomic_t                tunnel_users;
160
161         /* State for replay detection */
162         struct xfrm_replay_state replay;
163
164         /* Replay detection state at the time we sent the last notification */
165         struct xfrm_replay_state preplay;
166
167         /* internal flag that only holds state for delayed aevent at the
168          * moment
169         */
170         u32                     xflags;
171
172         /* Replay detection notification settings */
173         u32                     replay_maxage;
174         u32                     replay_maxdiff;
175
176         /* Replay detection notification timer */
177         struct timer_list       rtimer;
178
179         /* Statistics */
180         struct xfrm_stats       stats;
181
182         struct xfrm_lifetime_cur curlft;
183         struct timer_list       timer;
184
185         /* Last used time */
186         unsigned long           lastused;
187
188         /* Reference to data common to all the instances of this
189          * transformer. */
190         struct xfrm_type        *type;
191         struct xfrm_mode        *inner_mode;
192         struct xfrm_mode        *outer_mode;
193
194         /* Security context */
195         struct xfrm_sec_ctx     *security;
196
197         /* Private data of this transformer, format is opaque,
198          * interpreted by xfrm_type methods. */
199         void                    *data;
200 };
201
202 /* xflags - make enum if more show up */
203 #define XFRM_TIME_DEFER 1
204
205 enum {
206         XFRM_STATE_VOID,
207         XFRM_STATE_ACQ,
208         XFRM_STATE_VALID,
209         XFRM_STATE_ERROR,
210         XFRM_STATE_EXPIRED,
211         XFRM_STATE_DEAD
212 };
213
214 /* callback structure passed from either netlink or pfkey */
215 struct km_event
216 {
217         union {
218                 u32 hard;
219                 u32 proto;
220                 u32 byid;
221                 u32 aevent;
222                 u32 type;
223         } data;
224
225         u32     seq;
226         u32     pid;
227         u32     event;
228 };
229
230 struct net_device;
231 struct xfrm_type;
232 struct xfrm_dst;
233 struct xfrm_policy_afinfo {
234         unsigned short          family;
235         struct dst_ops          *dst_ops;
236         void                    (*garbage_collect)(void);
237         struct dst_entry        *(*dst_lookup)(int tos, xfrm_address_t *saddr,
238                                                xfrm_address_t *daddr);
239         int                     (*get_saddr)(xfrm_address_t *saddr, xfrm_address_t *daddr);
240         struct dst_entry        *(*find_bundle)(struct flowi *fl, struct xfrm_policy *policy);
241         void                    (*decode_session)(struct sk_buff *skb,
242                                                   struct flowi *fl);
243         int                     (*get_tos)(struct flowi *fl);
244         int                     (*fill_dst)(struct xfrm_dst *xdst,
245                                             struct net_device *dev);
246 };
247
248 extern int xfrm_policy_register_afinfo(struct xfrm_policy_afinfo *afinfo);
249 extern int xfrm_policy_unregister_afinfo(struct xfrm_policy_afinfo *afinfo);
250 extern void km_policy_notify(struct xfrm_policy *xp, int dir, struct km_event *c);
251 extern void km_state_notify(struct xfrm_state *x, struct km_event *c);
252
253 struct xfrm_tmpl;
254 extern int km_query(struct xfrm_state *x, struct xfrm_tmpl *t, struct xfrm_policy *pol);
255 extern void km_state_expired(struct xfrm_state *x, int hard, u32 pid);
256 extern int __xfrm_state_delete(struct xfrm_state *x);
257
258 struct xfrm_state_afinfo {
259         unsigned int            family;
260         unsigned int            proto;
261         unsigned int            eth_proto;
262         struct module           *owner;
263         struct xfrm_type        *type_map[IPPROTO_MAX];
264         struct xfrm_mode        *mode_map[XFRM_MODE_MAX];
265         int                     (*init_flags)(struct xfrm_state *x);
266         void                    (*init_tempsel)(struct xfrm_state *x, struct flowi *fl,
267                                                 struct xfrm_tmpl *tmpl,
268                                                 xfrm_address_t *daddr, xfrm_address_t *saddr);
269         int                     (*tmpl_sort)(struct xfrm_tmpl **dst, struct xfrm_tmpl **src, int n);
270         int                     (*state_sort)(struct xfrm_state **dst, struct xfrm_state **src, int n);
271         int                     (*output)(struct sk_buff *skb);
272         int                     (*extract_input)(struct xfrm_state *x,
273                                                  struct sk_buff *skb);
274         int                     (*extract_output)(struct xfrm_state *x,
275                                                   struct sk_buff *skb);
276         int                     (*transport_finish)(struct sk_buff *skb,
277                                                     int async);
278 };
279
280 extern int xfrm_state_register_afinfo(struct xfrm_state_afinfo *afinfo);
281 extern int xfrm_state_unregister_afinfo(struct xfrm_state_afinfo *afinfo);
282
283 extern void xfrm_state_delete_tunnel(struct xfrm_state *x);
284
285 struct xfrm_type
286 {
287         char                    *description;
288         struct module           *owner;
289         __u8                    proto;
290         __u8                    flags;
291 #define XFRM_TYPE_NON_FRAGMENT  1
292 #define XFRM_TYPE_REPLAY_PROT   2
293 #define XFRM_TYPE_LOCAL_COADDR  4
294 #define XFRM_TYPE_REMOTE_COADDR 8
295
296         int                     (*init_state)(struct xfrm_state *x);
297         void                    (*destructor)(struct xfrm_state *);
298         int                     (*input)(struct xfrm_state *, struct sk_buff *skb);
299         int                     (*output)(struct xfrm_state *, struct sk_buff *pskb);
300         int                     (*reject)(struct xfrm_state *, struct sk_buff *, struct flowi *);
301         int                     (*hdr_offset)(struct xfrm_state *, struct sk_buff *, u8 **);
302         /* Estimate maximal size of result of transformation of a dgram */
303         u32                     (*get_mtu)(struct xfrm_state *, int size);
304 };
305
306 extern int xfrm_register_type(struct xfrm_type *type, unsigned short family);
307 extern int xfrm_unregister_type(struct xfrm_type *type, unsigned short family);
308
309 struct xfrm_mode {
310         /*
311          * Remove encapsulation header.
312          *
313          * The IP header will be moved over the top of the encapsulation
314          * header.
315          *
316          * On entry, the transport header shall point to where the IP header
317          * should be and the network header shall be set to where the IP
318          * header currently is.  skb->data shall point to the start of the
319          * payload.
320          */
321         int (*input2)(struct xfrm_state *x, struct sk_buff *skb);
322
323         /*
324          * This is the actual input entry point.
325          *
326          * For transport mode and equivalent this would be identical to
327          * input2 (which does not need to be set).  While tunnel mode
328          * and equivalent would set this to the tunnel encapsulation function
329          * xfrm4_prepare_input that would in turn call input2.
330          */
331         int (*input)(struct xfrm_state *x, struct sk_buff *skb);
332
333         /*
334          * Add encapsulation header.
335          *
336          * On exit, the transport header will be set to the start of the
337          * encapsulation header to be filled in by x->type->output and
338          * the mac header will be set to the nextheader (protocol for
339          * IPv4) field of the extension header directly preceding the
340          * encapsulation header, or in its absence, that of the top IP
341          * header.  The value of the network header will always point
342          * to the top IP header while skb->data will point to the payload.
343          */
344         int (*output2)(struct xfrm_state *x,struct sk_buff *skb);
345
346         /*
347          * This is the actual output entry point.
348          *
349          * For transport mode and equivalent this would be identical to
350          * output2 (which does not need to be set).  While tunnel mode
351          * and equivalent would set this to a tunnel encapsulation function
352          * (xfrm4_prepare_output or xfrm6_prepare_output) that would in turn
353          * call output2.
354          */
355         int (*output)(struct xfrm_state *x, struct sk_buff *skb);
356
357         struct xfrm_state_afinfo *afinfo;
358         struct module *owner;
359         unsigned int encap;
360         int flags;
361 };
362
363 /* Flags for xfrm_mode. */
364 enum {
365         XFRM_MODE_FLAG_TUNNEL = 1,
366 };
367
368 extern int xfrm_register_mode(struct xfrm_mode *mode, int family);
369 extern int xfrm_unregister_mode(struct xfrm_mode *mode, int family);
370
371 struct xfrm_tmpl
372 {
373 /* id in template is interpreted as:
374  * daddr - destination of tunnel, may be zero for transport mode.
375  * spi   - zero to acquire spi. Not zero if spi is static, then
376  *         daddr must be fixed too.
377  * proto - AH/ESP/IPCOMP
378  */
379         struct xfrm_id          id;
380
381 /* Source address of tunnel. Ignored, if it is not a tunnel. */
382         xfrm_address_t          saddr;
383
384         unsigned short          encap_family;
385
386         __u32                   reqid;
387
388 /* Mode: transport, tunnel etc. */
389         __u8                    mode;
390
391 /* Sharing mode: unique, this session only, this user only etc. */
392         __u8                    share;
393
394 /* May skip this transfomration if no SA is found */
395         __u8                    optional;
396
397 /* Bit mask of algos allowed for acquisition */
398         __u32                   aalgos;
399         __u32                   ealgos;
400         __u32                   calgos;
401 };
402
403 #define XFRM_MAX_DEPTH          6
404
405 struct xfrm_policy
406 {
407         struct xfrm_policy      *next;
408         struct hlist_node       bydst;
409         struct hlist_node       byidx;
410
411         /* This lock only affects elements except for entry. */
412         rwlock_t                lock;
413         atomic_t                refcnt;
414         struct timer_list       timer;
415
416         u32                     priority;
417         u32                     index;
418         struct xfrm_selector    selector;
419         struct xfrm_lifetime_cfg lft;
420         struct xfrm_lifetime_cur curlft;
421         struct dst_entry       *bundles;
422         u16                     family;
423         u8                      type;
424         u8                      action;
425         u8                      flags;
426         u8                      dead;
427         u8                      xfrm_nr;
428         /* XXX 1 byte hole, try to pack */
429         struct xfrm_sec_ctx     *security;
430         struct xfrm_tmpl        xfrm_vec[XFRM_MAX_DEPTH];
431 };
432
433 struct xfrm_migrate {
434         xfrm_address_t          old_daddr;
435         xfrm_address_t          old_saddr;
436         xfrm_address_t          new_daddr;
437         xfrm_address_t          new_saddr;
438         u8                      proto;
439         u8                      mode;
440         u16                     reserved;
441         u32                     reqid;
442         u16                     old_family;
443         u16                     new_family;
444 };
445
446 #define XFRM_KM_TIMEOUT                30
447 /* which seqno */
448 #define XFRM_REPLAY_SEQ         1
449 #define XFRM_REPLAY_OSEQ        2
450 #define XFRM_REPLAY_SEQ_MASK    3
451 /* what happened */
452 #define XFRM_REPLAY_UPDATE      XFRM_AE_CR
453 #define XFRM_REPLAY_TIMEOUT     XFRM_AE_CE
454
455 /* default aevent timeout in units of 100ms */
456 #define XFRM_AE_ETIME                   10
457 /* Async Event timer multiplier */
458 #define XFRM_AE_ETH_M                   10
459 /* default seq threshold size */
460 #define XFRM_AE_SEQT_SIZE               2
461
462 struct xfrm_mgr
463 {
464         struct list_head        list;
465         char                    *id;
466         int                     (*notify)(struct xfrm_state *x, struct km_event *c);
467         int                     (*acquire)(struct xfrm_state *x, struct xfrm_tmpl *, struct xfrm_policy *xp, int dir);
468         struct xfrm_policy      *(*compile_policy)(struct sock *sk, int opt, u8 *data, int len, int *dir);
469         int                     (*new_mapping)(struct xfrm_state *x, xfrm_address_t *ipaddr, __be16 sport);
470         int                     (*notify_policy)(struct xfrm_policy *x, int dir, struct km_event *c);
471         int                     (*report)(u8 proto, struct xfrm_selector *sel, xfrm_address_t *addr);
472         int                     (*migrate)(struct xfrm_selector *sel, u8 dir, u8 type, struct xfrm_migrate *m, int num_bundles);
473 };
474
475 extern int xfrm_register_km(struct xfrm_mgr *km);
476 extern int xfrm_unregister_km(struct xfrm_mgr *km);
477
478 extern unsigned int xfrm_policy_count[XFRM_POLICY_MAX*2];
479
480 /*
481  * This structure is used for the duration where packets are being
482  * transformed by IPsec.  As soon as the packet leaves IPsec the
483  * area beyond the generic IP part may be overwritten.
484  */
485 struct xfrm_skb_cb {
486         union {
487                 struct inet_skb_parm h4;
488                 struct inet6_skb_parm h6;
489         } header;
490
491         /* Sequence number for replay protection. */
492         u64 seq;
493 };
494
495 #define XFRM_SKB_CB(__skb) ((struct xfrm_skb_cb *)&((__skb)->cb[0]))
496
497 /*
498  * This structure is used by the afinfo prepare_input/prepare_output functions
499  * to transmit header information to the mode input/output functions.
500  */
501 struct xfrm_mode_skb_cb {
502         union {
503                 struct inet_skb_parm h4;
504                 struct inet6_skb_parm h6;
505         } header;
506
507         /* Copied from header for IPv4, always set to zero and DF for IPv6. */
508         __be16 id;
509         __be16 frag_off;
510
511         /* TOS for IPv4, class for IPv6. */
512         u8 tos;
513
514         /* TTL for IPv4, hop limitfor IPv6. */
515         u8 ttl;
516
517         /* Protocol for IPv4, NH for IPv6. */
518         u8 protocol;
519
520         /* Used by IPv6 only, zero for IPv4. */
521         u8 flow_lbl[3];
522 };
523
524 #define XFRM_MODE_SKB_CB(__skb) ((struct xfrm_mode_skb_cb *)&((__skb)->cb[0]))
525
526 /*
527  * This structure is used by the input processing to locate the SPI and
528  * related information.
529  */
530 struct xfrm_spi_skb_cb {
531         union {
532                 struct inet_skb_parm h4;
533                 struct inet6_skb_parm h6;
534         } header;
535
536         unsigned int daddroff;
537 };
538
539 #define XFRM_SPI_SKB_CB(__skb) ((struct xfrm_spi_skb_cb *)&((__skb)->cb[0]))
540
541 /* Audit Information */
542 struct xfrm_audit
543 {
544         u32     loginuid;
545         u32     secid;
546 };
547
548 #ifdef CONFIG_AUDITSYSCALL
549 static inline struct audit_buffer *xfrm_audit_start(u32 auid, u32 sid)
550 {
551         struct audit_buffer *audit_buf = NULL;
552         char *secctx;
553         u32 secctx_len;
554
555         audit_buf = audit_log_start(current->audit_context, GFP_ATOMIC,
556                               AUDIT_MAC_IPSEC_EVENT);
557         if (audit_buf == NULL)
558                 return NULL;
559
560         audit_log_format(audit_buf, "auid=%u", auid);
561
562         if (sid != 0 &&
563             security_secid_to_secctx(sid, &secctx, &secctx_len) == 0) {
564                 audit_log_format(audit_buf, " subj=%s", secctx);
565                 security_release_secctx(secctx, secctx_len);
566         } else
567                 audit_log_task_context(audit_buf);
568         return audit_buf;
569 }
570
571 extern void xfrm_audit_policy_add(struct xfrm_policy *xp, int result,
572                                   u32 auid, u32 sid);
573 extern void xfrm_audit_policy_delete(struct xfrm_policy *xp, int result,
574                                   u32 auid, u32 sid);
575 extern void xfrm_audit_state_add(struct xfrm_state *x, int result,
576                                  u32 auid, u32 sid);
577 extern void xfrm_audit_state_delete(struct xfrm_state *x, int result,
578                                     u32 auid, u32 sid);
579 #else
580 #define xfrm_audit_policy_add(x, r, a, s)       do { ; } while (0)
581 #define xfrm_audit_policy_delete(x, r, a, s)    do { ; } while (0)
582 #define xfrm_audit_state_add(x, r, a, s)        do { ; } while (0)
583 #define xfrm_audit_state_delete(x, r, a, s)     do { ; } while (0)
584 #endif /* CONFIG_AUDITSYSCALL */
585
586 static inline void xfrm_pol_hold(struct xfrm_policy *policy)
587 {
588         if (likely(policy != NULL))
589                 atomic_inc(&policy->refcnt);
590 }
591
592 extern void __xfrm_policy_destroy(struct xfrm_policy *policy);
593
594 static inline void xfrm_pol_put(struct xfrm_policy *policy)
595 {
596         if (atomic_dec_and_test(&policy->refcnt))
597                 __xfrm_policy_destroy(policy);
598 }
599
600 #ifdef CONFIG_XFRM_SUB_POLICY
601 static inline void xfrm_pols_put(struct xfrm_policy **pols, int npols)
602 {
603         int i;
604         for (i = npols - 1; i >= 0; --i)
605                 xfrm_pol_put(pols[i]);
606 }
607 #else
608 static inline void xfrm_pols_put(struct xfrm_policy **pols, int npols)
609 {
610         xfrm_pol_put(pols[0]);
611 }
612 #endif
613
614 extern void __xfrm_state_destroy(struct xfrm_state *);
615
616 static inline void __xfrm_state_put(struct xfrm_state *x)
617 {
618         atomic_dec(&x->refcnt);
619 }
620
621 static inline void xfrm_state_put(struct xfrm_state *x)
622 {
623         if (atomic_dec_and_test(&x->refcnt))
624                 __xfrm_state_destroy(x);
625 }
626
627 static inline void xfrm_state_hold(struct xfrm_state *x)
628 {
629         atomic_inc(&x->refcnt);
630 }
631
632 static __inline__ int addr_match(void *token1, void *token2, int prefixlen)
633 {
634         __be32 *a1 = token1;
635         __be32 *a2 = token2;
636         int pdw;
637         int pbi;
638
639         pdw = prefixlen >> 5;     /* num of whole __u32 in prefix */
640         pbi = prefixlen &  0x1f;  /* num of bits in incomplete u32 in prefix */
641
642         if (pdw)
643                 if (memcmp(a1, a2, pdw << 2))
644                         return 0;
645
646         if (pbi) {
647                 __be32 mask;
648
649                 mask = htonl((0xffffffff) << (32 - pbi));
650
651                 if ((a1[pdw] ^ a2[pdw]) & mask)
652                         return 0;
653         }
654
655         return 1;
656 }
657
658 static __inline__
659 __be16 xfrm_flowi_sport(struct flowi *fl)
660 {
661         __be16 port;
662         switch(fl->proto) {
663         case IPPROTO_TCP:
664         case IPPROTO_UDP:
665         case IPPROTO_UDPLITE:
666         case IPPROTO_SCTP:
667                 port = fl->fl_ip_sport;
668                 break;
669         case IPPROTO_ICMP:
670         case IPPROTO_ICMPV6:
671                 port = htons(fl->fl_icmp_type);
672                 break;
673         case IPPROTO_MH:
674                 port = htons(fl->fl_mh_type);
675                 break;
676         default:
677                 port = 0;       /*XXX*/
678         }
679         return port;
680 }
681
682 static __inline__
683 __be16 xfrm_flowi_dport(struct flowi *fl)
684 {
685         __be16 port;
686         switch(fl->proto) {
687         case IPPROTO_TCP:
688         case IPPROTO_UDP:
689         case IPPROTO_UDPLITE:
690         case IPPROTO_SCTP:
691                 port = fl->fl_ip_dport;
692                 break;
693         case IPPROTO_ICMP:
694         case IPPROTO_ICMPV6:
695                 port = htons(fl->fl_icmp_code);
696                 break;
697         default:
698                 port = 0;       /*XXX*/
699         }
700         return port;
701 }
702
703 extern int xfrm_selector_match(struct xfrm_selector *sel, struct flowi *fl,
704                                unsigned short family);
705
706 #ifdef CONFIG_SECURITY_NETWORK_XFRM
707 /*      If neither has a context --> match
708  *      Otherwise, both must have a context and the sids, doi, alg must match
709  */
710 static inline int xfrm_sec_ctx_match(struct xfrm_sec_ctx *s1, struct xfrm_sec_ctx *s2)
711 {
712         return ((!s1 && !s2) ||
713                 (s1 && s2 &&
714                  (s1->ctx_sid == s2->ctx_sid) &&
715                  (s1->ctx_doi == s2->ctx_doi) &&
716                  (s1->ctx_alg == s2->ctx_alg)));
717 }
718 #else
719 static inline int xfrm_sec_ctx_match(struct xfrm_sec_ctx *s1, struct xfrm_sec_ctx *s2)
720 {
721         return 1;
722 }
723 #endif
724
725 /* A struct encoding bundle of transformations to apply to some set of flow.
726  *
727  * dst->child points to the next element of bundle.
728  * dst->xfrm  points to an instanse of transformer.
729  *
730  * Due to unfortunate limitations of current routing cache, which we
731  * have no time to fix, it mirrors struct rtable and bound to the same
732  * routing key, including saddr,daddr. However, we can have many of
733  * bundles differing by session id. All the bundles grow from a parent
734  * policy rule.
735  */
736 struct xfrm_dst
737 {
738         union {
739                 struct dst_entry        dst;
740                 struct rtable           rt;
741                 struct rt6_info         rt6;
742         } u;
743         struct dst_entry *route;
744 #ifdef CONFIG_XFRM_SUB_POLICY
745         struct flowi *origin;
746         struct xfrm_selector *partner;
747 #endif
748         u32 genid;
749         u32 route_mtu_cached;
750         u32 child_mtu_cached;
751         u32 route_cookie;
752         u32 path_cookie;
753 };
754
755 static inline void xfrm_dst_destroy(struct xfrm_dst *xdst)
756 {
757         dst_release(xdst->route);
758         if (likely(xdst->u.dst.xfrm))
759                 xfrm_state_put(xdst->u.dst.xfrm);
760 #ifdef CONFIG_XFRM_SUB_POLICY
761         kfree(xdst->origin);
762         xdst->origin = NULL;
763         kfree(xdst->partner);
764         xdst->partner = NULL;
765 #endif
766 }
767
768 extern void xfrm_dst_ifdown(struct dst_entry *dst, struct net_device *dev);
769
770 struct sec_path
771 {
772         atomic_t                refcnt;
773         int                     len;
774         struct xfrm_state       *xvec[XFRM_MAX_DEPTH];
775 };
776
777 static inline struct sec_path *
778 secpath_get(struct sec_path *sp)
779 {
780         if (sp)
781                 atomic_inc(&sp->refcnt);
782         return sp;
783 }
784
785 extern void __secpath_destroy(struct sec_path *sp);
786
787 static inline void
788 secpath_put(struct sec_path *sp)
789 {
790         if (sp && atomic_dec_and_test(&sp->refcnt))
791                 __secpath_destroy(sp);
792 }
793
794 extern struct sec_path *secpath_dup(struct sec_path *src);
795
796 static inline void
797 secpath_reset(struct sk_buff *skb)
798 {
799 #ifdef CONFIG_XFRM
800         secpath_put(skb->sp);
801         skb->sp = NULL;
802 #endif
803 }
804
805 static inline int
806 xfrm_addr_any(xfrm_address_t *addr, unsigned short family)
807 {
808         switch (family) {
809         case AF_INET:
810                 return addr->a4 == 0;
811         case AF_INET6:
812                 return ipv6_addr_any((struct in6_addr *)&addr->a6);
813         }
814         return 0;
815 }
816
817 static inline int
818 __xfrm4_state_addr_cmp(struct xfrm_tmpl *tmpl, struct xfrm_state *x)
819 {
820         return  (tmpl->saddr.a4 &&
821                  tmpl->saddr.a4 != x->props.saddr.a4);
822 }
823
824 static inline int
825 __xfrm6_state_addr_cmp(struct xfrm_tmpl *tmpl, struct xfrm_state *x)
826 {
827         return  (!ipv6_addr_any((struct in6_addr*)&tmpl->saddr) &&
828                  ipv6_addr_cmp((struct in6_addr *)&tmpl->saddr, (struct in6_addr*)&x->props.saddr));
829 }
830
831 static inline int
832 xfrm_state_addr_cmp(struct xfrm_tmpl *tmpl, struct xfrm_state *x, unsigned short family)
833 {
834         switch (family) {
835         case AF_INET:
836                 return __xfrm4_state_addr_cmp(tmpl, x);
837         case AF_INET6:
838                 return __xfrm6_state_addr_cmp(tmpl, x);
839         }
840         return !0;
841 }
842
843 #ifdef CONFIG_XFRM
844
845 extern int __xfrm_policy_check(struct sock *, int dir, struct sk_buff *skb, unsigned short family);
846
847 static inline int xfrm_policy_check(struct sock *sk, int dir, struct sk_buff *skb, unsigned short family)
848 {
849         if (sk && sk->sk_policy[XFRM_POLICY_IN])
850                 return __xfrm_policy_check(sk, dir, skb, family);
851
852         return  (!xfrm_policy_count[dir] && !skb->sp) ||
853                 (skb->dst->flags & DST_NOPOLICY) ||
854                 __xfrm_policy_check(sk, dir, skb, family);
855 }
856
857 static inline int xfrm4_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
858 {
859         return xfrm_policy_check(sk, dir, skb, AF_INET);
860 }
861
862 static inline int xfrm6_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
863 {
864         return xfrm_policy_check(sk, dir, skb, AF_INET6);
865 }
866
867 extern int xfrm_decode_session(struct sk_buff *skb, struct flowi *fl, unsigned short family);
868 extern int __xfrm_route_forward(struct sk_buff *skb, unsigned short family);
869
870 static inline int xfrm_route_forward(struct sk_buff *skb, unsigned short family)
871 {
872         return  !xfrm_policy_count[XFRM_POLICY_OUT] ||
873                 (skb->dst->flags & DST_NOXFRM) ||
874                 __xfrm_route_forward(skb, family);
875 }
876
877 static inline int xfrm4_route_forward(struct sk_buff *skb)
878 {
879         return xfrm_route_forward(skb, AF_INET);
880 }
881
882 static inline int xfrm6_route_forward(struct sk_buff *skb)
883 {
884         return xfrm_route_forward(skb, AF_INET6);
885 }
886
887 extern int __xfrm_sk_clone_policy(struct sock *sk);
888
889 static inline int xfrm_sk_clone_policy(struct sock *sk)
890 {
891         if (unlikely(sk->sk_policy[0] || sk->sk_policy[1]))
892                 return __xfrm_sk_clone_policy(sk);
893         return 0;
894 }
895
896 extern int xfrm_policy_delete(struct xfrm_policy *pol, int dir);
897
898 static inline void xfrm_sk_free_policy(struct sock *sk)
899 {
900         if (unlikely(sk->sk_policy[0] != NULL)) {
901                 xfrm_policy_delete(sk->sk_policy[0], XFRM_POLICY_MAX);
902                 sk->sk_policy[0] = NULL;
903         }
904         if (unlikely(sk->sk_policy[1] != NULL)) {
905                 xfrm_policy_delete(sk->sk_policy[1], XFRM_POLICY_MAX+1);
906                 sk->sk_policy[1] = NULL;
907         }
908 }
909
910 #else
911
912 static inline void xfrm_sk_free_policy(struct sock *sk) {}
913 static inline int xfrm_sk_clone_policy(struct sock *sk) { return 0; }
914 static inline int xfrm6_route_forward(struct sk_buff *skb) { return 1; }  
915 static inline int xfrm4_route_forward(struct sk_buff *skb) { return 1; } 
916 static inline int xfrm6_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
917
918         return 1; 
919
920 static inline int xfrm4_policy_check(struct sock *sk, int dir, struct sk_buff *skb)
921 {
922         return 1;
923 }
924 static inline int xfrm_policy_check(struct sock *sk, int dir, struct sk_buff *skb, unsigned short family)
925 {
926         return 1;
927 }
928 #endif
929
930 static __inline__
931 xfrm_address_t *xfrm_flowi_daddr(struct flowi *fl, unsigned short family)
932 {
933         switch (family){
934         case AF_INET:
935                 return (xfrm_address_t *)&fl->fl4_dst;
936         case AF_INET6:
937                 return (xfrm_address_t *)&fl->fl6_dst;
938         }
939         return NULL;
940 }
941
942 static __inline__
943 xfrm_address_t *xfrm_flowi_saddr(struct flowi *fl, unsigned short family)
944 {
945         switch (family){
946         case AF_INET:
947                 return (xfrm_address_t *)&fl->fl4_src;
948         case AF_INET6:
949                 return (xfrm_address_t *)&fl->fl6_src;
950         }
951         return NULL;
952 }
953
954 static __inline__ int
955 __xfrm4_state_addr_check(struct xfrm_state *x,
956                          xfrm_address_t *daddr, xfrm_address_t *saddr)
957 {
958         if (daddr->a4 == x->id.daddr.a4 &&
959             (saddr->a4 == x->props.saddr.a4 || !saddr->a4 || !x->props.saddr.a4))
960                 return 1;
961         return 0;
962 }
963
964 static __inline__ int
965 __xfrm6_state_addr_check(struct xfrm_state *x,
966                          xfrm_address_t *daddr, xfrm_address_t *saddr)
967 {
968         if (!ipv6_addr_cmp((struct in6_addr *)daddr, (struct in6_addr *)&x->id.daddr) &&
969             (!ipv6_addr_cmp((struct in6_addr *)saddr, (struct in6_addr *)&x->props.saddr)|| 
970              ipv6_addr_any((struct in6_addr *)saddr) || 
971              ipv6_addr_any((struct in6_addr *)&x->props.saddr)))
972                 return 1;
973         return 0;
974 }
975
976 static __inline__ int
977 xfrm_state_addr_check(struct xfrm_state *x,
978                       xfrm_address_t *daddr, xfrm_address_t *saddr,
979                       unsigned short family)
980 {
981         switch (family) {
982         case AF_INET:
983                 return __xfrm4_state_addr_check(x, daddr, saddr);
984         case AF_INET6:
985                 return __xfrm6_state_addr_check(x, daddr, saddr);
986         }
987         return 0;
988 }
989
990 static __inline__ int
991 xfrm_state_addr_flow_check(struct xfrm_state *x, struct flowi *fl,
992                            unsigned short family)
993 {
994         switch (family) {
995         case AF_INET:
996                 return __xfrm4_state_addr_check(x,
997                                                 (xfrm_address_t *)&fl->fl4_dst,
998                                                 (xfrm_address_t *)&fl->fl4_src);
999         case AF_INET6:
1000                 return __xfrm6_state_addr_check(x,
1001                                                 (xfrm_address_t *)&fl->fl6_dst,
1002                                                 (xfrm_address_t *)&fl->fl6_src);
1003         }
1004         return 0;
1005 }
1006
1007 static inline int xfrm_state_kern(struct xfrm_state *x)
1008 {
1009         return atomic_read(&x->tunnel_users);
1010 }
1011
1012 static inline int xfrm_id_proto_match(u8 proto, u8 userproto)
1013 {
1014         return (!userproto || proto == userproto ||
1015                 (userproto == IPSEC_PROTO_ANY && (proto == IPPROTO_AH ||
1016                                                   proto == IPPROTO_ESP ||
1017                                                   proto == IPPROTO_COMP)));
1018 }
1019
1020 /*
1021  * xfrm algorithm information
1022  */
1023 struct xfrm_algo_auth_info {
1024         u16 icv_truncbits;
1025         u16 icv_fullbits;
1026 };
1027
1028 struct xfrm_algo_encr_info {
1029         u16 blockbits;
1030         u16 defkeybits;
1031 };
1032
1033 struct xfrm_algo_comp_info {
1034         u16 threshold;
1035 };
1036
1037 struct xfrm_algo_desc {
1038         char *name;
1039         char *compat;
1040         u8 available:1;
1041         union {
1042                 struct xfrm_algo_auth_info auth;
1043                 struct xfrm_algo_encr_info encr;
1044                 struct xfrm_algo_comp_info comp;
1045         } uinfo;
1046         struct sadb_alg desc;
1047 };
1048
1049 /* XFRM tunnel handlers.  */
1050 struct xfrm_tunnel {
1051         int (*handler)(struct sk_buff *skb);
1052         int (*err_handler)(struct sk_buff *skb, __u32 info);
1053
1054         struct xfrm_tunnel *next;
1055         int priority;
1056 };
1057
1058 struct xfrm6_tunnel {
1059         int (*handler)(struct sk_buff *skb);
1060         int (*err_handler)(struct sk_buff *skb, struct inet6_skb_parm *opt,
1061                            int type, int code, int offset, __be32 info);
1062         struct xfrm6_tunnel *next;
1063         int priority;
1064 };
1065
1066 extern void xfrm_init(void);
1067 extern void xfrm4_init(void);
1068 extern void xfrm6_init(void);
1069 extern void xfrm6_fini(void);
1070 extern void xfrm_state_init(void);
1071 extern void xfrm4_state_init(void);
1072 extern void xfrm6_state_init(void);
1073 extern void xfrm6_state_fini(void);
1074
1075 extern int xfrm_state_walk(u8 proto, int (*func)(struct xfrm_state *, int, void*), void *);
1076 extern struct xfrm_state *xfrm_state_alloc(void);
1077 extern struct xfrm_state *xfrm_state_find(xfrm_address_t *daddr, xfrm_address_t *saddr, 
1078                                           struct flowi *fl, struct xfrm_tmpl *tmpl,
1079                                           struct xfrm_policy *pol, int *err,
1080                                           unsigned short family);
1081 extern struct xfrm_state * xfrm_stateonly_find(xfrm_address_t *daddr,
1082                                                xfrm_address_t *saddr,
1083                                                unsigned short family,
1084                                                u8 mode, u8 proto, u32 reqid);
1085 extern int xfrm_state_check_expire(struct xfrm_state *x);
1086 extern void xfrm_state_insert(struct xfrm_state *x);
1087 extern int xfrm_state_add(struct xfrm_state *x);
1088 extern int xfrm_state_update(struct xfrm_state *x);
1089 extern struct xfrm_state *xfrm_state_lookup(xfrm_address_t *daddr, __be32 spi, u8 proto, unsigned short family);
1090 extern struct xfrm_state *xfrm_state_lookup_byaddr(xfrm_address_t *daddr, xfrm_address_t *saddr, u8 proto, unsigned short family);
1091 #ifdef CONFIG_XFRM_SUB_POLICY
1092 extern int xfrm_tmpl_sort(struct xfrm_tmpl **dst, struct xfrm_tmpl **src,
1093                           int n, unsigned short family);
1094 extern int xfrm_state_sort(struct xfrm_state **dst, struct xfrm_state **src,
1095                            int n, unsigned short family);
1096 #else
1097 static inline int xfrm_tmpl_sort(struct xfrm_tmpl **dst, struct xfrm_tmpl **src,
1098                                  int n, unsigned short family)
1099 {
1100         return -ENOSYS;
1101 }
1102
1103 static inline int xfrm_state_sort(struct xfrm_state **dst, struct xfrm_state **src,
1104                                   int n, unsigned short family)
1105 {
1106         return -ENOSYS;
1107 }
1108 #endif
1109
1110 struct xfrmk_sadinfo {
1111         u32 sadhcnt; /* current hash bkts */
1112         u32 sadhmcnt; /* max allowed hash bkts */
1113         u32 sadcnt; /* current running count */
1114 };
1115
1116 struct xfrmk_spdinfo {
1117         u32 incnt;
1118         u32 outcnt;
1119         u32 fwdcnt;
1120         u32 inscnt;
1121         u32 outscnt;
1122         u32 fwdscnt;
1123         u32 spdhcnt;
1124         u32 spdhmcnt;
1125 };
1126
1127 extern struct xfrm_state *xfrm_find_acq_byseq(u32 seq);
1128 extern int xfrm_state_delete(struct xfrm_state *x);
1129 extern int xfrm_state_flush(u8 proto, struct xfrm_audit *audit_info);
1130 extern void xfrm_sad_getinfo(struct xfrmk_sadinfo *si);
1131 extern void xfrm_spd_getinfo(struct xfrmk_spdinfo *si);
1132 extern int xfrm_replay_check(struct xfrm_state *x, __be32 seq);
1133 extern void xfrm_replay_advance(struct xfrm_state *x, __be32 seq);
1134 extern void xfrm_replay_notify(struct xfrm_state *x, int event);
1135 extern int xfrm_state_mtu(struct xfrm_state *x, int mtu);
1136 extern int xfrm_init_state(struct xfrm_state *x);
1137 extern int xfrm_prepare_input(struct xfrm_state *x, struct sk_buff *skb);
1138 extern int xfrm_input(struct sk_buff *skb, int nexthdr, __be32 spi,
1139                       int encap_type);
1140 extern int xfrm_input_resume(struct sk_buff *skb, int nexthdr);
1141 extern int xfrm_output_resume(struct sk_buff *skb, int err);
1142 extern int xfrm_output(struct sk_buff *skb);
1143 extern int xfrm4_extract_header(struct sk_buff *skb);
1144 extern int xfrm4_extract_input(struct xfrm_state *x, struct sk_buff *skb);
1145 extern int xfrm4_rcv_encap(struct sk_buff *skb, int nexthdr, __be32 spi,
1146                            int encap_type);
1147 extern int xfrm4_transport_finish(struct sk_buff *skb, int async);
1148 extern int xfrm4_rcv(struct sk_buff *skb);
1149
1150 static inline int xfrm4_rcv_spi(struct sk_buff *skb, int nexthdr, __be32 spi)
1151 {
1152         return xfrm4_rcv_encap(skb, nexthdr, spi, 0);
1153 }
1154
1155 extern int xfrm4_extract_output(struct xfrm_state *x, struct sk_buff *skb);
1156 extern int xfrm4_prepare_output(struct xfrm_state *x, struct sk_buff *skb);
1157 extern int xfrm4_output(struct sk_buff *skb);
1158 extern int xfrm4_tunnel_register(struct xfrm_tunnel *handler, unsigned short family);
1159 extern int xfrm4_tunnel_deregister(struct xfrm_tunnel *handler, unsigned short family);
1160 extern int xfrm6_extract_header(struct sk_buff *skb);
1161 extern int xfrm6_extract_input(struct xfrm_state *x, struct sk_buff *skb);
1162 extern int xfrm6_rcv_spi(struct sk_buff *skb, int nexthdr, __be32 spi);
1163 extern int xfrm6_transport_finish(struct sk_buff *skb, int async);
1164 extern int xfrm6_rcv(struct sk_buff *skb);
1165 extern int xfrm6_input_addr(struct sk_buff *skb, xfrm_address_t *daddr,
1166                             xfrm_address_t *saddr, u8 proto);
1167 extern int xfrm6_tunnel_register(struct xfrm6_tunnel *handler, unsigned short family);
1168 extern int xfrm6_tunnel_deregister(struct xfrm6_tunnel *handler, unsigned short family);
1169 extern __be32 xfrm6_tunnel_alloc_spi(xfrm_address_t *saddr);
1170 extern void xfrm6_tunnel_free_spi(xfrm_address_t *saddr);
1171 extern __be32 xfrm6_tunnel_spi_lookup(xfrm_address_t *saddr);
1172 extern int xfrm6_extract_output(struct xfrm_state *x, struct sk_buff *skb);
1173 extern int xfrm6_prepare_output(struct xfrm_state *x, struct sk_buff *skb);
1174 extern int xfrm6_output(struct sk_buff *skb);
1175 extern int xfrm6_find_1stfragopt(struct xfrm_state *x, struct sk_buff *skb,
1176                                  u8 **prevhdr);
1177
1178 #ifdef CONFIG_XFRM
1179 extern int xfrm4_udp_encap_rcv(struct sock *sk, struct sk_buff *skb);
1180 extern int xfrm_user_policy(struct sock *sk, int optname, u8 __user *optval, int optlen);
1181 #else
1182 static inline int xfrm_user_policy(struct sock *sk, int optname, u8 __user *optval, int optlen)
1183 {
1184         return -ENOPROTOOPT;
1185
1186
1187 static inline int xfrm4_udp_encap_rcv(struct sock *sk, struct sk_buff *skb)
1188 {
1189         /* should not happen */
1190         kfree_skb(skb);
1191         return 0;
1192 }
1193 #endif
1194
1195 struct xfrm_policy *xfrm_policy_alloc(gfp_t gfp);
1196 extern int xfrm_policy_walk(u8 type, int (*func)(struct xfrm_policy *, int, int, void*), void *);
1197 int xfrm_policy_insert(int dir, struct xfrm_policy *policy, int excl);
1198 struct xfrm_policy *xfrm_policy_bysel_ctx(u8 type, int dir,
1199                                           struct xfrm_selector *sel,
1200                                           struct xfrm_sec_ctx *ctx, int delete,
1201                                           int *err);
1202 struct xfrm_policy *xfrm_policy_byid(u8, int dir, u32 id, int delete, int *err);
1203 int xfrm_policy_flush(u8 type, struct xfrm_audit *audit_info);
1204 u32 xfrm_get_acqseq(void);
1205 extern int xfrm_alloc_spi(struct xfrm_state *x, u32 minspi, u32 maxspi);
1206 struct xfrm_state * xfrm_find_acq(u8 mode, u32 reqid, u8 proto,
1207                                   xfrm_address_t *daddr, xfrm_address_t *saddr,
1208                                   int create, unsigned short family);
1209 extern int xfrm_policy_flush(u8 type, struct xfrm_audit *audit_info);
1210 extern int xfrm_sk_policy_insert(struct sock *sk, int dir, struct xfrm_policy *pol);
1211 extern int xfrm_bundle_ok(struct xfrm_policy *pol, struct xfrm_dst *xdst,
1212                           struct flowi *fl, int family, int strict);
1213
1214 #ifdef CONFIG_XFRM_MIGRATE
1215 extern int km_migrate(struct xfrm_selector *sel, u8 dir, u8 type,
1216                       struct xfrm_migrate *m, int num_bundles);
1217 extern struct xfrm_state * xfrm_migrate_state_find(struct xfrm_migrate *m);
1218 extern struct xfrm_state * xfrm_state_migrate(struct xfrm_state *x,
1219                                               struct xfrm_migrate *m);
1220 extern int xfrm_migrate(struct xfrm_selector *sel, u8 dir, u8 type,
1221                         struct xfrm_migrate *m, int num_bundles);
1222 #endif
1223
1224 extern wait_queue_head_t km_waitq;
1225 extern int km_new_mapping(struct xfrm_state *x, xfrm_address_t *ipaddr, __be16 sport);
1226 extern void km_policy_expired(struct xfrm_policy *pol, int dir, int hard, u32 pid);
1227 extern int km_report(u8 proto, struct xfrm_selector *sel, xfrm_address_t *addr);
1228
1229 extern void xfrm_input_init(void);
1230 extern int xfrm_parse_spi(struct sk_buff *skb, u8 nexthdr, __be32 *spi, __be32 *seq);
1231
1232 extern void xfrm_probe_algs(void);
1233 extern int xfrm_count_auth_supported(void);
1234 extern int xfrm_count_enc_supported(void);
1235 extern struct xfrm_algo_desc *xfrm_aalg_get_byidx(unsigned int idx);
1236 extern struct xfrm_algo_desc *xfrm_ealg_get_byidx(unsigned int idx);
1237 extern struct xfrm_algo_desc *xfrm_aalg_get_byid(int alg_id);
1238 extern struct xfrm_algo_desc *xfrm_ealg_get_byid(int alg_id);
1239 extern struct xfrm_algo_desc *xfrm_calg_get_byid(int alg_id);
1240 extern struct xfrm_algo_desc *xfrm_aalg_get_byname(char *name, int probe);
1241 extern struct xfrm_algo_desc *xfrm_ealg_get_byname(char *name, int probe);
1242 extern struct xfrm_algo_desc *xfrm_calg_get_byname(char *name, int probe);
1243
1244 struct hash_desc;
1245 struct scatterlist;
1246 typedef int (icv_update_fn_t)(struct hash_desc *, struct scatterlist *,
1247                               unsigned int);
1248
1249 extern int skb_icv_walk(const struct sk_buff *skb, struct hash_desc *tfm,
1250                         int offset, int len, icv_update_fn_t icv_update);
1251
1252 static inline int xfrm_addr_cmp(xfrm_address_t *a, xfrm_address_t *b,
1253                                 int family)
1254 {
1255         switch (family) {
1256         default:
1257         case AF_INET:
1258                 return (__force __u32)a->a4 - (__force __u32)b->a4;
1259         case AF_INET6:
1260                 return ipv6_addr_cmp((struct in6_addr *)a,
1261                                      (struct in6_addr *)b);
1262         }
1263 }
1264
1265 static inline int xfrm_policy_id2dir(u32 index)
1266 {
1267         return index & 7;
1268 }
1269
1270 static inline int xfrm_aevent_is_on(void)
1271 {
1272         struct sock *nlsk;
1273         int ret = 0;
1274
1275         rcu_read_lock();
1276         nlsk = rcu_dereference(xfrm_nl);
1277         if (nlsk)
1278                 ret = netlink_has_listeners(nlsk, XFRMNLGRP_AEVENTS);
1279         rcu_read_unlock();
1280         return ret;
1281 }
1282
1283 static inline int xfrm_alg_len(struct xfrm_algo *alg)
1284 {
1285         return sizeof(*alg) + ((alg->alg_key_len + 7) / 8);
1286 }
1287
1288 #ifdef CONFIG_XFRM_MIGRATE
1289 static inline struct xfrm_algo *xfrm_algo_clone(struct xfrm_algo *orig)
1290 {
1291         return kmemdup(orig, xfrm_alg_len(orig), GFP_KERNEL);
1292 }
1293
1294 static inline void xfrm_states_put(struct xfrm_state **states, int n)
1295 {
1296         int i;
1297         for (i = 0; i < n; i++)
1298                 xfrm_state_put(*(states + i));
1299 }
1300
1301 static inline void xfrm_states_delete(struct xfrm_state **states, int n)
1302 {
1303         int i;
1304         for (i = 0; i < n; i++)
1305                 xfrm_state_delete(*(states + i));
1306 }
1307 #endif
1308
1309 #endif  /* _NET_XFRM_H */