e6c559aee446724cf5e43ca121d74f289e751afe
[profile/ivi/kernel-adaptation-intel-automotive.git] / fs / xfs / linux-2.6 / xfs_vnode.c
1 /*
2  * Copyright (c) 2000-2003,2005 Silicon Graphics, Inc.
3  * All Rights Reserved.
4  *
5  * This program is free software; you can redistribute it and/or
6  * modify it under the terms of the GNU General Public License as
7  * published by the Free Software Foundation.
8  *
9  * This program is distributed in the hope that it would be useful,
10  * but WITHOUT ANY WARRANTY; without even the implied warranty of
11  * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
12  * GNU General Public License for more details.
13  *
14  * You should have received a copy of the GNU General Public License
15  * along with this program; if not, write the Free Software Foundation,
16  * Inc.,  51 Franklin St, Fifth Floor, Boston, MA  02110-1301  USA
17  */
18 #include "xfs.h"
19 #include "xfs_vnodeops.h"
20 #include "xfs_bmap_btree.h"
21 #include "xfs_inode.h"
22
23 uint64_t vn_generation;         /* vnode generation number */
24 DEFINE_SPINLOCK(vnumber_lock);
25
26 /*
27  * Dedicated vnode inactive/reclaim sync semaphores.
28  * Prime number of hash buckets since address is used as the key.
29  */
30 #define NVSYNC                  37
31 #define vptosync(v)             (&vsync[((unsigned long)v) % NVSYNC])
32 static wait_queue_head_t vsync[NVSYNC];
33
34 void
35 vn_init(void)
36 {
37         int i;
38
39         for (i = 0; i < NVSYNC; i++)
40                 init_waitqueue_head(&vsync[i]);
41 }
42
43 void
44 vn_iowait(
45         bhv_vnode_t     *vp)
46 {
47         wait_queue_head_t *wq = vptosync(vp);
48
49         wait_event(*wq, (atomic_read(&vp->v_iocount) == 0));
50 }
51
52 void
53 vn_iowake(
54         bhv_vnode_t     *vp)
55 {
56         if (atomic_dec_and_test(&vp->v_iocount))
57                 wake_up(vptosync(vp));
58 }
59
60 /*
61  * Volume managers supporting multiple paths can send back ENODEV when the
62  * final path disappears.  In this case continuing to fill the page cache
63  * with dirty data which cannot be written out is evil, so prevent that.
64  */
65 void
66 vn_ioerror(
67         bhv_vnode_t     *vp,
68         int             error,
69         char            *f,
70         int             l)
71 {
72         bhv_vfs_t       *vfsp = vfs_from_sb(vp->v_inode.i_sb);
73
74         if (unlikely(error == -ENODEV))
75                 bhv_vfs_force_shutdown(vfsp, SHUTDOWN_DEVICE_REQ, f, l);
76 }
77
78 bhv_vnode_t *
79 vn_initialize(
80         struct inode    *inode)
81 {
82         bhv_vnode_t     *vp = vn_from_inode(inode);
83
84         XFS_STATS_INC(vn_active);
85         XFS_STATS_INC(vn_alloc);
86
87         spin_lock(&vnumber_lock);
88         if (!++vn_generation)   /* v_number shouldn't be zero */
89                 vn_generation++;
90         vp->v_number = vn_generation;
91         spin_unlock(&vnumber_lock);
92
93         ASSERT(VN_CACHED(vp) == 0);
94
95         atomic_set(&vp->v_iocount, 0);
96
97 #ifdef  XFS_VNODE_TRACE
98         vp->v_trace = ktrace_alloc(VNODE_TRACE_SIZE, KM_SLEEP);
99 #endif  /* XFS_VNODE_TRACE */
100
101         vn_trace_exit(vp, __FUNCTION__, (inst_t *)__return_address);
102         return vp;
103 }
104
105 /*
106  * Revalidate the Linux inode from the vattr.
107  * Note: i_size _not_ updated; we must hold the inode
108  * semaphore when doing that - callers responsibility.
109  */
110 void
111 vn_revalidate_core(
112         bhv_vnode_t     *vp,
113         bhv_vattr_t     *vap)
114 {
115         struct inode    *inode = vn_to_inode(vp);
116
117         inode->i_mode       = vap->va_mode;
118         inode->i_nlink      = vap->va_nlink;
119         inode->i_uid        = vap->va_uid;
120         inode->i_gid        = vap->va_gid;
121         inode->i_blocks     = vap->va_nblocks;
122         inode->i_mtime      = vap->va_mtime;
123         inode->i_ctime      = vap->va_ctime;
124         if (vap->va_xflags & XFS_XFLAG_IMMUTABLE)
125                 inode->i_flags |= S_IMMUTABLE;
126         else
127                 inode->i_flags &= ~S_IMMUTABLE;
128         if (vap->va_xflags & XFS_XFLAG_APPEND)
129                 inode->i_flags |= S_APPEND;
130         else
131                 inode->i_flags &= ~S_APPEND;
132         if (vap->va_xflags & XFS_XFLAG_SYNC)
133                 inode->i_flags |= S_SYNC;
134         else
135                 inode->i_flags &= ~S_SYNC;
136         if (vap->va_xflags & XFS_XFLAG_NOATIME)
137                 inode->i_flags |= S_NOATIME;
138         else
139                 inode->i_flags &= ~S_NOATIME;
140 }
141
142 /*
143  * Revalidate the Linux inode from the vnode.
144  */
145 int
146 __vn_revalidate(
147         bhv_vnode_t     *vp,
148         bhv_vattr_t     *vattr)
149 {
150         int             error;
151
152         vn_trace_entry(vp, __FUNCTION__, (inst_t *)__return_address);
153         vattr->va_mask = XFS_AT_STAT | XFS_AT_XFLAGS;
154         error = xfs_getattr(xfs_vtoi(vp), vattr, 0);
155         if (likely(!error)) {
156                 vn_revalidate_core(vp, vattr);
157                 xfs_iflags_clear(xfs_vtoi(vp), XFS_IMODIFIED);
158         }
159         return -error;
160 }
161
162 int
163 vn_revalidate(
164         bhv_vnode_t     *vp)
165 {
166         bhv_vattr_t     vattr;
167
168         return __vn_revalidate(vp, &vattr);
169 }
170
171 /*
172  * Add a reference to a referenced vnode.
173  */
174 bhv_vnode_t *
175 vn_hold(
176         bhv_vnode_t     *vp)
177 {
178         struct inode    *inode;
179
180         XFS_STATS_INC(vn_hold);
181
182         inode = igrab(vn_to_inode(vp));
183         ASSERT(inode);
184
185         return vp;
186 }
187
188 #ifdef  XFS_VNODE_TRACE
189
190 #define KTRACE_ENTER(vp, vk, s, line, ra)                       \
191         ktrace_enter(   (vp)->v_trace,                          \
192 /*  0 */                (void *)(__psint_t)(vk),                \
193 /*  1 */                (void *)(s),                            \
194 /*  2 */                (void *)(__psint_t) line,               \
195 /*  3 */                (void *)(__psint_t)(vn_count(vp)),      \
196 /*  4 */                (void *)(ra),                           \
197 /*  5 */                NULL,                                   \
198 /*  6 */                (void *)(__psint_t)current_cpu(),       \
199 /*  7 */                (void *)(__psint_t)current_pid(),       \
200 /*  8 */                (void *)__return_address,               \
201 /*  9 */                NULL, NULL, NULL, NULL, NULL, NULL, NULL)
202
203 /*
204  * Vnode tracing code.
205  */
206 void
207 vn_trace_entry(bhv_vnode_t *vp, const char *func, inst_t *ra)
208 {
209         KTRACE_ENTER(vp, VNODE_KTRACE_ENTRY, func, 0, ra);
210 }
211
212 void
213 vn_trace_exit(bhv_vnode_t *vp, const char *func, inst_t *ra)
214 {
215         KTRACE_ENTER(vp, VNODE_KTRACE_EXIT, func, 0, ra);
216 }
217
218 void
219 vn_trace_hold(bhv_vnode_t *vp, char *file, int line, inst_t *ra)
220 {
221         KTRACE_ENTER(vp, VNODE_KTRACE_HOLD, file, line, ra);
222 }
223
224 void
225 vn_trace_ref(bhv_vnode_t *vp, char *file, int line, inst_t *ra)
226 {
227         KTRACE_ENTER(vp, VNODE_KTRACE_REF, file, line, ra);
228 }
229
230 void
231 vn_trace_rele(bhv_vnode_t *vp, char *file, int line, inst_t *ra)
232 {
233         KTRACE_ENTER(vp, VNODE_KTRACE_RELE, file, line, ra);
234 }
235 #endif  /* XFS_VNODE_TRACE */