tty: Ensure single-threaded flip buffer consumer with mutex
[platform/adaptation/renesas_rcar/renesas_kernel.git] / drivers / tty / tty_buffer.c
1 /*
2  * Tty buffer allocation management
3  */
4
5 #include <linux/types.h>
6 #include <linux/errno.h>
7 #include <linux/tty.h>
8 #include <linux/tty_driver.h>
9 #include <linux/tty_flip.h>
10 #include <linux/timer.h>
11 #include <linux/string.h>
12 #include <linux/slab.h>
13 #include <linux/sched.h>
14 #include <linux/init.h>
15 #include <linux/wait.h>
16 #include <linux/bitops.h>
17 #include <linux/delay.h>
18 #include <linux/module.h>
19 #include <linux/ratelimit.h>
20
21
22 #define MIN_TTYB_SIZE   256
23 #define TTYB_ALIGN_MASK 255
24
25 /*
26  * Byte threshold to limit memory consumption for flip buffers.
27  * The actual memory limit is > 2x this amount.
28  */
29 #define TTYB_MEM_LIMIT  65536
30
31
32 /**
33  *      tty_buffer_space_avail  -       return unused buffer space
34  *      @port - tty_port owning the flip buffer
35  *
36  *      Returns the # of bytes which can be written by the driver without
37  *      reaching the buffer limit.
38  *
39  *      Note: this does not guarantee that memory is available to write
40  *      the returned # of bytes (use tty_prepare_flip_string_xxx() to
41  *      pre-allocate if memory guarantee is required).
42  */
43
44 int tty_buffer_space_avail(struct tty_port *port)
45 {
46         int space = TTYB_MEM_LIMIT - atomic_read(&port->buf.memory_used);
47         return max(space, 0);
48 }
49
50 static void tty_buffer_reset(struct tty_buffer *p, size_t size)
51 {
52         p->used = 0;
53         p->size = size;
54         p->next = NULL;
55         p->commit = 0;
56         p->read = 0;
57 }
58
59 /**
60  *      tty_buffer_free_all             -       free buffers used by a tty
61  *      @tty: tty to free from
62  *
63  *      Remove all the buffers pending on a tty whether queued with data
64  *      or in the free ring. Must be called when the tty is no longer in use
65  */
66
67 void tty_buffer_free_all(struct tty_port *port)
68 {
69         struct tty_bufhead *buf = &port->buf;
70         struct tty_buffer *p, *next;
71         struct llist_node *llist;
72
73         while ((p = buf->head) != NULL) {
74                 buf->head = p->next;
75                 if (p->size > 0)
76                         kfree(p);
77         }
78         llist = llist_del_all(&buf->free);
79         llist_for_each_entry_safe(p, next, llist, free)
80                 kfree(p);
81
82         tty_buffer_reset(&buf->sentinel, 0);
83         buf->head = &buf->sentinel;
84         buf->tail = &buf->sentinel;
85
86         atomic_set(&buf->memory_used, 0);
87 }
88
89 /**
90  *      tty_buffer_alloc        -       allocate a tty buffer
91  *      @tty: tty device
92  *      @size: desired size (characters)
93  *
94  *      Allocate a new tty buffer to hold the desired number of characters.
95  *      We round our buffers off in 256 character chunks to get better
96  *      allocation behaviour.
97  *      Return NULL if out of memory or the allocation would exceed the
98  *      per device queue
99  */
100
101 static struct tty_buffer *tty_buffer_alloc(struct tty_port *port, size_t size)
102 {
103         struct llist_node *free;
104         struct tty_buffer *p;
105
106         /* Round the buffer size out */
107         size = __ALIGN_MASK(size, TTYB_ALIGN_MASK);
108
109         if (size <= MIN_TTYB_SIZE) {
110                 free = llist_del_first(&port->buf.free);
111                 if (free) {
112                         p = llist_entry(free, struct tty_buffer, free);
113                         goto found;
114                 }
115         }
116
117         /* Should possibly check if this fails for the largest buffer we
118            have queued and recycle that ? */
119         if (atomic_read(&port->buf.memory_used) > TTYB_MEM_LIMIT)
120                 return NULL;
121         p = kmalloc(sizeof(struct tty_buffer) + 2 * size, GFP_ATOMIC);
122         if (p == NULL)
123                 return NULL;
124
125 found:
126         tty_buffer_reset(p, size);
127         atomic_add(size, &port->buf.memory_used);
128         return p;
129 }
130
131 /**
132  *      tty_buffer_free         -       free a tty buffer
133  *      @tty: tty owning the buffer
134  *      @b: the buffer to free
135  *
136  *      Free a tty buffer, or add it to the free list according to our
137  *      internal strategy
138  */
139
140 static void tty_buffer_free(struct tty_port *port, struct tty_buffer *b)
141 {
142         struct tty_bufhead *buf = &port->buf;
143
144         /* Dumb strategy for now - should keep some stats */
145         WARN_ON(atomic_sub_return(b->size, &buf->memory_used) < 0);
146
147         if (b->size > MIN_TTYB_SIZE)
148                 kfree(b);
149         else if (b->size > 0)
150                 llist_add(&b->free, &buf->free);
151 }
152
153 /**
154  *      __tty_buffer_flush              -       flush full tty buffers
155  *      @tty: tty to flush
156  *
157  *      flush all the buffers containing receive data. Caller must
158  *      hold the buffer lock and must have ensured no parallel flush to
159  *      ldisc is running.
160  */
161
162 static void __tty_buffer_flush(struct tty_port *port)
163 {
164         struct tty_bufhead *buf = &port->buf;
165         struct tty_buffer *next;
166
167         while ((next = buf->head->next) != NULL) {
168                 tty_buffer_free(port, buf->head);
169                 buf->head = next;
170         }
171         WARN_ON(buf->head != buf->tail);
172         buf->head->read = buf->head->commit;
173 }
174
175 /**
176  *      tty_buffer_flush                -       flush full tty buffers
177  *      @tty: tty to flush
178  *
179  *      flush all the buffers containing receive data. If the buffer is
180  *      being processed by flush_to_ldisc then we defer the processing
181  *      to that function
182  *
183  *      Locking: takes flush_mutex to ensure single-threaded flip buffer
184  *               'consumer'
185  */
186
187 void tty_buffer_flush(struct tty_struct *tty)
188 {
189         struct tty_port *port = tty->port;
190         struct tty_bufhead *buf = &port->buf;
191
192         mutex_lock(&buf->flush_mutex);
193         /* If the data is being pushed to the tty layer then we can't
194            process it here. Instead set a flag and the flush_to_ldisc
195            path will process the flush request before it exits */
196         if (test_bit(TTYP_FLUSHING, &port->iflags)) {
197                 set_bit(TTYP_FLUSHPENDING, &port->iflags);
198                 mutex_unlock(&buf->flush_mutex);
199                 wait_event(tty->read_wait,
200                                 test_bit(TTYP_FLUSHPENDING, &port->iflags) == 0);
201                 return;
202         }
203
204         __tty_buffer_flush(port);
205         mutex_unlock(&buf->flush_mutex);
206 }
207
208 /**
209  *      tty_buffer_request_room         -       grow tty buffer if needed
210  *      @tty: tty structure
211  *      @size: size desired
212  *
213  *      Make at least size bytes of linear space available for the tty
214  *      buffer. If we fail return the size we managed to find.
215  */
216 int tty_buffer_request_room(struct tty_port *port, size_t size)
217 {
218         struct tty_bufhead *buf = &port->buf;
219         struct tty_buffer *b, *n;
220         int left;
221
222         b = buf->tail;
223         left = b->size - b->used;
224
225         if (left < size) {
226                 /* This is the slow path - looking for new buffers to use */
227                 if ((n = tty_buffer_alloc(port, size)) != NULL) {
228                         buf->tail = n;
229                         b->commit = b->used;
230                         smp_mb();
231                         b->next = n;
232                 } else
233                         size = left;
234         }
235         return size;
236 }
237 EXPORT_SYMBOL_GPL(tty_buffer_request_room);
238
239 /**
240  *      tty_insert_flip_string_fixed_flag - Add characters to the tty buffer
241  *      @port: tty port
242  *      @chars: characters
243  *      @flag: flag value for each character
244  *      @size: size
245  *
246  *      Queue a series of bytes to the tty buffering. All the characters
247  *      passed are marked with the supplied flag. Returns the number added.
248  */
249
250 int tty_insert_flip_string_fixed_flag(struct tty_port *port,
251                 const unsigned char *chars, char flag, size_t size)
252 {
253         int copied = 0;
254         do {
255                 int goal = min_t(size_t, size - copied, TTY_BUFFER_PAGE);
256                 int space = tty_buffer_request_room(port, goal);
257                 struct tty_buffer *tb = port->buf.tail;
258                 if (unlikely(space == 0))
259                         break;
260                 memcpy(char_buf_ptr(tb, tb->used), chars, space);
261                 memset(flag_buf_ptr(tb, tb->used), flag, space);
262                 tb->used += space;
263                 copied += space;
264                 chars += space;
265                 /* There is a small chance that we need to split the data over
266                    several buffers. If this is the case we must loop */
267         } while (unlikely(size > copied));
268         return copied;
269 }
270 EXPORT_SYMBOL(tty_insert_flip_string_fixed_flag);
271
272 /**
273  *      tty_insert_flip_string_flags    -       Add characters to the tty buffer
274  *      @port: tty port
275  *      @chars: characters
276  *      @flags: flag bytes
277  *      @size: size
278  *
279  *      Queue a series of bytes to the tty buffering. For each character
280  *      the flags array indicates the status of the character. Returns the
281  *      number added.
282  */
283
284 int tty_insert_flip_string_flags(struct tty_port *port,
285                 const unsigned char *chars, const char *flags, size_t size)
286 {
287         int copied = 0;
288         do {
289                 int goal = min_t(size_t, size - copied, TTY_BUFFER_PAGE);
290                 int space = tty_buffer_request_room(port, goal);
291                 struct tty_buffer *tb = port->buf.tail;
292                 if (unlikely(space == 0))
293                         break;
294                 memcpy(char_buf_ptr(tb, tb->used), chars, space);
295                 memcpy(flag_buf_ptr(tb, tb->used), flags, space);
296                 tb->used += space;
297                 copied += space;
298                 chars += space;
299                 flags += space;
300                 /* There is a small chance that we need to split the data over
301                    several buffers. If this is the case we must loop */
302         } while (unlikely(size > copied));
303         return copied;
304 }
305 EXPORT_SYMBOL(tty_insert_flip_string_flags);
306
307 /**
308  *      tty_schedule_flip       -       push characters to ldisc
309  *      @port: tty port to push from
310  *
311  *      Takes any pending buffers and transfers their ownership to the
312  *      ldisc side of the queue. It then schedules those characters for
313  *      processing by the line discipline.
314  *      Note that this function can only be used when the low_latency flag
315  *      is unset. Otherwise the workqueue won't be flushed.
316  */
317
318 void tty_schedule_flip(struct tty_port *port)
319 {
320         struct tty_bufhead *buf = &port->buf;
321         WARN_ON(port->low_latency);
322
323         buf->tail->commit = buf->tail->used;
324         schedule_work(&buf->work);
325 }
326 EXPORT_SYMBOL(tty_schedule_flip);
327
328 /**
329  *      tty_prepare_flip_string         -       make room for characters
330  *      @port: tty port
331  *      @chars: return pointer for character write area
332  *      @size: desired size
333  *
334  *      Prepare a block of space in the buffer for data. Returns the length
335  *      available and buffer pointer to the space which is now allocated and
336  *      accounted for as ready for normal characters. This is used for drivers
337  *      that need their own block copy routines into the buffer. There is no
338  *      guarantee the buffer is a DMA target!
339  */
340
341 int tty_prepare_flip_string(struct tty_port *port, unsigned char **chars,
342                 size_t size)
343 {
344         int space = tty_buffer_request_room(port, size);
345         if (likely(space)) {
346                 struct tty_buffer *tb = port->buf.tail;
347                 *chars = char_buf_ptr(tb, tb->used);
348                 memset(flag_buf_ptr(tb, tb->used), TTY_NORMAL, space);
349                 tb->used += space;
350         }
351         return space;
352 }
353 EXPORT_SYMBOL_GPL(tty_prepare_flip_string);
354
355 /**
356  *      tty_prepare_flip_string_flags   -       make room for characters
357  *      @port: tty port
358  *      @chars: return pointer for character write area
359  *      @flags: return pointer for status flag write area
360  *      @size: desired size
361  *
362  *      Prepare a block of space in the buffer for data. Returns the length
363  *      available and buffer pointer to the space which is now allocated and
364  *      accounted for as ready for characters. This is used for drivers
365  *      that need their own block copy routines into the buffer. There is no
366  *      guarantee the buffer is a DMA target!
367  */
368
369 int tty_prepare_flip_string_flags(struct tty_port *port,
370                         unsigned char **chars, char **flags, size_t size)
371 {
372         int space = tty_buffer_request_room(port, size);
373         if (likely(space)) {
374                 struct tty_buffer *tb = port->buf.tail;
375                 *chars = char_buf_ptr(tb, tb->used);
376                 *flags = flag_buf_ptr(tb, tb->used);
377                 tb->used += space;
378         }
379         return space;
380 }
381 EXPORT_SYMBOL_GPL(tty_prepare_flip_string_flags);
382
383
384 static int
385 receive_buf(struct tty_struct *tty, struct tty_buffer *head, int count)
386 {
387         struct tty_ldisc *disc = tty->ldisc;
388         unsigned char *p = char_buf_ptr(head, head->read);
389         char          *f = flag_buf_ptr(head, head->read);
390
391         if (disc->ops->receive_buf2)
392                 count = disc->ops->receive_buf2(tty, p, f, count);
393         else {
394                 count = min_t(int, count, tty->receive_room);
395                 if (count)
396                         disc->ops->receive_buf(tty, p, f, count);
397         }
398         head->read += count;
399         return count;
400 }
401
402 /**
403  *      flush_to_ldisc
404  *      @work: tty structure passed from work queue.
405  *
406  *      This routine is called out of the software interrupt to flush data
407  *      from the buffer chain to the line discipline.
408  *
409  *      The receive_buf method is single threaded for each tty instance.
410  *
411  *      Locking: takes flush_mutex to ensure single-threaded flip buffer
412  *               'consumer'
413  */
414
415 static void flush_to_ldisc(struct work_struct *work)
416 {
417         struct tty_port *port = container_of(work, struct tty_port, buf.work);
418         struct tty_bufhead *buf = &port->buf;
419         struct tty_struct *tty;
420         struct tty_ldisc *disc;
421
422         tty = port->itty;
423         if (tty == NULL)
424                 return;
425
426         disc = tty_ldisc_ref(tty);
427         if (disc == NULL)
428                 return;
429
430         mutex_lock(&buf->flush_mutex);
431
432         if (!test_and_set_bit(TTYP_FLUSHING, &port->iflags)) {
433                 while (1) {
434                         struct tty_buffer *head = buf->head;
435                         int count;
436
437                         count = head->commit - head->read;
438                         if (!count) {
439                                 if (head->next == NULL)
440                                         break;
441                                 buf->head = head->next;
442                                 tty_buffer_free(port, head);
443                                 continue;
444                         }
445
446                         mutex_unlock(&buf->flush_mutex);
447
448                         count = receive_buf(tty, head, count);
449
450                         mutex_lock(&buf->flush_mutex);
451
452                         /* Ldisc or user is trying to flush the buffers.
453                            We may have a deferred request to flush the
454                            input buffer, if so pull the chain under the lock
455                            and empty the queue */
456                         if (test_bit(TTYP_FLUSHPENDING, &port->iflags)) {
457                                 __tty_buffer_flush(port);
458                                 clear_bit(TTYP_FLUSHPENDING, &port->iflags);
459                                 wake_up(&tty->read_wait);
460                                 break;
461                         } else if (!count)
462                                 break;
463                 }
464                 clear_bit(TTYP_FLUSHING, &port->iflags);
465         }
466
467         mutex_unlock(&buf->flush_mutex);
468
469         tty_ldisc_deref(disc);
470 }
471
472 /**
473  *      tty_flush_to_ldisc
474  *      @tty: tty to push
475  *
476  *      Push the terminal flip buffers to the line discipline.
477  *
478  *      Must not be called from IRQ context.
479  */
480 void tty_flush_to_ldisc(struct tty_struct *tty)
481 {
482         if (!tty->port->low_latency)
483                 flush_work(&tty->port->buf.work);
484 }
485
486 /**
487  *      tty_flip_buffer_push    -       terminal
488  *      @port: tty port to push
489  *
490  *      Queue a push of the terminal flip buffers to the line discipline. This
491  *      function must not be called from IRQ context if port->low_latency is
492  *      set.
493  *
494  *      In the event of the queue being busy for flipping the work will be
495  *      held off and retried later.
496  */
497
498 void tty_flip_buffer_push(struct tty_port *port)
499 {
500         struct tty_bufhead *buf = &port->buf;
501
502         buf->tail->commit = buf->tail->used;
503
504         if (port->low_latency)
505                 flush_to_ldisc(&buf->work);
506         else
507                 schedule_work(&buf->work);
508 }
509 EXPORT_SYMBOL(tty_flip_buffer_push);
510
511 /**
512  *      tty_buffer_init         -       prepare a tty buffer structure
513  *      @tty: tty to initialise
514  *
515  *      Set up the initial state of the buffer management for a tty device.
516  *      Must be called before the other tty buffer functions are used.
517  */
518
519 void tty_buffer_init(struct tty_port *port)
520 {
521         struct tty_bufhead *buf = &port->buf;
522
523         mutex_init(&buf->flush_mutex);
524         tty_buffer_reset(&buf->sentinel, 0);
525         buf->head = &buf->sentinel;
526         buf->tail = &buf->sentinel;
527         init_llist_head(&buf->free);
528         atomic_set(&buf->memory_used, 0);
529         INIT_WORK(&buf->work, flush_to_ldisc);
530 }
531