tty: Fix stale tty_buffer_flush() comment
[platform/adaptation/renesas_rcar/renesas_kernel.git] / drivers / tty / tty_buffer.c
1 /*
2  * Tty buffer allocation management
3  */
4
5 #include <linux/types.h>
6 #include <linux/errno.h>
7 #include <linux/tty.h>
8 #include <linux/tty_driver.h>
9 #include <linux/tty_flip.h>
10 #include <linux/timer.h>
11 #include <linux/string.h>
12 #include <linux/slab.h>
13 #include <linux/sched.h>
14 #include <linux/init.h>
15 #include <linux/wait.h>
16 #include <linux/bitops.h>
17 #include <linux/delay.h>
18 #include <linux/module.h>
19 #include <linux/ratelimit.h>
20
21
22 #define MIN_TTYB_SIZE   256
23 #define TTYB_ALIGN_MASK 255
24
25 /*
26  * Byte threshold to limit memory consumption for flip buffers.
27  * The actual memory limit is > 2x this amount.
28  */
29 #define TTYB_DEFAULT_MEM_LIMIT  65536
30
31 /*
32  * We default to dicing tty buffer allocations to this many characters
33  * in order to avoid multiple page allocations. We know the size of
34  * tty_buffer itself but it must also be taken into account that the
35  * the buffer is 256 byte aligned. See tty_buffer_find for the allocation
36  * logic this must match
37  */
38
39 #define TTY_BUFFER_PAGE (((PAGE_SIZE - sizeof(struct tty_buffer)) / 2) & ~0xFF)
40
41
42 /**
43  *      tty_buffer_lock_exclusive       -       gain exclusive access to buffer
44  *      tty_buffer_unlock_exclusive     -       release exclusive access
45  *
46  *      @port - tty_port owning the flip buffer
47  *
48  *      Guarantees safe use of the line discipline's receive_buf() method by
49  *      excluding the buffer work and any pending flush from using the flip
50  *      buffer. Data can continue to be added concurrently to the flip buffer
51  *      from the driver side.
52  *
53  *      On release, the buffer work is restarted if there is data in the
54  *      flip buffer
55  */
56
57 void tty_buffer_lock_exclusive(struct tty_port *port)
58 {
59         struct tty_bufhead *buf = &port->buf;
60
61         atomic_inc(&buf->priority);
62         mutex_lock(&buf->lock);
63 }
64
65 void tty_buffer_unlock_exclusive(struct tty_port *port)
66 {
67         struct tty_bufhead *buf = &port->buf;
68         int restart;
69
70         restart = buf->head->commit != buf->head->read;
71
72         atomic_dec(&buf->priority);
73         mutex_unlock(&buf->lock);
74         if (restart)
75                 queue_work(system_unbound_wq, &buf->work);
76 }
77
78 /**
79  *      tty_buffer_space_avail  -       return unused buffer space
80  *      @port - tty_port owning the flip buffer
81  *
82  *      Returns the # of bytes which can be written by the driver without
83  *      reaching the buffer limit.
84  *
85  *      Note: this does not guarantee that memory is available to write
86  *      the returned # of bytes (use tty_prepare_flip_string_xxx() to
87  *      pre-allocate if memory guarantee is required).
88  */
89
90 int tty_buffer_space_avail(struct tty_port *port)
91 {
92         int space = port->buf.mem_limit - atomic_read(&port->buf.mem_used);
93         return max(space, 0);
94 }
95 EXPORT_SYMBOL_GPL(tty_buffer_space_avail);
96
97 static void tty_buffer_reset(struct tty_buffer *p, size_t size)
98 {
99         p->used = 0;
100         p->size = size;
101         p->next = NULL;
102         p->commit = 0;
103         p->read = 0;
104 }
105
106 /**
107  *      tty_buffer_free_all             -       free buffers used by a tty
108  *      @tty: tty to free from
109  *
110  *      Remove all the buffers pending on a tty whether queued with data
111  *      or in the free ring. Must be called when the tty is no longer in use
112  */
113
114 void tty_buffer_free_all(struct tty_port *port)
115 {
116         struct tty_bufhead *buf = &port->buf;
117         struct tty_buffer *p, *next;
118         struct llist_node *llist;
119
120         while ((p = buf->head) != NULL) {
121                 buf->head = p->next;
122                 if (p->size > 0)
123                         kfree(p);
124         }
125         llist = llist_del_all(&buf->free);
126         llist_for_each_entry_safe(p, next, llist, free)
127                 kfree(p);
128
129         tty_buffer_reset(&buf->sentinel, 0);
130         buf->head = &buf->sentinel;
131         buf->tail = &buf->sentinel;
132
133         atomic_set(&buf->mem_used, 0);
134 }
135
136 /**
137  *      tty_buffer_alloc        -       allocate a tty buffer
138  *      @tty: tty device
139  *      @size: desired size (characters)
140  *
141  *      Allocate a new tty buffer to hold the desired number of characters.
142  *      We round our buffers off in 256 character chunks to get better
143  *      allocation behaviour.
144  *      Return NULL if out of memory or the allocation would exceed the
145  *      per device queue
146  */
147
148 static struct tty_buffer *tty_buffer_alloc(struct tty_port *port, size_t size)
149 {
150         struct llist_node *free;
151         struct tty_buffer *p;
152
153         /* Round the buffer size out */
154         size = __ALIGN_MASK(size, TTYB_ALIGN_MASK);
155
156         if (size <= MIN_TTYB_SIZE) {
157                 free = llist_del_first(&port->buf.free);
158                 if (free) {
159                         p = llist_entry(free, struct tty_buffer, free);
160                         goto found;
161                 }
162         }
163
164         /* Should possibly check if this fails for the largest buffer we
165            have queued and recycle that ? */
166         if (atomic_read(&port->buf.mem_used) > port->buf.mem_limit)
167                 return NULL;
168         p = kmalloc(sizeof(struct tty_buffer) + 2 * size, GFP_ATOMIC);
169         if (p == NULL)
170                 return NULL;
171
172 found:
173         tty_buffer_reset(p, size);
174         atomic_add(size, &port->buf.mem_used);
175         return p;
176 }
177
178 /**
179  *      tty_buffer_free         -       free a tty buffer
180  *      @tty: tty owning the buffer
181  *      @b: the buffer to free
182  *
183  *      Free a tty buffer, or add it to the free list according to our
184  *      internal strategy
185  */
186
187 static void tty_buffer_free(struct tty_port *port, struct tty_buffer *b)
188 {
189         struct tty_bufhead *buf = &port->buf;
190
191         /* Dumb strategy for now - should keep some stats */
192         WARN_ON(atomic_sub_return(b->size, &buf->mem_used) < 0);
193
194         if (b->size > MIN_TTYB_SIZE)
195                 kfree(b);
196         else if (b->size > 0)
197                 llist_add(&b->free, &buf->free);
198 }
199
200 /**
201  *      tty_buffer_flush                -       flush full tty buffers
202  *      @tty: tty to flush
203  *
204  *      flush all the buffers containing receive data.
205  *
206  *      Locking: takes buffer lock to ensure single-threaded flip buffer
207  *               'consumer'
208  */
209
210 void tty_buffer_flush(struct tty_struct *tty)
211 {
212         struct tty_port *port = tty->port;
213         struct tty_bufhead *buf = &port->buf;
214         struct tty_buffer *next;
215
216         atomic_inc(&buf->priority);
217
218         mutex_lock(&buf->lock);
219         while ((next = buf->head->next) != NULL) {
220                 tty_buffer_free(port, buf->head);
221                 buf->head = next;
222         }
223         buf->head->read = buf->head->commit;
224         atomic_dec(&buf->priority);
225         mutex_unlock(&buf->lock);
226 }
227
228 /**
229  *      tty_buffer_request_room         -       grow tty buffer if needed
230  *      @tty: tty structure
231  *      @size: size desired
232  *
233  *      Make at least size bytes of linear space available for the tty
234  *      buffer. If we fail return the size we managed to find.
235  */
236 int tty_buffer_request_room(struct tty_port *port, size_t size)
237 {
238         struct tty_bufhead *buf = &port->buf;
239         struct tty_buffer *b, *n;
240         int left;
241
242         b = buf->tail;
243         left = b->size - b->used;
244
245         if (left < size) {
246                 /* This is the slow path - looking for new buffers to use */
247                 if ((n = tty_buffer_alloc(port, size)) != NULL) {
248                         buf->tail = n;
249                         b->commit = b->used;
250                         smp_mb();
251                         b->next = n;
252                 } else
253                         size = left;
254         }
255         return size;
256 }
257 EXPORT_SYMBOL_GPL(tty_buffer_request_room);
258
259 /**
260  *      tty_insert_flip_string_fixed_flag - Add characters to the tty buffer
261  *      @port: tty port
262  *      @chars: characters
263  *      @flag: flag value for each character
264  *      @size: size
265  *
266  *      Queue a series of bytes to the tty buffering. All the characters
267  *      passed are marked with the supplied flag. Returns the number added.
268  */
269
270 int tty_insert_flip_string_fixed_flag(struct tty_port *port,
271                 const unsigned char *chars, char flag, size_t size)
272 {
273         int copied = 0;
274         do {
275                 int goal = min_t(size_t, size - copied, TTY_BUFFER_PAGE);
276                 int space = tty_buffer_request_room(port, goal);
277                 struct tty_buffer *tb = port->buf.tail;
278                 if (unlikely(space == 0))
279                         break;
280                 memcpy(char_buf_ptr(tb, tb->used), chars, space);
281                 memset(flag_buf_ptr(tb, tb->used), flag, space);
282                 tb->used += space;
283                 copied += space;
284                 chars += space;
285                 /* There is a small chance that we need to split the data over
286                    several buffers. If this is the case we must loop */
287         } while (unlikely(size > copied));
288         return copied;
289 }
290 EXPORT_SYMBOL(tty_insert_flip_string_fixed_flag);
291
292 /**
293  *      tty_insert_flip_string_flags    -       Add characters to the tty buffer
294  *      @port: tty port
295  *      @chars: characters
296  *      @flags: flag bytes
297  *      @size: size
298  *
299  *      Queue a series of bytes to the tty buffering. For each character
300  *      the flags array indicates the status of the character. Returns the
301  *      number added.
302  */
303
304 int tty_insert_flip_string_flags(struct tty_port *port,
305                 const unsigned char *chars, const char *flags, size_t size)
306 {
307         int copied = 0;
308         do {
309                 int goal = min_t(size_t, size - copied, TTY_BUFFER_PAGE);
310                 int space = tty_buffer_request_room(port, goal);
311                 struct tty_buffer *tb = port->buf.tail;
312                 if (unlikely(space == 0))
313                         break;
314                 memcpy(char_buf_ptr(tb, tb->used), chars, space);
315                 memcpy(flag_buf_ptr(tb, tb->used), flags, space);
316                 tb->used += space;
317                 copied += space;
318                 chars += space;
319                 flags += space;
320                 /* There is a small chance that we need to split the data over
321                    several buffers. If this is the case we must loop */
322         } while (unlikely(size > copied));
323         return copied;
324 }
325 EXPORT_SYMBOL(tty_insert_flip_string_flags);
326
327 /**
328  *      tty_schedule_flip       -       push characters to ldisc
329  *      @port: tty port to push from
330  *
331  *      Takes any pending buffers and transfers their ownership to the
332  *      ldisc side of the queue. It then schedules those characters for
333  *      processing by the line discipline.
334  *      Note that this function can only be used when the low_latency flag
335  *      is unset. Otherwise the workqueue won't be flushed.
336  */
337
338 void tty_schedule_flip(struct tty_port *port)
339 {
340         struct tty_bufhead *buf = &port->buf;
341         WARN_ON(port->low_latency);
342
343         buf->tail->commit = buf->tail->used;
344         schedule_work(&buf->work);
345 }
346 EXPORT_SYMBOL(tty_schedule_flip);
347
348 /**
349  *      tty_prepare_flip_string         -       make room for characters
350  *      @port: tty port
351  *      @chars: return pointer for character write area
352  *      @size: desired size
353  *
354  *      Prepare a block of space in the buffer for data. Returns the length
355  *      available and buffer pointer to the space which is now allocated and
356  *      accounted for as ready for normal characters. This is used for drivers
357  *      that need their own block copy routines into the buffer. There is no
358  *      guarantee the buffer is a DMA target!
359  */
360
361 int tty_prepare_flip_string(struct tty_port *port, unsigned char **chars,
362                 size_t size)
363 {
364         int space = tty_buffer_request_room(port, size);
365         if (likely(space)) {
366                 struct tty_buffer *tb = port->buf.tail;
367                 *chars = char_buf_ptr(tb, tb->used);
368                 memset(flag_buf_ptr(tb, tb->used), TTY_NORMAL, space);
369                 tb->used += space;
370         }
371         return space;
372 }
373 EXPORT_SYMBOL_GPL(tty_prepare_flip_string);
374
375
376 static int
377 receive_buf(struct tty_struct *tty, struct tty_buffer *head, int count)
378 {
379         struct tty_ldisc *disc = tty->ldisc;
380         unsigned char *p = char_buf_ptr(head, head->read);
381         char          *f = flag_buf_ptr(head, head->read);
382
383         if (disc->ops->receive_buf2)
384                 count = disc->ops->receive_buf2(tty, p, f, count);
385         else {
386                 count = min_t(int, count, tty->receive_room);
387                 if (count)
388                         disc->ops->receive_buf(tty, p, f, count);
389         }
390         head->read += count;
391         return count;
392 }
393
394 /**
395  *      flush_to_ldisc
396  *      @work: tty structure passed from work queue.
397  *
398  *      This routine is called out of the software interrupt to flush data
399  *      from the buffer chain to the line discipline.
400  *
401  *      The receive_buf method is single threaded for each tty instance.
402  *
403  *      Locking: takes buffer lock to ensure single-threaded flip buffer
404  *               'consumer'
405  */
406
407 static void flush_to_ldisc(struct work_struct *work)
408 {
409         struct tty_port *port = container_of(work, struct tty_port, buf.work);
410         struct tty_bufhead *buf = &port->buf;
411         struct tty_struct *tty;
412         struct tty_ldisc *disc;
413
414         tty = port->itty;
415         if (tty == NULL)
416                 return;
417
418         disc = tty_ldisc_ref(tty);
419         if (disc == NULL)
420                 return;
421
422         mutex_lock(&buf->lock);
423
424         while (1) {
425                 struct tty_buffer *head = buf->head;
426                 int count;
427
428                 /* Ldisc or user is trying to gain exclusive access */
429                 if (atomic_read(&buf->priority))
430                         break;
431
432                 count = head->commit - head->read;
433                 if (!count) {
434                         if (head->next == NULL)
435                                 break;
436                         buf->head = head->next;
437                         tty_buffer_free(port, head);
438                         continue;
439                 }
440
441                 count = receive_buf(tty, head, count);
442                 if (!count)
443                         break;
444         }
445
446         mutex_unlock(&buf->lock);
447
448         tty_ldisc_deref(disc);
449 }
450
451 /**
452  *      tty_flush_to_ldisc
453  *      @tty: tty to push
454  *
455  *      Push the terminal flip buffers to the line discipline.
456  *
457  *      Must not be called from IRQ context.
458  */
459 void tty_flush_to_ldisc(struct tty_struct *tty)
460 {
461         if (!tty->port->low_latency)
462                 flush_work(&tty->port->buf.work);
463 }
464
465 /**
466  *      tty_flip_buffer_push    -       terminal
467  *      @port: tty port to push
468  *
469  *      Queue a push of the terminal flip buffers to the line discipline. This
470  *      function must not be called from IRQ context if port->low_latency is
471  *      set.
472  *
473  *      In the event of the queue being busy for flipping the work will be
474  *      held off and retried later.
475  */
476
477 void tty_flip_buffer_push(struct tty_port *port)
478 {
479         struct tty_bufhead *buf = &port->buf;
480
481         buf->tail->commit = buf->tail->used;
482
483         if (port->low_latency)
484                 flush_to_ldisc(&buf->work);
485         else
486                 schedule_work(&buf->work);
487 }
488 EXPORT_SYMBOL(tty_flip_buffer_push);
489
490 /**
491  *      tty_buffer_init         -       prepare a tty buffer structure
492  *      @tty: tty to initialise
493  *
494  *      Set up the initial state of the buffer management for a tty device.
495  *      Must be called before the other tty buffer functions are used.
496  */
497
498 void tty_buffer_init(struct tty_port *port)
499 {
500         struct tty_bufhead *buf = &port->buf;
501
502         mutex_init(&buf->lock);
503         tty_buffer_reset(&buf->sentinel, 0);
504         buf->head = &buf->sentinel;
505         buf->tail = &buf->sentinel;
506         init_llist_head(&buf->free);
507         atomic_set(&buf->mem_used, 0);
508         atomic_set(&buf->priority, 0);
509         INIT_WORK(&buf->work, flush_to_ldisc);
510         buf->mem_limit = TTYB_DEFAULT_MEM_LIMIT;
511 }
512
513 /**
514  *      tty_buffer_set_limit    -       change the tty buffer memory limit
515  *      @port: tty port to change
516  *
517  *      Change the tty buffer memory limit.
518  *      Must be called before the other tty buffer functions are used.
519  */
520
521 int tty_buffer_set_limit(struct tty_port *port, int limit)
522 {
523         if (limit < MIN_TTYB_SIZE)
524                 return -EINVAL;
525         port->buf.mem_limit = limit;
526         return 0;
527 }
528 EXPORT_SYMBOL_GPL(tty_buffer_set_limit);