Imported Upstream version 2.59.0
[platform/upstream/glib.git] / glib / tests / timeout.c
index bae2b4f..8f44e75 100644 (file)
@@ -1,5 +1,7 @@
 #include <glib.h>
+#ifdef G_OS_UNIX
 #include <unistd.h>
+#endif
 
 static GMainLoop *loop;
 
@@ -8,18 +10,22 @@ stop_waiting (gpointer data)
 {
   g_main_loop_quit (loop);
 
-  return FALSE;
+  return G_SOURCE_REMOVE;
 }
 
 static gboolean
-function (gpointer data)
+unreachable_callback (gpointer data)
 {
   g_assert_not_reached ();
+
+  return G_SOURCE_REMOVE;
 }
 
 static void
 test_seconds (void)
 {
+  guint id;
+
   /* Bug 642052 mentions that g_timeout_add_seconds(21475) schedules a
    * job that runs once per second.
    *
@@ -32,15 +38,104 @@ test_seconds (void)
    * then we have trouble (since it ran in less than 2 seconds).
    *
    * We need a timeout of at least 2 seconds because
-   * g_timeout_add_second can add as much as an additional second of
+   * g_timeout_add_seconds() can add as much as an additional second of
+   * latency.
+   */
+  g_test_bug ("https://bugzilla.gnome.org/show_bug.cgi?id=642052");
+  loop = g_main_loop_new (NULL, FALSE);
+
+  g_timeout_add (2100, stop_waiting, NULL);
+  id = g_timeout_add_seconds (21475, unreachable_callback, NULL);
+
+  g_main_loop_run (loop);
+  g_main_loop_unref (loop);
+
+  g_source_remove (id);
+}
+
+static void
+test_weeks_overflow (void)
+{
+  guint id;
+  guint interval_seconds;
+
+  /* Internally, the guint interval (in seconds) was converted to milliseconds
+   * then stored in a guint variable. This meant that any interval larger than
+   * G_MAXUINT / 1000 would overflow.
+   *
+   * On a system with 32-bit guint, the interval (G_MAXUINT / 1000) + 1 seconds
+   * (49.7 days) would end wrapping to 704 milliseconds.
+   *
+   * Test that that isn't true anymore by scheduling two jobs:
+   *   - one, as above
+   *   - another that runs in 2100ms
+   *
+   * If everything is working properly, the 2100ms one should run first
+   * (and exit the mainloop).  If we ever see the other job run
+   * then we have trouble (since it ran in less than 2 seconds).
+   *
+   * We need a timeout of at least 2 seconds because
+   * g_timeout_add_seconds() can add as much as an additional second of
    * latency.
    */
+  g_test_bug ("https://gitlab.gnome.org/GNOME/glib/issues/1600");
   loop = g_main_loop_new (NULL, FALSE);
 
   g_timeout_add (2100, stop_waiting, NULL);
-  g_timeout_add_seconds (21475, function, NULL);
+  interval_seconds = 1 + G_MAXUINT / 1000;
+  id = g_timeout_add_seconds (interval_seconds, unreachable_callback, NULL);
 
   g_main_loop_run (loop);
+  g_main_loop_unref (loop);
+
+  g_source_remove (id);
+}
+
+/* The ready_time for a GSource is stored as a gint64, as an absolute monotonic
+ * time in microseconds. To call poll(), this must be converted to a relative
+ * timeout, in milliseconds, as a gint. If the ready_time is sufficiently far
+ * in the future, the timeout will not fit. Previously, it would be narrowed in
+ * an implementation-defined way; if this gave a negative result, poll() would
+ * block forever.
+ *
+ * This test creates a GSource with the largest possible ready_time (a little
+ * over 292 millennia, assuming g_get_monotonic_time() starts from near 0 when
+ * the system boots), adds it to a GMainContext, queries it for the parameters
+ * to pass to poll() -- essentially the first half of
+ * g_main_context_iteration() -- and checks that the timeout is a large
+ * positive number.
+ */
+static void
+test_far_future_ready_time (void)
+{
+  GSourceFuncs source_funcs = { 0 };
+  GMainContext *context = g_main_context_new ();
+  GSource *source = g_source_new (&source_funcs, sizeof (GSource));
+  gboolean acquired, ready;
+  gint priority, timeout_, n_fds;
+
+  g_source_set_ready_time (source, G_MAXINT64);
+  g_source_attach (source, context);
+
+  acquired = g_main_context_acquire (context);
+  g_assert_true (acquired);
+
+  ready = g_main_context_prepare (context, &priority);
+  g_assert_false (ready);
+
+  n_fds = 0;
+  n_fds = g_main_context_query (context, priority, &timeout_, NULL, n_fds);
+
+  /* The true timeout in milliseconds doesn't fit into a gint. We definitely
+   * don't want poll() to block forever:
+   */
+  g_assert_cmpint (timeout_, >=, 0);
+  /* Instead, we want it to block for as long as possible: */
+  g_assert_cmpint (timeout_, ==, G_MAXINT);
+
+  g_main_context_release (context);
+  g_main_context_unref (context);
+  g_source_unref (source);
 }
 
 static gint64 last_time;
@@ -86,14 +181,18 @@ test_rounding (void)
   g_timeout_add_seconds (1, test_func, NULL);
 
   g_main_loop_run (loop);
+  g_main_loop_unref (loop);
 }
 
 int
 main (int argc, char *argv[])
 {
   g_test_init (&argc, &argv, NULL);
+  g_test_bug_base ("");
 
   g_test_add_func ("/timeout/seconds", test_seconds);
+  g_test_add_func ("/timeout/weeks-overflow", test_weeks_overflow);
+  g_test_add_func ("/timeout/far-future-ready-time", test_far_future_ready_time);
   g_test_add_func ("/timeout/rounding", test_rounding);
 
   return g_test_run ();