Switch to new kernel config files.
[bertos.git] / bertos / kern / preempt.c
index 7ecd481d0cdf57c6d4c3679fc4ccfa43f5cc794e..a92460bdf07620a1d6c18976886d390e01909562 100644 (file)
  *
  * \brief Simple preemptive multitasking scheduler.
  *
+ * All voluntary and preemptive context switching happens on exit from
+ * a common interrupt (signal) dispatcher.  Preemption on quantum timeout
+ * is regulated by a soft-timer.  Other kinds of preemption could happen
+ * if an interrupt sends a signal to a higher priority process (but this
+ * is still unimplemented).
+ *
+ * In the POSIX implementaiton, context switching is done by the portable
+ * SVR4 swapcontext() facility.
+ *
  * \version $Id: proc.c 1616 2008-08-10 19:41:26Z bernie $
  * \author Bernie Innocenti <bernie@codewiz.org>
  */
 
+#include "cfg/cfg_proc.h"
+
+#if CONFIG_KERN_PREEMPT
+
 #include "proc_p.h"
 #include "proc.h"
+#include "idle.h"
 
 #include <kern/irq.h>
 #include <kern/monitor.h>
 #include <cpu/frame.h> // CPU_IDLE
+#include <cpu/irq.h>   // IRQ_DISABLE()...
 #include <drv/timer.h>
 #include <cfg/module.h>
+#include <cfg/depend.h>    // CONFIG_DEPEND()
 
+// Check config dependencies
+CONFIG_DEPEND(CONFIG_KERN_PREEMPT, CONFIG_KERN && CONFIG_TIMER_EVENTS && CONFIG_KERN_IRQ);
 
+MOD_DEFINE(preempt)
 
-Timer preempt_timer;
+/// Global preemption disabling nesting counter
+cpu_atomic_t _preempt_forbid_cnt;
 
-/**
- * Disable preemptive task switching.
- *
- * The scheduler maintains a per-process nesting counter.  Task switching is
- * effectively re-enabled only when the number of calls to proc_permit()
- * matches the number of calls to proc_forbid().
- *
- * Calling functions that could sleep while task switching is disabled
- * is dangerous, although supported.  Preemptive task switching is
- * resumed while the process is sleeping and disabled again as soon as
- * it wakes up again.
- *
- * \sa proc_permit()
- */
-void proc_forbid(void)
-{
-       /* No need to protect against interrupts here. */
-       ++CurrentProcess->forbid_cnt;
-}
+static Timer preempt_timer;
 
-/**
- * Re-enable preemptive task switching.
- *
- * \sa proc_forbid()
- */
-void proc_permit(void)
-{
-       /* No need to protect against interrupts here. */
-       --CurrentProcess->forbid_cnt;
-}
 
-
-void proc_preempt(void)
+void proc_schedule(void)
 {
        IRQ_DISABLE;
 
+       ASSERT(proc_allowed());
        LIST_ASSERT_VALID(&ProcReadyList);
        CurrentProcess = (struct Process *)list_remHead(&ProcReadyList);
-       LIST_ASSERT_VALID(&ProcReadyList);
        ASSERT2(CurrentProcess, "no idle proc?");
 
        IRQ_ENABLE;
 
-       TRACEMSG("new proc: %p:%s", CurrentProcess, CurrentProcess ? CurrentProcess->monitor.name : "---");
-       monitor_report();
+       TRACEMSG("launching %p:%s", CurrentProcess, proc_currentName());
 }
 
-void proc_preempt_timer(UNUSED_ARG(void *, param))
+void proc_preempt(UNUSED_ARG(void *, param))
 {
-       IRQ_DISABLE;
-/*
-       if (!CurrentProcess->forbid_cnt)
+       if (proc_allowed())
        {
-               TRACEMSG("preempting %p:%s", CurrentProcess, CurrentProcess->monitor.name);
-               LIST_ASSERT_VALID(&ProcReadyList);
+               IRQ_DISABLE;
+
+               #if CONFIG_KERN_PRI
+                       Process *rival = (Process *)LIST_HEAD(&ProcReadyList);
+                       if (rival && rival->link.pri >= CurrentProcess->link.pri)
+                       {
+               #endif
+
+               TRACEMSG("preempting %p:%s", CurrentProcess, proc_currentName());
+
+// FIXME: this still breaks havoc, probably because of some reentrancy issue
+#if 0
                SCHED_ENQUEUE(CurrentProcess);
-               proc_preempt();
+               proc_schedule();
+#endif
+               #if CONFIG_KERN_PRI
+                       }
+               #endif
+
+               IRQ_ENABLE;
        }
-*/
-       IRQ_ENABLE;
 
        timer_setDelay(&preempt_timer, CONFIG_KERN_QUANTUM);
        timer_add(&preempt_timer);
 }
 
-void proc_schedule(void)
+void proc_switch(void)
 {
-       TRACE;
+       ATOMIC(LIST_ASSERT_VALID(&ProcReadyList));
+       TRACEMSG("%p:%s", CurrentProcess, proc_currentName());
+       ATOMIC(LIST_ASSERT_VALID(&ProcReadyList));
 
-       // Will invoke proc_preempt() in interrupt context
+       /* Sleeping with IRQs disabled or preemption forbidden is illegal */
+       IRQ_ASSERT_ENABLED();
+       ASSERT(proc_allowed());
+
+       // Will invoke proc_switch() in interrupt context
        kill(0, SIGUSR1);
 }
 
 void proc_yield(void)
 {
-       TRACE;
+       TRACEMSG("%p:%s", CurrentProcess, proc_currentName());
 
-       ASSERT_IRQ_ENABLED();
        IRQ_DISABLE;
        SCHED_ENQUEUE(CurrentProcess);
-       LIST_ASSERT_VALID(&ProcReadyList);
-       proc_schedule();
        IRQ_ENABLE;
+
+       proc_switch();
 }
 
 void proc_entry(void (*user_entry)(void))
@@ -139,39 +146,20 @@ void proc_entry(void (*user_entry)(void))
        proc_exit();
 }
 
-
-static cpustack_t idle_stack[CONFIG_PROC_DEFSTACKSIZE / sizeof(cpustack_t)];
-
-/*
- * The idle process
- *
- * This process never dies and never sleeps.  It's also quite apathic
- * and a bit antisocial.
- *
- * Having an idle process costs some stack space, but simplifies the
- * interrupt-driven preemption logic because there is always a user
- * context to which we can return.
- */
-static NORETURN void idle(void)
-{
-       for (;;)
-       {
-               TRACE;
-               monitor_report();
-               proc_yield(); // FIXME: CPU_IDLE
-       }
-}
-
 void preempt_init(void)
 {
        MOD_CHECK(irq);
        MOD_CHECK(timer);
 
-       irq_register(SIGUSR1, proc_preempt);
+       irq_register(SIGUSR1, proc_schedule);
 
-       timer_setSoftint(&preempt_timer, proc_preempt_timer, NULL);
+       timer_setSoftint(&preempt_timer, proc_preempt, NULL);
        timer_setDelay(&preempt_timer, CONFIG_KERN_QUANTUM);
        timer_add(&preempt_timer);
 
-       proc_new(idle, NULL, sizeof(idle_stack), idle_stack);
+       idle_init();
+
+       MOD_INIT(preempt);
 }
+
+#endif // CONFIG_KERN_PREEMPT