]> git.sur5r.net Git - bacula/bacula/blobdiff - bacula/projects
ebl Add tokyocabinet lib to bacula source
[bacula/bacula] / bacula / projects
index ae4f8ed4af8e9967268b560f52f5ebcde4b133c3..c007947ba051a3acc9f5fa9a96b99e42c237e436 100644 (file)
@@ -1,9 +1,7 @@
                 
 Projects:
                      Bacula Projects Roadmap 
-                    Status updated 18 August 2007
-                  After removing items completed in version  
-                       2.2.0 and renumbering
+                    Status updated 19 March 2008
 
 Items Completed:
 
@@ -1210,6 +1208,93 @@ Item 1:   enable/disable compression depending on storage device (disk/tape)
          be well defined.
 
 
+Item 1: Backup and Restore of Windows Encrypted Files through raw encryption functions
+
+  Origin: Michael Mohr, SAG  Mohr.External@infineon.com
+  
+  Date:   22 February 2008
+  
+  Status:
+
+  What:   Make it possible to backup and restore Encypted Files from and
+          to Windows systems without the need to decrypt it by using the raw encryption
+          functions API 
+          (see: http://msdn2.microsoft.com/en-us/library/aa363783.aspx)
+
+          that is provided for that reason by Microsoft.
+          If a file ist encrypted could be examined by evaluating the 
+          FILE_ATTRIBUTE_ENCRYTED flag of the GetFileAttributes
+          function.
+
+  Why:    Without the usage of this interface the fd-daemon running
+          under the system account can't read encypted Files because
+          the key needed for the decrytion is missed by them. As a result 
+          actually encrypted files are not backed up
+          by bacula and also no error is shown while missing these files.
+
+  Notes:  ./.
+
+   Item 1: Possibilty to schedule Jobs on last Friday of the month
+   Origin: Carsten Menke <bootsy52 at gmx dot net>
+   Date:   02 March 2008
+   Status:
+
+   What:   Currently if you want to run your monthly Backups on the last
+           Friday of each month this is only possible with workarounds (e.g 
+           scripting) (As some months got 4 Fridays and some got 5 Fridays)
+           The same is true if you plan to run your yearly Backups on the last 
+           Friday of the year. It would be nice to have the ability to use the builtin 
+           scheduler for this.
+
+   Why:    In many companies the last working day of the week is Friday (or 
+           Saturday), so to get the most data of the month onto the monthly tape, the 
+           employees are advised to insert the tape for the monthly backups on the last 
+           friday of the month.
+
+   Notes:  To give this a complete functionality it would be nice if the "first" 
+           and "last" Keywords could be implemented in the scheduler, so it is also 
+           possible to run monthy backups at the first friday of the month and many things 
+           more. So if the syntax would expand to this {first|last} {Month|Week|Day|Mo-Fri} 
+           of the {Year|Month|Week} you would be able to run really flexible jobs.
+
+           To got a certain Job run on the last Friday of the Month for example one could 
+           then write
+
+              Run = pool=Monthly last Fri of the Month at 23:50
+
+              ## Yearly Backup
+
+              Run = pool=Yearly last Fri of the Year at 23:50
+
+              ## Certain Jobs the last Week of a Month
+
+              Run = pool=LastWeek last Week of the Month at 23:50
+
+              ## Monthly Backup on the last day of the month
+
+              Run = pool=Monthly last Day of the Month at 23:50
+
+   Date: 20 March 2008
+
+   Origin: Frank Sweetser <fs@wpi.edu>
+
+   What: Add a new SD directive, "minimum spool size" (or similar).  This
+         directive would specify a minimum level of free space available for
+         spooling.  If the unused spool space is less than this level, any new
+         spooling requests would be blocked as if the "maximum spool size"
+         threshold had bee reached.  Already spooling jobs would be unaffected
+         by this directive.
+
+   Why: I've been bitten by this scenario a couple of times:
+
+        Assume a maximum spool size of 100M. Two concurrent jobs, A and B, are
+        both running.  Due to timing quirks and previously running jobs, job A
+        has used 99.9M of space in the spool directory.  While A is busy
+        despooling to disk, B is happily using the remaining 0.1M of spool
+        space.  This ends up in a spool/despool sequence every 0.1M of data.
+        In addition to fragmenting the data on the volume far more than was
+        necessary, in larger data sets (ie, tens or hundreds of gigabytes) it
+        can easily produce multi-megabyte report emails!
 
 ========== Already implemented ================================