]> git.sur5r.net Git - bacula/bacula/blob - bacula/kernstodo
ebl fix debug message
[bacula/bacula] / bacula / kernstodo
1                     Kern's ToDo List
2                      08 May 2007
3
4
5 Document:
6 - !!! Cannot restore two jobs a the same time that were
7   written simultaneously unless they were totally spooled.
8 - Document cleaning up the spool files:
9   db, pid, state, bsr, mail, conmsg, spool
10 - Document the multiple-drive-changer.txt script.
11 - Pruning with Admin job.
12 - Does WildFile match against full name?  Doc.
13 - %d and %v only valid on Director, not for ClientRunBefore/After.
14 - During tests with the 260 char fix code, I found one problem:
15   if the system "sees" a long path once, it seems to forget it's
16   working drive (e.g.  c:\), which will lead to a problem during
17   the next job (create bootstrap file will fail).  Here is the
18   workaround: specify absolute working and pid directory in
19   bacula-fd.conf (e.g.  c:\bacula\working instead of
20   \bacula\working).
21 - Document techniques for restoring large numbers of files.
22 - Document setting my.cnf to big file usage.
23 - Add example of proper index output to doc. show index from File;
24 - Correct the Include syntax in the m4.xxx files in examples/conf
25 - Document JobStatus and Termination codes.
26 - Fix the error with the "DVI file can't be opened" while
27   building the French PDF.
28 - Document more DVD stuff
29 - Doc
30    { "JobErrors",  "i"},
31    { "JobFiles",   "i"},
32    { "SDJobFiles", "i"},
33    { "SDErrors",   "i"},
34    { "FDJobStatus","s"},
35    { "SDJobStatus","s"},
36 - Document all the little details of setting up certificates for
37   the Bacula data encryption code.
38 - Document more precisely how to use master keys -- especially
39   for disaster recovery.
40  
41 Professional Needs:
42 - Migration from other vendors
43   - Date change
44   - Path change
45 - Filesystem types
46 - Backup conf/exe (all daemons) 
47 - Backup up system state
48 - Detect state change of system (verify)
49
50 Priority:
51 - Mention Eric and Marc's work + Marc's doc.
52 - Add TLS to bat
53 - When Pool specifies Storage command override does not work.
54 - Implement wait_for_sysop() message display in wait_for_device(), which
55   now prints warnings too often.
56
57 - Add Where: client:/.... to restore job report.
58 - Ensure that each device in an Autochanger has a different
59   Device Index.
60 - Add Catalog = to Pool resource so that pools will exist
61   in only one catalog -- currently Pools are "global".
62 - Look at sg_logs -a /dev/sg0 for getting soft errors.
63 - btape "test" command with Offline on Unmount = yes
64
65    This test is essential to Bacula.
66
67    I'm going to write one record  in file 0,
68    two records in file 1,
69    and three records in file 2
70
71    02-Feb 11:00 btape: ABORTING due to ERROR in dev.c:715
72    dev.c:714 Bad call to rewind. Device "LTO" (/dev/nst0) not open
73    02-Feb 11:00 btape: Fatal Error because: Bacula interrupted by signal 11: Segmentation violation
74    Kaboom! btape, btape got signal 11. Attempting traceback.
75
76 - Ensure that moving a purged Volume in ua_purge.c to the RecyclePool
77   does the right thing.
78 - Why doesn't @"xxx abc" work in a conf file?
79 - Figure out some way to "automatically" backup conf changes.
80 - Add the OS version back to the Win32 client info.
81 - Restarted jobs have a NULL in the from field.
82 - Modify SD status command to indicate when the SD is writing
83   to a DVD (the device is not open -- see bug #732).
84 - Look at the possibility of adding "SET NAMES UTF8" for MySQL,
85   and possibly changing the blobs into varchar.
86 - Ensure that the SD re-reads the Media record if the JobFiles
87   does not match -- it may have been updated by another job.
88 - Look at moving the Storage directive from the Job to the
89   Pool in the default conf files.
90 - Doc items
91 - Test Volume compatibility between machine architectures
92 - Encryption documentation
93 - Wrong jobbytes with query 12 (todo)
94 - bacula-1.38.2-ssl.patch
95 - Bare-metal recovery Windows (todo)
96    
97
98 Projects:
99 - Average tape size from Eric
100     SELECT COALESCE(media_avg_size.volavg,0) * count(Media.MediaId) AS volmax,                                                              GROUP BY Media.MediaType, Media.PoolId, media_avg_size.volavg
101            count(Media.MediaId)  AS volnum,
102            sum(Media.VolBytes)   AS voltotal,
103            Media.PoolId          AS PoolId,
104            Media.MediaType       AS MediaType
105     FROM Media
106     LEFT JOIN (SELECT avg(Media.VolBytes) AS volavg,
107                       Media.MediaType     AS MediaType
108                FROM Media
109               WHERE Media.VolStatus = 'Full'
110               GROUP BY Media.MediaType
111                ) AS media_avg_size ON (Media.MediaType = media_avg_size.MediaType)
112     GROUP BY Media.MediaType, Media.PoolId, media_avg_size.volavg
113 - GUI
114   - Admin
115   - Management reports
116   - Add doc for bweb -- especially Installation
117   - Look at Webmin
118      http://www.orangecrate.com/modules.php?name=News&file=article&sid=501
119 - Performance
120   - FD-SD quick disconnect
121   - Despool attributes in separate thread
122   - Database speedups
123   - Embedded MySQL
124   - Check why restore repeatedly sends Rechdrs between
125     each data chunk -- according to James Harper 9Jan07.
126   - Building the in memory restore tree is slow.
127 - Features
128   - Better scheduling  
129   - Full at least once a month, ...
130   - Cancel Inc if Diff/Full running
131   - More intelligent re-run
132   - New/deleted file backup   
133   - FD plugins
134   - Incremental backup -- rsync, Stow
135
136
137 For next release:
138 - Look at mondo/mindi
139 - Don't restore Solaris Door files:
140    #define   S_IFDOOR   in st_mode.
141   see: http://docs.sun.com/app/docs/doc/816-5173/6mbb8ae23?a=view#indexterm-360
142 - Make Bacula by default not backup tmpfs, procfs, sysfs, ...
143 - Fix hardlinked immutable files when linking a second file, the
144   immutable flag must be removed prior to trying to link it.
145 - Implement Python event for backing up/restoring a file.
146 - Change dbcheck to tell users to use native tools for fixing
147   broken databases, and to ensure they have the proper indexes.
148 - add udev rules for Bacula devices.
149 - If a job terminates, the DIR connection can close before the
150   Volume info is updated, leaving the File count wrong.
151 - Look at why SIGPIPE during connection can cause seg fault in
152   writing the daemon message, when Dir dropped to bacula:bacula
153 - Look at zlib 32 => 64 problems.
154 - Possibly turn on St. Bernard code.
155 - Fix bextract to restore ACLs, or better yet, use common routines.
156 - Do we migrate appendable Volumes?
157 - Remove queue.c code.
158 - Print warning message if LANG environment variable does not specify
159   UTF-8.
160 - New dot commands from Arno.
161   .show device=xxx lists information from one storage device, including 
162      devices (I'm not even sure that information exists in the DIR...)
163   .move eject device=xxx mostly the same as 'unmount xxx' but perhaps with 
164      better machine-readable output like "Ok" or "Error busy"
165   .move eject device=xxx toslot=yyy the same as above, but with a new 
166      target slot. The catalog should be updated accordingly.
167   .move transfer device=xxx fromslot=yyy toslot=zzz
168
169 Low priority:
170 - Article: http://www.heise.de/open/news/meldung/83231
171 - Article: http://www.golem.de/0701/49756.html
172 - Article: http://lwn.net/Articles/209809/
173 - Article: http://www.onlamp.com/pub/a/onlamp/2004/01/09/bacula.html
174 - Article: http://www.linuxdevcenter.com/pub/a/linux/2005/04/07/bacula.html
175 - Article: http://www.osreviews.net/reviews/admin/bacula
176 - Article: http://www.debianhelp.co.uk/baculaweb.htm
177 - Article: 
178 - It appears to me that you have run into some sort of race
179   condition where two threads want to use the same Volume and they
180   were both given access.  Normally that is no problem.  However,
181   one thread wanted the particular Volume in drive 0, but it was
182   loaded into drive 1 so it decided to unload it from drive 1 and
183   then loaded it into drive 0, while the second thread went on
184   thinking that the Volume could be used in drive 1 not realizing
185   that in between time, it was loaded in drive 0.
186   I'll look at the code to see if there is some way we can avoid
187   this kind of problem.  Probably the best solution is to make the
188   first thread simply start using the Volume in drive 1 rather than
189   transferring it to drive 0.
190 - Fix re-read of last block to check if job has actually written
191   a block, and check if block was written by a different job
192   (i.e. multiple simultaneous jobs writing).
193 - Figure out how to configure query.sql.  Suggestion to use m4:
194     == changequote.m4 ===
195     changequote(`[',`]')dnl
196     ==== query.sql.in ===
197     :List next 20 volumes to expire
198     SELECT
199         Pool.Name AS PoolName,
200         Media.VolumeName,
201         Media.VolStatus,
202         Media.MediaType,
203     ifdef([MySQL],
204     [ FROM_UNIXTIME(UNIX_TIMESTAMP(Media.LastWritten) Media.VolRetention) AS Expire, ])dnl
205     ifdef([PostgreSQL],
206     [ media.lastwritten + interval '1 second' * media.volretention as expire, ])dnl
207       Media.LastWritten
208       FROM Pool
209       LEFT JOIN Media
210       ON Media.PoolId=Pool.PoolId
211       WHERE Media.LastWritten>0
212       ORDER BY Expire
213       LIMIT 20;
214     ====
215     Command: m4 -DmySQL changequote.m4 query.sql.in >query.sql
216
217   The problem is that it requires m4, which is not present on all machines
218   at ./configure time.
219 - Given all the problems with FIFOs, I think the solution is to do something a
220   little different, though I will look at the code and see if there is not some
221   simple solution (i.e. some bug that was introduced).  What might be a better
222   solution would be to use a FIFO as a sort of "key" to tell Bacula to read and
223   write data to a program rather than the FIFO.  For example, suppose you
224   create a FIFO named:
225
226      /home/kern/my-fifo
227
228   Then, I could imagine if you backup and restore this file with a direct
229   reference as is currently done for fifos, instead, during backup Bacula will
230   execute:
231
232     /home/kern/my-fifo.backup
233
234   and read the data that my-fifo.backup writes to stdout. For restore, Bacula
235   will execute:
236
237     /home/kern/my-fifo.restore
238
239   and send the data backed up to stdout. These programs can either be an
240   executable or a shell script and they need only read/write to stdin/stdout.
241
242   I think this would give a lot of flexibility to the user without making any
243   significant changes to Bacula.
244
245
246 ==== SQL
247 # get null file
248 select FilenameId from Filename where Name='';
249 # Get list of all directories referenced in a Backup.
250 select Path.Path from Path,File where File.JobId=nnn and
251   File.FilenameId=(FilenameId-from-above) and File.PathId=Path.PathId
252   order by Path.Path ASC;
253
254 - Look into using Dart for testing
255   http://public.kitware.com/Dart/HTML/Index.shtml
256
257 - Look into replacing autotools with cmake
258   http://www.cmake.org/HTML/Index.html
259
260 === Migration from David ===
261 What I'd like to see: 
262
263 Job {
264   Name = "<poolname>-migrate"
265   Type = Migrate
266   Messages = Standard
267   Pool = Default
268   Migration Selection Type = LowestUtil | OldestVol | PoolOccupancy |
269 Client | PoolResidence | Volume | JobName | SQLquery
270   Migration Selection Pattern = "regexp"
271   Next Pool = <override>
272 }
273
274 There should be no need for a Level (migration is always Full, since you
275 don't calculate differential/incremental differences for migration),
276 Storage should be determined by the volume types in the pool, and Client
277 is really a selection issue.  Migration should always occur to the
278 NextPool defined in the pool definition. If no nextpool is defined, the
279 job should end with a reason of "no place to go". If Next Pool statement
280 is present, we override the check in the pool definition and use the
281 pool specified. 
282
283 Here's how I'd define Migration Selection Types: 
284
285 With Regexes:
286 Client  -- Migrate data from selected client only. Migration Selection
287 Pattern regexp provides pattern to select client names, eg ^FS00* makes
288 all client names starting with FS00 eligible for migration. 
289
290 Jobname -- Migration all jobs matching name. Migration Selection Pattern
291 regexp provides pattern to select jobnames existing in pool. 
292
293 Volume -- Migrate all data on specified volumes. Migration Selection
294 Pattern regexp provides selection criteria for volumes to be migrated.
295 Volumes must exist in pool to be eligible for migration. 
296
297
298 With Regex optional:
299 LowestUtil -- Identify the volume in the pool with the least data on it
300 and empty it. No Migration Selection Pattern required. 
301
302 OldestVol -- Identify the LRU volume with data written, and empty it. No
303 Migration Selection Pattern required. 
304
305 PoolOccupancy -- if pool occupancy exceeds <highmig>, migrate volumes
306 (starting with most full volumes) until pool occupancy drops below
307 <lowmig>. Pool highmig and lowmig values are in pool definition, no
308 Migration Selection Pattern required.
309
310
311 No regex:
312 SQLQuery -- Migrate all jobuids returned by the supplied SQL query.
313 Migration Selection Pattern contains SQL query to execute; should return
314 a list of 1 or more jobuids to migrate.
315
316 PoolResidence -- Migrate data sitting in pool for longer than
317 PoolResidence value in pool definition. Migration Selection Pattern
318 optional; if specified, override value in pool definition (value in
319 minutes). 
320
321
322 [ possibly a Python event -- kes ]
323 ===
324 - Mount on an Autochanger with no tape in the drive causes:
325    Automatically selected Storage: LTO-changer
326    Enter autochanger drive[0]: 0
327    3301 Issuing autochanger "loaded drive 0" command.
328    3302 Autochanger "loaded drive 0", result: nothing loaded.
329    3301 Issuing autochanger "loaded drive 0" command.
330    3302 Autochanger "loaded drive 0", result: nothing loaded.
331    3902 Cannot mount Volume on Storage Device "LTO-Drive1" (/dev/nst0) because:
332    Couldn't rewind device "LTO-Drive1" (/dev/nst0): ERR=dev.c:678 Rewind error on "LTO-Drive1" (/dev/nst0). ERR=No medium found.
333    3905 Device "LTO-Drive1" (/dev/nst0) open but no Bacula volume is mounted.
334    If this is not a blank tape, try unmounting and remounting the Volume.
335 - If Drive 0 is blocked, and drive 1 is set "Autoselect=no", drive 1 will
336   be used.
337 - Autochanger did not change volumes.  
338    select * from Storage;
339    +-----------+-------------+-------------+
340    | StorageId | Name        | AutoChanger |
341    +-----------+-------------+-------------+
342    |         1 | LTO-changer |           0 |
343    +-----------+-------------+-------------+
344    05-May 03:50 roxie-sd: 3302 Autochanger "loaded drive 0", result is Slot 11.
345    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Warning: Director wanted Volume "LT
346     Current Volume "LT0-002" not acceptable because:
347     1997 Volume "LT0-002" not in catalog.
348    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Error: Autochanger Volume "LT0-002"
349     Setting InChanger to zero in catalog.
350    05-May 03:50 roxie-dir: Tibs.2006-05-05_03.05.02 Error: Unable to get Media record
351
352    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Fatal error: Error getting Volume i
353    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Fatal error: Job 530 canceled.
354    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Fatal error: spool.c:249 Fatal appe
355    05-May 03:49 Tibs: Tibs.2006-05-05_03.05.02 Fatal error: c:\cygwin\home\kern\bacula
356    , got
357      (missing)
358     llist volume=LTO-002
359               MediaId: 6
360            VolumeName: LTO-002
361                  Slot: 0
362                PoolId: 1
363             MediaType: LTO-2
364          FirstWritten: 2006-05-05 03:11:54
365           LastWritten: 2006-05-05 03:50:23
366             LabelDate: 2005-12-26 16:52:40
367               VolJobs: 1
368              VolFiles: 0
369             VolBlocks: 1
370             VolMounts: 0
371              VolBytes: 206
372             VolErrors: 0
373             VolWrites: 0
374      VolCapacityBytes: 0
375             VolStatus: 
376               Recycle: 1
377          VolRetention: 31,536,000
378        VolUseDuration: 0
379            MaxVolJobs: 0
380           MaxVolFiles: 0
381           MaxVolBytes: 0
382             InChanger: 0
383               EndFile: 0
384              EndBlock: 0
385              VolParts: 0
386             LabelType: 0
387             StorageId: 1
388
389    Note VolStatus is blank!!!!!
390    llist volume=LTO-003
391              MediaId: 7
392           VolumeName: LTO-003
393                 Slot: 12
394               PoolId: 1
395            MediaType: LTO-2
396         FirstWritten: 0000-00-00 00:00:00
397          LastWritten: 0000-00-00 00:00:00
398            LabelDate: 2005-12-26 16:52:40
399              VolJobs: 0
400             VolFiles: 0
401            VolBlocks: 0
402            VolMounts: 0
403             VolBytes: 1
404            VolErrors: 0
405            VolWrites: 0
406     VolCapacityBytes: 0
407            VolStatus: Append
408              Recycle: 1
409         VolRetention: 31,536,000
410       VolUseDuration: 0
411           MaxVolJobs: 0
412          MaxVolFiles: 0
413          MaxVolBytes: 0
414            InChanger: 0
415              EndFile: 0
416             EndBlock: 0
417             VolParts: 0
418            LabelType: 0
419            StorageId: 1
420 ===
421    mount
422    Automatically selected Storage: LTO-changer
423    Enter autochanger drive[0]: 0
424    3301 Issuing autochanger "loaded drive 0" command.
425    3302 Autochanger "loaded drive 0", result: nothing loaded.
426    3301 Issuing autochanger "loaded drive 0" command.
427    3302 Autochanger "loaded drive 0", result: nothing loaded.
428    3902 Cannot mount Volume on Storage Device "LTO-Drive1" (/dev/nst0) because:
429    Couldn't rewind device "LTO-Drive1" (/dev/nst0): ERR=dev.c:678 Rewind error on "LTO-Drive1" (/dev/nst0). ERR=No medium found.
430
431    3905 Device "LTO-Drive1" (/dev/nst0) open but no Bacula volume is mounted.
432    If this is not a blank tape, try unmounting and remounting the Volume.
433
434 - http://www.dwheeler.com/essays/commercial-floss.html
435 - Add VolumeLock to prevent all but lock holder (SD) from updating
436   the Volume data (with the exception of VolumeState).
437 - The btape fill command does not seem to use the Autochanger
438 - Make Windows installer default to system disk drive.
439 - Look at using ioctl(FIOBMAP, ...) on Linux, and 
440   DeviceIoControl(...,  FSCTL_QUERY_ALLOCATED_RANGES, ...) on
441   Win32 for sparse files.
442   http://www.flexhex.com/docs/articles/sparse-files.phtml
443   http://www.informatik.uni-frankfurt.de/~loizides/reiserfs/fibmap.html
444 - Directive: at <event> "command"
445 - Command: pycmd "command" generates "command" event.  How to
446   attach to a specific job?
447 - Integrate Christopher's St. Bernard code.
448 - run_cmd() returns int should return JobId_t
449 - get_next_jobid_from_list() returns int should return JobId_t
450 - Document export LDFLAGS=-L/usr/lib64
451 - Don't attempt to restore from "Disabled" Volumes.
452 - Network error on Win32 should set Win32 error code.
453 - What happens when you rename a Disk Volume?
454 - Job retention period in a Pool (and hence Volume).  The job would
455   then be migrated.
456 - Look at -D_FORTIFY_SOURCE=2
457 - Add Win32 FileSet definition somewhere
458 - Look at fixing restore status stats in SD.
459 - Look at using ioctl(FIMAP) and FIGETBSZ for sparse files.
460   http://www.informatik.uni-frankfurt.de/~loizides/reiserfs/fibmap.html
461 - Implement a mode that says when a hard read error is
462   encountered, read many times (as it currently does), and if the
463   block cannot be read, skip to the next block, and try again.  If
464   that fails, skip to the next file and try again, ...
465 - Add level table:
466   create table LevelType (LevelType binary(1), LevelTypeLong tinyblob);
467   insert into LevelType (LevelType,LevelTypeLong) values
468   ("F","Full"),
469   ("D","Diff"),
470   ("I","Inc");
471 - Show files/second in client status output.
472 - Add a recursive mark command (rmark) to restore.
473 - "Minimum Job Interval = nnn" sets minimum interval between Jobs
474   of the same level and does not permit multiple simultaneous
475   running of that Job (i.e. lets any previous invocation finish
476   before doing Interval testing).
477 - Look at simplifying File exclusions.
478 - New directive "Delete purged Volumes"
479 - new pool XXX with ScratchPoolId = MyScratchPool's PoolId and
480   let it fill itself, and RecyclePoolId = XXX's PoolId so I can
481   see if it become stable and I just have to supervise
482   MyScratchPool
483 - If I want to remove this pool, I set RecyclePoolId = MyScratchPool's
484   PoolId, and when it is empty remove it.
485 - Figure out how to recycle Scratch volumes back to the Scratch Pool.
486 - Add Volume=SCRTCH
487 - Allow Check Labels to be used with Bacula labels.
488 - "Resuming" a failed backup (lost line for example) by using the
489   failed backup as a sort of "base" job.
490 - Look at NDMP
491 - Email to the user when the tape is about to need changing x
492   days before it needs changing.
493 - Command to show next tape that will be used for a job even
494   if the job is not scheduled.
495 - From: Arunav Mandal <amandal@trolltech.com>
496   1. When jobs are running and bacula for some reason crashes or if I do a 
497   restart it remembers and jobs it was running before it crashed or restarted 
498   as of now I loose all jobs if I restart it.
499
500   2. When spooling and in the midway if client is disconnected for instance a 
501   laptop bacula completely discard the spool. It will be nice if it can write 
502   that spool to tape so there will be some backups for that client if not all.
503
504   3. We have around 150 clients machines it will be nice to have a option to 
505   upgrade all the client machines bacula version automatically.
506
507   4. Atleast one connection should be reserved for the bconsole so at heavy load 
508   I should connect to the director via bconsole which at sometimes I can't
509
510   5. Another most important feature that is missing, say at 10am I manually 
511   started  backup of client abc and it was a full backup since client abc has 
512   no backup history and at 10.30am bacula again automatically started backup of 
513   client abc as that was in the schedule. So now we have 2 multiple Full 
514   backups of the same client and if we again try to start a full backup of 
515   client backup abc bacula won't complain. That should be fixed.
516
517 - Fix bpipe.c so that it does not modify results pointer.
518   ***FIXME*** calling sequence should be changed.
519 - For Windows disaster recovery see http://unattended.sf.net/
520 - regardless of the retention period, Bacula will not prune the
521   last Full, Diff, or Inc File data until a month after the
522   retention period for the last Full backup that was done.
523 - update volume=xxx --- add status=Full
524 - Remove old spool files on startup.
525 - Exclude SD spool/working directory.
526 - Refuse to prune last valid Full backup. Same goes for Catalog.
527 - Python:
528   - Make a callback when Rerun failed levels is called.
529   - Give Python program access to Scheduled jobs.
530   - Add setting Volume State via Python.
531   - Python script to save with Python, not save, save with Bacula.
532   - Python script to do backup.
533   - What events?
534   - Change the Priority, Client, Storage, JobStatus (error) 
535     at the start of a job.
536 - Why is SpoolDirectory = /home/bacula/spool;  not reported
537   as an error when writing a DVD?
538 - Make bootstrap file handle multiple MediaTypes (SD)
539 - Remove all old Device resource code in Dir and code to pass it
540   back in SD -- better, rework it to pass back device statistics.
541 - Check locking of resources -- be sure to lock devices where previously
542   resources were locked. 
543 - The last part is left in the spool dir.
544
545
546 - In restore don't compare byte count on a raw device -- directory
547   entry does not contain bytes.
548 === rate design
549   jcr->last_rate
550   jcr->last_runtime
551   MA = (last_MA * 3 + rate) / 4
552   rate = (bytes - last_bytes) / (runtime - last_runtime)
553 - Max Vols limit in Pool off by one?
554 - Implement Files/Bytes,... stats for restore job.
555 - Implement Total Bytes Written, ... for restore job.
556 - Despool attributes simultaneously with data in a separate
557   thread, rejoined at end of data spooling.
558 - 7. Implement new Console commands to allow offlining/reserving drives,
559      and possibly manipulating the autochanger (much asked for).
560 - Add start/end date editing in messages (%t %T, %e?) ...
561 - Add ClientDefs similar to JobDefs.
562 - Print more info when bextract -p accepts a bad block.
563 - Fix FD JobType to be set before RunBeforeJob in FD.
564 - Look at adding full Volume and Pool information to a Volume 
565   label so that bscan can get *all* the info. 
566 - If the user puts "Purge Oldest Volume = yes" or "Recycle Oldest Volume = yes"
567   and there is only one volume in the pool, refuse to do it -- otherwise
568   he fills the Volume, then immediately starts reusing it.
569 - Implement copies and stripes.
570 - Add history file to console.
571 - Each file on tape creates a JobMedia record. Peter has 4 million
572   files spread over 10000 tape files and four tapes. A restore takes
573   16 hours to build the restore list.
574 - Add and option to check if the file size changed during backup.
575 - Make sure SD deletes spool files on error exit.
576 - Delete old spool files when SD starts.
577 - When labeling tapes, if you enter 000026, Bacula uses
578   the tape index rather than the Volume name 000026.
579 - Add offline tape command to Bacula console.
580 - Bug: 
581   Enter MediaId or Volume name: 32
582   Enter new Volume name: DLT-20Dec04
583   Automatically selected Pool: Default
584   Connecting to Storage daemon DLTDrive at 192.168.68.104:9103 ...
585   Sending relabel command from "DLT-28Jun03" to "DLT-20Dec04" ...
586   block.c:552 Write error at 0:0 on device /dev/nst0. ERR=Bad file descriptor.
587   Error writing final EOF to tape. This tape may not be readable.
588   dev.c:1207 ioctl MTWEOF error on /dev/nst0. ERR=Permission denied.
589   askdir.c:219 NULL Volume name. This shouldn't happen!!!
590   3912 Failed to label Volume: ERR=dev.c:1207 ioctl MTWEOF error on /dev/nst0. ERR=Permission denied.
591   Label command failed for Volume DLT-20Dec04.
592   Do not forget to mount the drive!!!
593 - Bug: if a job is manually scheduled to run later, it does not appear
594   in any status report and cannot be cancelled.
595
596 ==== Keeping track of deleted/new files ====
597 - To mark files as deleted, run essentially a Verify to disk, and
598   when a file is found missing (MarkId != JobId), then create
599   a new File record with FileIndex == -1. This could be done
600   by the FD at the same time as the backup.
601
602      My "trick" for keeping track of deletions is the following.
603      Assuming the user turns on this option, after all the files
604      have been backed up, but before the job has terminated, the
605      FD will make a pass through all the files and send their
606      names to the DIR (*exactly* the same as what a Verify job
607      currently does).  This will probably be done at the same
608      time the files are being sent to the SD avoiding a second
609      pass.  The DIR will then compare that to what is stored in
610      the catalog.  Any files in the catalog but not in what the
611      FD sent will receive a catalog File entry that indicates
612      that at that point in time the file was deleted. This
613      either transmitted to the FD or simultaneously computed in
614      the FD, so that the FD can put a record on the tape that
615      indicates that the file has been deleted at this point.
616      A delete file entry could potentially be one with a FileIndex
617      of 0 or perhaps -1 (need to check if FileIndex is used for
618      some other thing as many of the Bacula fields are "overloaded"
619      in the SD).
620
621      During a restore, any file initially picked up by some
622      backup (Full, ...) then subsequently having a File entry
623      marked "delete" will be removed from the tree, so will not
624      be restored.  If a file with the same name is later OK it
625      will be inserted in the tree -- this already happens.  All
626      will be consistent except for possible changes during the
627      running of the FD.
628
629      Since I'm on the subject, some of you may be wondering what
630      the utility of the in memory tree is if you are going to
631      restore everything (at least it comes up from time to time
632      on the list).  Well, it is still *very* useful because it
633      allows only the last item found for a particular filename
634      (full path) to be entered into the tree, and thus if a file
635      is backed up 10 times, only the last copy will be restored.
636      I recently (last Friday) restored a complete directory, and
637      the Full and all the Differential and Incremental backups
638      spanned 3 Volumes.  The first Volume was not even mounted
639      because all the files had been updated and hence backed up
640      since the Full backup was made.  In this case, the tree
641      saved me a *lot* of time.
642
643      Make sure this information is stored on the tape too so
644      that it can be restored directly from the tape.
645
646      All the code (with the exception of formally generating and
647      saving the delete file entries) already exists in the Verify
648      Catalog command.  It explicitly recognizes added/deleted files since
649      the last InitCatalog.  It is more or less a "simple" matter of
650      taking that code and adapting it slightly to work for backups.
651
652   Comments from Martin Simmons (I think they are all covered):
653   Ok, that should cover the basics.  There are few issues though:
654
655   - Restore will depend on the catalog.  I think it is better to include the
656   extra data in the backup as well, so it can be seen by bscan and bextract.
657
658   - I'm not sure if it will preserve multiple hard links to the same inode.  Or
659   maybe adding or removing links will cause the data to be dumped again?
660
661   - I'm not sure if it will handle renamed directories.  Possibly it will work
662   by dumping the whole tree under a renamed directory?
663
664   - It remains to be seen how the backup performance of the DIR's will be
665   affected when comparing the catalog for a large filesystem.
666
667 ==== 
668 From David:
669 How about introducing a Type = MgmtPolicy job type? That job type would
670 be responsible for scanning the Bacula environment looking for specific
671 conditions, and submitting the appropriate jobs for implementing said
672 policy, eg: 
673
674 Job {
675    Name = "Migration-Policy"
676    Type = MgmtPolicy
677    Policy Selection Job Type = Migrate
678    Scope = "<keyword> <operator> <regexp>"
679    Threshold = "<keyword> <operator> <regexp>"
680    Job Template = <template-name>
681 }
682
683 Where <keyword> is any legal job keyword, <operator> is a comparison
684 operator (=,<,>,!=, logical operators AND/OR/NOT) and <regexp> is a
685 appropriate regexp. I could see an argument for Scope and Threshold
686 being SQL queries if we want to support full flexibility. The
687 Migration-Policy job would then get scheduled as frequently as a site
688 felt necessary (suggested default: every 15 minutes). 
689
690 Example: 
691
692 Job {
693    Name = "Migration-Policy"
694    Type = MgmtPolicy
695    Policy Selection Job Type = Migration
696    Scope = "Pool=*"
697    Threshold = "Migration Selection Type = LowestUtil"
698    Job Template = "MigrationTemplate"
699 }
700
701 would select all pools for examination and generate a job based on
702 MigrationTemplate to automatically select the volume with the lowest
703 usage and migrate it's contents to the nextpool defined for that pool. 
704
705 This policy abstraction would be really handy for adjusting the behavior
706 of Bacula according to site-selectable criteria (one thing that pops
707 into mind is Amanda's ability to automatically adjust backup levels
708 depending on various criteria).
709
710
711 =====
712
713 Regression tests:
714 - Add Pool/Storage override regression test.
715 - Add delete JobId to regression.
716 - Add a regression test for dbcheck.  
717 - New test to add bscan to four-concurrent-jobs regression,
718   i.e. after the four-concurrent jobs zap the
719   database as is done in the bscan-test, then use bscan to
720   restore the database, do a restore and compare with the
721   original.
722 - Add restore of specific JobId to regression (item 3
723   on the restore prompt)
724 - Add IPv6 to regression
725 - Add database test to regression. Test each function like delete,
726   purge, ...
727
728 - AntiVir can slow down backups on Win32 systems. 
729 - Win32 systems with FAT32 can be much slower than NTFS for
730   more than 1000 files per directory.
731
732
733 1.37 Possibilities:
734 - A HOLD command to stop all jobs from starting.
735 - A PAUSE command to pause all running jobs ==> release the
736   drive.
737 - Media Type = LTO,LTO-2,LTO-3
738   Media Type Read = LTO,LTO2,LTO3
739   Media Type Write = LTO2, LTO3
740
741 === From Carsten Menke <bootsy52@gmx.net>
742
743 Following is a list of what I think in the situations where I'm faced with, 
744 could be a usefull enhancement to bacula, which I'm certain other users will 
745 benefit from as well.
746
747 1. NextJob/NextJobs Directive within a Job Resource in the form of
748     NextJobs = job1,job2.
749
750     Why:
751     I currently solved the problem with running multiple jobs each after each
752     by setting the Max Wait Time for a job to 8 hours, and give
753     the jobs different Priorities. However, there scenarios where
754     1 Job is directly depending on another job, so if the former job fails,
755     the job after it needn't to be run
756     while maybe other jobs should run despite of that
757
758 Example:
759   A Backup Job and a Verify job, if the backup job fails there is no need to run
760   the verify job, as the backup job already failed. However, one may like
761   to backup the Catalog to disk despite of that the main backup job failed.
762
763 Notes:
764   I see that this is related to the Event Handlers which are on the ToDo
765   list, also it is maybe a good idea to check for the return value and
766   execute different actions based on the return value
767
768
769 3. offline capability to bconsole
770
771     Why:
772     Currently I use a script which I execute within the last Job via the
773     RunAfterJob Directive, to release and eject the tape.
774     So I have to call bconsole "release=Storage-Name" and afterwards
775     mt -f /dev/nst0 eject to get the tape out.
776
777     If I have multiple Storage Devices, than these may not be /dev/nst0 and
778     I have to modify the script or call it with parameters etc.
779     This would actually not be needed, as everything is already defined
780     in bacula-sd.conf and if   I can invoke bconsole with the
781     storage name via $1 in the script than I'm done and information is
782     not duplicated.
783
784 4. %s for Storage Name added to the chars being substituted in "RunAfterJob"
785
786     Why:
787
788     For the reason mentioned in 3. to have the ability to call a
789     script with /scripts/foobar %s and in the script use $1
790     to pass the Storage Name to bconsole
791
792 5. Setting Volume State within a Job Resource
793
794     Why:
795     Instead of using "Maximum Volume Jobs" in the Pool Resource,
796     I would have the possibilty to define
797     in a Job Resource that after this certain job is run, the Volume State
798     should be set to "Volume State = Used", this give more flexibility (IMHO).
799
800 6. Localization of Bacula Messages
801
802     Why:
803     Unfortunatley many,many people I work with don't speak english very well.
804     So if at least the Reporting messages would be localized then they
805     would  understand that they have to change the tape,etc. etc.
806
807     I volunteer to do the german translations, and if I can convince my wife also
808     french and Morre (western african language).
809
810 7. OK, this is evil, probably bound to security risks and maybe not possible
811     due to the design of bacula.
812
813     Implementation of Backtics ( `command` ) for shell comand execution to
814     the "Label Format" Directive.
815
816 Why:
817
818     Currently I have defined BACULA_DAY_OF_WEEK="day1|day2..." resulting in
819     Label Format = "HolyBackup-${BACULA_DAY_OF_WEEK[${WeekDay}]}". If I could
820     use backticks than I could use "Label Format = HolyBackup-`date +%A` to have
821     the localized name for the day of the week appended to the
822     format string. Then I have the tape labeled automatically with weekday
823     name in the correct language.
824 ==========
825 -  Yes, that is surely the case. I probably should turn those into Warning
826    errors. In addition, you just made me think that it might not be bad to
827    add an option to check the file size after backing up the file and
828    report if it changes. This would be done as an option because it would
829    add extra overhead.
830  
831    Kern, good idea.  If you do do that, mention in the output: file 
832    shrunk, or file expanded, just to make it obvious to the user 
833    (without having to the refer to file size), just how the file size 
834    changed.
835  
836    Would this option be for all file, or just one file?  Or a fileset?
837 - Make output from status use html table tags for nicely 
838   presenting in a browser.
839 - Can one write tapes faster with 8192 byte block sizes?
840 - Document security problems with the same password for everyone in
841   rpm and Win32 releases.
842 - Browse generations of files.
843 - I've seen an error when my catalog's File table fills up.  I
844    then have to recreate the File table with a larger maximum row
845    size.  Relevant information is at
846    http://dev.mysql.com/doc/mysql/en/Full_table.html ; I think the
847    "Installing and Configuring MySQL" chapter should talk a bit
848    about this potential problem, and recommend a solution.
849 - For Solaris must use POSIX awk.
850 - Want speed of writing to tape while despooling.
851 - Supported autochanger:
852 OS: Linux
853 Man.: HP
854 Media: LTO-2
855 Model: SSL1016
856 Slots: 16
857 Cap: 200GB
858 - Supported drive:
859   Wangtek 6525ES (SCSI-1 QIC drive, 525MB), under Linux 2.4.something, 
860   bacula 1.36.0/1 works with blocksize 16k INSIDE bacula-sd.conf.
861 - Add regex from http://www.pcre.org to Bacula for Win32.
862 - Use only shell tools no make in CDROM package.
863 - Include within include does it work?
864 - Implement a Pool of type Cleaning?
865 - Implement VolReadTime and VolWriteTime in SD
866 - Modify Backing up Your Database to include a bootstrap file.
867 - Think about making certain database errors fatal.
868 - Look at correcting the time jump in the scheduler for daylight
869   savings time changes.
870 - Add a "real" timer to network connections.
871 - Promote to Full = Time period 
872 - Check dates entered by user for correctness (month/day/... ranges)
873 - Compress restore Volume listing by date and first file.
874 - Look at patches/bacula_db.b2z postgresql that loops during restore.
875   See Gregory Wright.
876 - Perhaps add read/write programs and/or plugins to FileSets.
877 - How to handle backing up portables ...
878 - Add some sort of guaranteed Interval for upgrading jobs.
879 - Can we write the state file after every job terminates? On Win32
880   the system crashes and the state file is not updated.
881 - Limit bandwidth
882
883 Documentation to do: (any release a little bit at a time)
884 - Doc to do unmount before removing magazine.
885 - Alternative to static linking "ldd prog" save all binaries listed,
886   restore them and point LD_LIBRARY_PATH to them.
887 - Document add "</dev/null >/dev/null 2>&1" to the bacula-fd command line
888 - Document query file format.
889 - Add more documentation for bsr files.
890 - Document problems with Verify and pruning.
891 - Document how to use multiple databases.
892 - VXA drives have a "cleaning required"
893   indicator, but Exabyte recommends preventive cleaning after every 75
894   hours of operation.
895   From Phil:
896     In this context, it should be noted that Exabyte has a command-line
897     vxatool utility available for free download. (The current version is
898     vxatool-3.72.) It can get diagnostic info, read, write and erase tapes,
899     test the drive, unload tapes, change drive settings, flash new firmware,
900     etc.
901     Of particular interest in this context is that vxatool <device> -i will
902     report, among other details, the time since last cleaning in tape motion
903     minutes. This information can be retrieved (and settings changed, for
904     that matter) through the generic-SCSI device even when Bacula has the
905     regular tape device locked. (Needless to say, I don't recommend
906     changing tape settings while a job is running.)
907 - Lookup HP cleaning recommendations.
908 - Lookup HP tape replacement recommendations (see trouble shooting autochanger)
909 - Document doing table repair
910
911
912 ===================================
913 - Add macro expansions in JobDefs.
914   Run Before Job = "SomeFile %{Level} %{Client}"
915   Write Bootstrap="/some/dir/%{JobName}_%{Client}.bsr"
916 - Use non-blocking network I/O but if no data is available, use
917   select().
918 - Use gather write() for network I/O.
919 - Autorestart on crash.
920 - Add bandwidth limiting.
921 - Add acks every once and a while from the SD to keep
922   the line from timing out.
923 - When an error in input occurs and conio beeps, you can back
924   up through the prompt.
925 - Detect fixed tape block mode during positioning by looking at
926   block numbers in btape "test".  Possibly adjust in Bacula.
927 - Fix list volumes to output volume retention in some other
928   units, perhaps via a directive.
929 - Allow Simultaneous Priorities = yes  => run up to Max concurrent jobs even
930   with multiple priorities.
931 - If you use restore replace=never, the directory attributes for
932   non-existent directories will not be restored properly.
933
934 - see lzma401.zip in others directory for new compression
935   algorithm/library.
936 - Allow the user to select JobType for manual pruning/purging.
937 - bscan does not put first of two volumes back with all info in
938   bscan-test.
939 - Implement the FreeBSD nodump flag in chflags.
940 - Figure out how to make named console messages go only to that
941   console and to the non-restricted console (new console class?).
942 - Make restricted console prompt for password if *ask* is set or
943   perhaps if password is undefined.
944 - Implement "from ISO-date/time every x hours/days/weeks/months" in
945   schedules.
946
947 ==== from Marc Schoechlin
948 - the help-command should be more verbose
949   (it should explain the paramters of the different 
950   commands in detail)
951   -> its time-comsuming to consult the manual anytime
952      you need a special parameter
953   -> maybe its more easy to maintain this, if the
954      descriptions of that commands are outsourced to
955      a ceratin-file
956 - the cd-command should allow complete paths
957   i.e. cd /foo/bar/foo/bar
958   -> if a customer mails me the path to a certain file,
959      its faster to enter the specified directory
960 - if the password is not configured in bconsole.conf
961   you should be asked for it.
962   -> sometimes you like to do restore on a customer-machine
963      which shouldnt know the password for bacula.
964   -> adding the password to the file favours admins
965      to forget to remove the password after usage
966   -> security-aspects
967      the protection of that file is less important
968 - long-listed-output of commands should be scrollable
969   like the unix more/less-command does
970   -> if someone runs 200 and more machines, the lists could
971      be a little long and complex
972 - command-output should be shown column by column
973   to reduce scrolling and to increase clarity
974   -> see last item
975 - lsmark should list the selected files with full
976   paths
977 - wildcards for selecting and file and directories would be nice
978 - any actions should be interuptable with STRG+C
979 - command-expansion would be pretty cool
980 ====
981 - When the replace Never option is set, new directory permissions
982   are not restored. See bug 213. To fix this requires creating a
983   list of newly restored directories so that those directory 
984   permissions *can* be restored.
985 - Add prune all command
986 - Document fact that purge can destroy a part of a restore by purging
987   one volume while others remain valid -- perhaps mark Jobs.
988 - Add multiple-media-types.txt
989 - look at mxt-changer.html
990 - Make ? do a help command (no return needed).
991 - Implement restore directory.
992 - Document streams and how to implement them.
993 - Try not to re-backup a file if a new hard link is added.
994 - Add feature to backup hard links only, but not the data.
995 - Fix stream handling to be simpler.
996 - Add Priority and Bootstrap to Run a Job.
997 - Eliminate Restore "Run Restore Job" prompt by allowing new "run command
998   to be issued"
999 - Remove View FileSet button from Run a Job dialog.
1000 - Handle prompt for restore job at end of Restore command.
1001 - Add display of total selected files to Restore window.
1002 - Add tree pane to left of window.
1003 - Add progress meter.
1004 - Max wait time or max run time causes seg fault -- see runtime-bug.txt
1005 - Add message to user to check for fixed block size when the forward
1006   space test fails in btape.
1007 - When unmarking a directory check if all files below are unmarked and
1008   then remove the + flag -- in the restore tree.
1009 - Possibly implement: Action = Unmount Device="TapeDrive1" in Admin jobs.
1010 - Setup lrrd graphs: (http://www.linpro.no/projects/lrrd/) Mike Acar.
1011 - Revisit the question of multiple Volumes (disk) on a single device.
1012 - Add a block copy option to bcopy.
1013 - Finish work on Gnome restore GUI.
1014 - Fix "llist jobid=xx" where no fileset or client exists.
1015 - For each job type (Admin, Restore, ...) require only the really necessary
1016   fields.- Pass Director resource name as an option to the Console.
1017 - Add a "batch" mode to the Console (no unsolicited queries, ...).
1018 - Add a .list all files in the restore tree (probably also a list all files)
1019   Do both a long and short form.
1020 - Allow browsing the catalog to see all versions of a file (with 
1021   stat data on each file).
1022 - Restore attributes of directory if replace=never set but directory
1023   did not exist.
1024 - Use SHA1 on authentication if possible.
1025 - See comtest-xxx.zip for Windows code to talk to USB.
1026 - Add John's appended files:
1027    Appended = {     /files/server/logs/http/*log   }
1028    and such files would be treated as follows.On a FULL backup, they would
1029    be backed up like any other file.On an INCREMENTAL backup, where a
1030    previous INCREMENTAL or FULL was already in thecatalogue and the length
1031    of the file wasgreater than the length of the last backup, only thedata
1032    added since the last backup will be dumped.On an INCREMENTAL backup, if
1033    the length of the file is less than thelength of the file with the same
1034    name last backed up, the completefile is dumped.On Windows systems, with
1035    creation date of files, we can be evensmarter about this and not count
1036    entirely upon the length.On a restore, the full and all incrementals
1037    since it will beapplied in sequence to restore the file.  
1038 - Check new HAVE_WIN32 open bits.    
1039 - Check if the tape has moved before writing.  
1040 - Handling removable disks -- see below:
1041 - Keep track of tape use time, and report when cleaning is necessary.
1042 - Add FromClient and ToClient keywords on restore command (or
1043   BackupClient RestoreClient).
1044 - Implement a JobSet, which groups any number of jobs. If the
1045   JobSet is started, all the jobs are started together.
1046   Allow Pool, Level, and Schedule overrides.
1047 - Enhance cancel to timeout BSOCK packets after a specific delay.
1048 - Do scheduling by UTC using gmtime_r() in run_conf, scheduler, and   
1049   ua_status.!!! Thanks to Alan Brown for this tip.
1050 - Look at updating Volume Jobs so that Max Volume Jobs = 1 will work
1051   correctly for multiple simultaneous jobs.
1052 - Correct code so that FileSet MD5 is calculated for < and | filename   
1053   generation.
1054 - Implement the Media record flag that indicates that the Volume does disk 
1055   addressing.
1056 - Implement VolAddr, which is used when Volume is addressed like a disk,
1057   and form it from VolFile and VolBlock.
1058 - Make multiple restore jobs for multiple media types specifying 
1059   the proper storage type.
1060 - Fix fast block rejection (stored/read_record.c:118). It passes a null
1061   pointer (rec) to try_repositioning().
1062 - Look at extracting Win data from BackupRead.
1063 - Implement RestoreJobRetention? Maybe better "JobRetention" in a Job,
1064   which would take precidence over the Catalog "JobRetention".
1065 - Implement Label Format in Add and Label console commands.
1066 - Possibly up network buffers to 65K. Put on variable.
1067 - Put email tape request delays on one or more variables. User wants
1068   to cancel the job after a certain time interval.  Maximum Mount Wait?
1069 - Job, Client, Device, Pool, or Volume?
1070   Is it possible to make this a directive which is *optional* in multiple
1071   resources, like Level? If so, I think I'd make it an optional directive
1072   in Job, Client, and Pool, with precedence such that Job overrides Client
1073   which in turn overrides Pool.
1074
1075 - New Storage specifications:
1076   - Want to write to multiple storage devices simultaneously
1077   - Want to write to multiple storage devices sequentially (in one job)
1078   - Want to read/write simultaneously
1079   - Key is MediaType -- it must match
1080
1081   Passed to SD as a sort of BSR record called Storage Specification
1082     Record or SSR.
1083     SSR                    
1084       Next -> Next SSR
1085       MediaType -> Next MediaType
1086       Pool -> Next Pool
1087       Device -> Next Device
1088   Job Resource
1089      Allow multiple Storage specifications
1090      New flags
1091         One Archive = yes
1092         One Device = yes
1093         One Storage = yes
1094         One MediaType = yes
1095         One Pool = yes
1096   Storage
1097      Allow Multiple Pool specifications (note, Pool currently
1098        in Job resource).
1099      Allow Multiple MediaType specifications in Dir conf
1100      Allow Multiple Device specifications in Dir conf
1101      Perhaps keep this in a single SSR
1102   Tie a Volume to a specific device by using a MediaType that 
1103     is contained in only one device.
1104   In SD allow Device to have Multiple MediaTypes
1105
1106 - Ideas from Jerry Scharf:
1107   First let's point out some big pluses that bacula has for this
1108         it's open source
1109         more importantly it's active. Thank you so much for that
1110         even more important, it's not flaky
1111         it has an open access catalog, opening many possibilities
1112         it's pushing toward heterogeneous systems capability
1113   big things:
1114    Macintosh file client
1115         macs are an interesting niche, but I fear a server is a rathole
1116    working bare iron recovery for windows
1117    the option for  inc/diff backups not reset on fileset revision
1118         a) use both change and inode update time against base time
1119         b) do the full catalog check (expensive but accurate)
1120    sizing guide (how much system is needed to back up N systems/files)
1121    consultants on using bacula in building a disaster recovery system
1122    an integration guide
1123         or how to get at fancy things that one could do with bacula
1124    logwatch code for bacula logs (or similar)
1125    linux distro inclusion of bacula (brings good and bad, but necessary)
1126    win2k/XP server capability (icky but you asked)
1127    support for Oracle database ??
1128 ===
1129 - Look at adding SQL server and Exchange support for Windows. 
1130 - Make dev->file and dev->block_num signed integers so that -1 can
1131   be an invalid value which happens with BSR.
1132 - Create VolAddr for disk files in place of VolFile and VolBlock. This
1133   is needed to properly specify ranges.
1134 - Add progress of files/bytes to SD and FD.
1135 - Print warning message if FileId > 4 billion
1136 - do a "messages" before the first prompt in Console
1137 - Client does not show busy during Estimate command.
1138 - Implement Console mtx commands.
1139 - Implement a Mount Command and an Unmount Command where
1140   the users could specify a system command to be performed
1141   to do the mount, after which Bacula could attempt to
1142   read the device. This is for Removeable media such as a CDROM.
1143   - Most likely, this mount command would be invoked explicitly
1144   by the user using the current Console "mount" and "unmount" 
1145   commands -- the Storage Daemon would do the right thing 
1146   depending on the exact nature of the device.
1147   - As with tape drives, when Bacula wanted a new removable
1148   disk mounted, it would unmount the old one, and send a message
1149   to the user, who would then use "mount" as described above 
1150   once he had actually inserted the disk.
1151 - Implement dump/print label to UA
1152 - Spool to disk only when the tape is full, then when a tape is hung move
1153   it to tape.
1154 - bextract is sending everything to the log file ****FIXME****
1155 - Allow multiple Storage specifications (or multiple names on
1156   a single Storage specification) in the Job record. Thus a job 
1157   can be backed up to a number of storage devices.
1158 - Implement some way for the File daemon to contact the Director 
1159   to start a job or pass its DHCP obtained IP number.
1160 - Implement a query tape prompt/replace feature for a console
1161 - Copy console @ code to gnome2-console
1162 - Make tree walk routines like cd, ls, ... more user friendly
1163   by handling spaces better.
1164 - Make sure that Bacula rechecks the tape after the 20 min wait.
1165 - Set IO_NOWAIT on Bacula TCP/IP packets.
1166 - Try doing a raw partition backup and restore by mounting a
1167   Windows partition.
1168 - From Lars Kellers:
1169     Yes, it would allow to highly automatic the request for new tapes. If a 
1170     tape is empty, bacula reads the barcodes (native or simulated), and if 
1171     an unused tape is found, it runs the label command with all the 
1172     necessary parameters.
1173
1174     By the way can bacula automatically "move" an empty/purged volume say 
1175     in the "short" pool to the "long" pool if this pool runs out of volume 
1176     space?
1177 - What to do about "list files job=xxx".
1178 - Look at how fuser works and /proc/PID/fd that is how Nic found the
1179   file descriptor leak in Bacula.
1180 - Implement WrapCounters in Counters.
1181 - Add heartbeat from FD to SD if hb interval expires.
1182 - Can we dynamically change FileSets?
1183 - If pool specified to label command and Label Format is specified,
1184   automatically generate the Volume name.
1185 - Why can't SQL do the filename sort for restore?
1186 - Add ExhautiveRestoreSearch
1187 - Look at the possibility of loading only the necessary 
1188   data into the restore tree (i.e. do it one directory at a
1189   time as the user walks through the tree).
1190 - Possibly use the hash code if the user selects all for a restore command.
1191 - Fix "restore all" to bypass building the tree.
1192 - Prohibit backing up archive device (findlib/find_one.c:128)
1193 - Implement Release Device in the Job resource to unmount a drive.
1194 - Implement Acquire Device in the Job resource to mount a drive,
1195   be sure this works with admin jobs so that the user can get
1196   prompted to insert the correct tape.  Possibly some way to say to
1197   run the job but don't save the files.
1198 - Make things like list where a file is saved case independent for
1199   Windows.
1200 - Use autochanger to handle multiple devices.
1201 - Implement a Recycle command
1202 - Start working on Base jobs.
1203 - Implement UnsavedFiles DB record.
1204 - From Phil Stracchino:
1205   It would probably be a per-client option, and would be called
1206   something like, say, "Automatically purge obsoleted jobs".  What it
1207   would do is, when you successfully complete a Differential backup of a
1208   client, it would automatically purge all Incremental backups for that
1209   client that are rendered redundant by that Differential.  Likewise,
1210   when a Full backup on a client completed, it would automatically purge
1211   all Differential and Incremental jobs obsoleted by that Full backup.
1212   This would let people minimize the number of tapes they're keeping on
1213   hand without having to master the art of retention times.
1214 - When doing a Backup send all attributes back to the Director, who
1215   would then figure out what files have been deleted.
1216 - Currently in mount.c:236 the SD simply creates a Volume. It should have
1217   explicit permission to do so.  It should also mark the tape in error
1218   if there is an error.
1219 - Cancel waiting for Client connect in SD if FD goes away.
1220
1221 - Implement timeout in response() when it should come quickly.
1222 - Implement a Slot priority (loaded/not loaded).
1223 - Implement "vacation" Incremental only saves.
1224 - Implement create "FileSet"?
1225 - Add prefixlinks to where or not where absolute links to FD.
1226 - Issue message to mount a new tape before the rewind.
1227 - Simplified client job initiation for portables.
1228 - If SD cannot open a drive, make it periodically retry.
1229 - Add more of the config info to the tape label.
1230
1231 - Refine SD waiting output:
1232     Device is being positioned
1233     >     Device is being positioned for append
1234     >     Device is being positioned to file x
1235     > 
1236 - Figure out some way to estimate output size and to avoid splitting
1237   a backup across two Volumes -- this could be useful for writing CDROMs
1238   where you really prefer not to have it split -- not serious.
1239 - Have SD compute MD5 or SHA1 and compare to what FD computes.
1240 - Make VolumeToCatalog calculate an MD5 or SHA1 from the 
1241   actual data on the Volume and compare it.                  
1242 - Implement Bacula plugins -- design API
1243 - Make bcopy read through bad tape records.
1244 - Program files (i.e. execute a program to read/write files).
1245   Pass read date of last backup, size of file last time.
1246 - Add Signature type to File DB record.
1247 - CD into subdirectory when open()ing files for backup to
1248   speed up things.  Test with testfind().
1249 - Priority job to go to top of list.
1250 - Why are save/restore of device different sizes (sparse?)   Yup! Fix it.
1251 - Implement some way for the Console to dynamically create a job.
1252 - Solaris -I on tar for include list
1253 - Need a verbose mode in restore, perhaps to bsr.
1254 - bscan without -v is too quiet -- perhaps show jobs.
1255 - Add code to reject whole blocks if not wanted on restore.
1256 - Check if we can increase Bacula FD priorty in Win2000
1257 - Make sure the MaxVolFiles is fully implemented in SD
1258 - Check if both CatalogFiles and UseCatalog are set to SD.
1259 - Possibly add email to Watchdog if drive is unmounted too
1260   long and a job is waiting on the drive.
1261 - After unmount, if restore job started, ask to mount.
1262 - Add UA rc and history files.
1263 - put termcap (used by console) in ./configure and
1264   allow -with-termcap-dir.
1265 - Fix Autoprune for Volumes to respect need for full save.
1266 - Compare tape to Client files (attributes, or attributes and data) 
1267 - Make all database Ids 64 bit.
1268 - Allow console commands to detach or run in background.
1269 - Add SD message variables to control operator wait time
1270   - Maximum Operator Wait
1271   - Minimum Message Interval
1272   - Maximum Message Interval
1273 - Send Operator message when cannot read tape label.
1274 - Verify level=Volume (scan only), level=Data (compare of data to file).
1275   Verify level=Catalog, level=InitCatalog
1276 - Events file
1277 - Add keyword search to show command in Console.
1278 - Events : tape has more than xxx bytes.
1279 - Complete code in Bacula Resources -- this will permit
1280   reading a new config file at any time.
1281 - Handle ctl-c in Console
1282 - Implement script driven addition of File daemon to config files.
1283 - Think about how to make Bacula work better with File (non-tape) archives.
1284 - Write Unix emulator for Windows.
1285 - Put memory utilization in Status output of each daemon
1286   if full status requested or if some level of debug on.
1287 - Make database type selectable by .conf files i.e. at runtime
1288 - Set flag for uname -a.  Add to Volume label.
1289 - Restore files modified after date
1290 - SET LD_RUN_PATH=$HOME/mysql/lib/mysql
1291 - Remove duplicate fields from jcr (e.g. jcr.level and jcr.jr.Level, ...).
1292 - Timout a job or terminate if link goes down, or reopen link and query.
1293 - Concept of precious tapes (cannot be reused).
1294 - Make bcopy copy with a single tape drive.
1295 - Permit changing ownership during restore.
1296
1297 - From Phil:
1298   > My suggestion:  Add a feature on the systray menu-icon menu to request
1299   > an immediate backup now.  This would be useful for laptop users who may
1300   > not be on the network when the regular scheduled backup is run.
1301   > 
1302   > My wife's suggestion: Add a setting to the win32 client to allow it to
1303   > shut down the machine after backup is complete (after, of course,
1304   > displaying a "System will shut down in one minute, click here to cancel"
1305   > warning dialog).  This would be useful for sites that want user
1306   > woorkstations to be shut down overnight to save power.
1307   > 
1308
1309 - Autolabel should be specified by DIR instead of SD.
1310 - Storage daemon    
1311   - Add media capacity
1312   - AutoScan (check checksum of tape)
1313   - Format command = "format /dev/nst0"
1314   - MaxRewindTime
1315   - MinRewindTime
1316   - MaxBufferSize
1317   - Seek resolution (usually corresponds to buffer size)
1318   - EODErrorCode=ENOSPC or code
1319   - Partial Read error code
1320   - Partial write error code
1321   - Nonformatted read error
1322   - Nonformatted write error
1323   - WriteProtected error
1324   - IOTimeout
1325   - OpenRetries
1326   - OpenTimeout
1327   - IgnoreCloseErrors=yes
1328   - Tape=yes
1329   - NoRewind=yes
1330 - Pool
1331   - Maxwrites
1332   - Recycle period
1333 - Job
1334   - MaxWarnings
1335   - MaxErrors (job?)
1336 =====
1337 - FD sends unsaved file list to Director at end of job (see
1338   RFC below).
1339 - File daemon should build list of files skipped, and then
1340   at end of save retry and report any errors.
1341 - Write a Storage daemon that uses pipes and
1342   standard Unix programs to write to the tape.
1343   See afbackup.
1344 - Need something that monitors the JCR queue and
1345   times out jobs by asking the deamons where they are.
1346 - Enhance Jmsg code to permit buffering and saving to disk.
1347 - device driver = "xxxx" for drives.
1348 - Verify from Volume
1349 - Ensure that /dev/null works
1350 - Need report class for messages. Perhaps
1351   report resource where report=group of messages
1352 - enhance scan_attrib and rename scan_jobtype, and
1353   fill in code for "since" option 
1354 - Director needs a time after which the report status is sent
1355   anyway -- or better yet, a retry time for the job.
1356 - Don't reschedule a job if previous incarnation is still running.
1357 - Some way to automatically backup everything is needed????
1358 - Need a structure for pending actions:
1359   - buffered messages
1360   - termination status (part of buffered msgs?)
1361 - Drive management
1362   Read, Write, Clean, Delete
1363 - Login to Bacula; Bacula users with different permissions:
1364    owner, group, user, quotas
1365 - Store info on each file system type (probably in the job header on tape.
1366   This could be the output of df; or perhaps some sort of /etc/mtab record.
1367
1368 ========= ideas ===============
1369 From: "Jerry K. Schieffer" <jerry@skylinetechnology.com>
1370 To: <kern@sibbald.com>
1371 Subject: RE: [Bacula-users] future large programming jobs
1372 Date: Thu, 26 Feb 2004 11:34:54 -0600
1373
1374 I noticed the subject thread and thought I would offer the following
1375 merely as sources of ideas, i.e. something to think about, not even as
1376 strong as a request.  In my former life (before retiring) I often
1377 dealt with backups and storage management issues/products as a
1378 developer and as a consultant.  I am currently migrating my personal
1379 network from amanda to bacula specifically because of the ability to
1380 cross media boundaries during storing backups.
1381 Are you familiar with the commercial product called ADSM (I think IBM
1382 now sells it under the Tivoli label)?  It has a couple of interesting
1383 ideas that may apply to the following topics.
1384
1385 1. Migration:  Consider that when you need to restore a system, there
1386 may be pressure to hurry.  If all the information for a single client
1387 can eventually end up on the same media (and in chronological order),
1388 the restore is facillitated by not having to search past information
1389 from other clients.  ADSM has the concept of "client affinity" that
1390 may be associated with it's storage pools.  It seems to me that this
1391 concept (as an optional feature) might fit in your architecture for
1392 migration.
1393
1394 ADSM also has the concept of defining one or more storage pools as
1395 "copy pools" (almost mirrors, but only in the sense of contents).
1396 These pools provide the ability to have duplicte data stored both
1397 onsite and offsite.  The copy process can be scheduled to be handled
1398 by their storage manager during periods when there is no backup
1399 activity.  Again, the migration process might be a place to consider
1400 implementing something like this.
1401
1402 >
1403 > It strikes me that it would be very nice to be able to do things
1404 like
1405 > have the Job(s) backing up the machines run, and once they have all
1406 > completed, start a migration job to copy the data from disks Volumes
1407 to
1408 > a tape library and then to offsite storage. Maybe this can already
1409 be
1410 > done with some careful scheduling and Job prioritzation; the events
1411 > mechanism described below would probably make it very easy.
1412
1413 This is the goal. In the first step (before events), you simply
1414 schedule
1415 the Migration to tape later.
1416
1417 2. Base jobs:  In ADSM, each copy of each stored file is tracked in
1418 the database.  Once a file (unique by path and metadata such as dates,
1419 size, ownership, etc.) is in a copy pool, no more copies are made.  In
1420 other words, when you start ADSM, it begins like your concept of a
1421 base job.  After that it is in the "incremental" mode.  You can
1422 configure the number of "generations" of files to be retained, plus a
1423 retention date after which even old generations are purged.  The
1424 database tracks the contents of media and projects the percentage of
1425 each volume that is valid.  When the valid content of a volume drops
1426 below a configured percentage, the valid data are migrated to another
1427 volume and the old volume is marked as empty.  Note, this requires
1428 ADSM to have an idea of the contents of a client, i.e. marking the
1429 database when an existing file was deleted, but this would solve your
1430 issue of restoring a client without restoring deleted files.
1431
1432 This is pretty far from what bacula now does, but if you are going to
1433 rip things up for Base jobs,.....
1434 Also, the benefits of this are huge for very large shops, especially
1435 with media robots, but are a pain for shops with manual media
1436 mounting.
1437
1438 >
1439 > Base jobs sound pretty useful, but I'm not dying for them.
1440
1441 Nobody is dying for them, but when you see what it does, you will die
1442 without it.
1443
1444 3. Restoring deleted files:  Since I think my comments in (2) above
1445 have low probability of implementation, I'll also suggest that you
1446 could approach the issue of deleted files by a mechanism of having the
1447 fd report to the dir, a list of all files on the client for every
1448 backup job.  The dir could note in the database entry for each file
1449 the date that the file was seen.  Then if a restore as of date X takes
1450 place, only files that exist from before X until after X would be
1451 restored.  Probably the major cost here is the extra date container in
1452 each row of the files table.
1453
1454 Thanks for "listening".  I hope some of this helps.  If you want to
1455 contact me, please send me an email - I read some but not all of the
1456 mailing list traffic and might miss a reply there.
1457
1458 Please accept my compliments for bacula.  It is doing a great job for
1459 me!!  I sympathize with you in the need to wrestle with excelence in
1460 execution vs. excelence in feature inclusion.
1461
1462 Regards,
1463 Jerry Schieffer
1464
1465 ==============================
1466
1467 Longer term to do:
1468 - Design at hierarchial storage for Bacula. Migration and Clone. 
1469 - Implement FSM (File System Modules).
1470 - Audit M_ error codes to ensure they are correct and consistent.
1471 - Add variable break characters to lex analyzer.
1472   Either a bit mask or a string of chars so that
1473   the caller can change the break characters.
1474 - Make a single T_BREAK to replace T_COMMA, etc.
1475 - Ensure that File daemon and Storage daemon can
1476   continue a save if the Director goes down (this
1477   is NOT currently the case). Must detect socket error,
1478   buffer messages for later. 
1479 - Enhance time/duration input to allow multiple qualifiers e.g. 3d2h
1480 - Add ability to backup to two Storage devices (two SD sessions) at
1481   the same time -- e.g. onsite, offsite.
1482 - Add the ability to consolidate old backup sets (basically do a restore
1483   to tape and appropriately update the catalog). Compress Volume sets.
1484   Might need to spool via file is only one drive is available.
1485 - Compress or consolidate Volumes of old possibly deleted files. Perhaps
1486   someway to do so with every volume that has less than x% valid 
1487   files.
1488
1489
1490 Migration: Move a backup from one Volume to another
1491 Clone:     Copy a backup -- two Volumes
1492
1493
1494 ======================================================
1495         Base Jobs design
1496 It is somewhat like a Full save becomes an incremental since
1497 the Base job (or jobs) plus other non-base files.
1498 Need:
1499 - A Base backup is same as Full backup, just different type.
1500 - New BaseFiles table that contains:
1501     BaseId - index
1502     BaseJobId - Base JobId referenced for this FileId (needed ???)
1503     JobId - JobId currently running
1504     FileId - File not backed up, exists in Base Job
1505     FileIndex - FileIndex from Base Job.
1506   i.e. for each base file that exists but is not saved because
1507   it has not changed, the File daemon sends the JobId, BaseId,
1508   FileId, FileIndex back to the Director who creates the DB entry.
1509 - To initiate a Base save, the Director sends the FD 
1510   the FileId, and full filename for each file in the Base.
1511 - When the FD finds a Base file, he requests the Director to
1512   send him the full File entry (stat packet plus MD5), or
1513   conversely, the FD sends it to the Director and the Director
1514   says yes or no. This can be quite rapid if the FileId is kept
1515   by the FD for each Base Filename.          
1516 - It is probably better to have the comparison done by the FD
1517   despite the fact that the File entry must be sent across the
1518   network.
1519 - An alternative would be to send the FD the whole File entry
1520   from the start. The disadvantage is that it requires a lot of
1521   space. The advantage is that it requires less communications
1522   during the save.
1523 - The Job record must be updated to indicate that one or more
1524   Bases were used.
1525 - At end of Job, FD returns:   
1526    1. Count of base files/bytes not written to tape (i.e. matches)
1527    2. Count of base file that were saved i.e. had changed.
1528 - No tape record would be written for a Base file that matches, in the
1529   same way that no tape record is written for Incremental jobs where
1530   the file is not saved because it is unchanged.
1531 - On a restore, all the Base file records must explicitly be
1532   found from the BaseFile tape. I.e. for each Full save that is marked
1533   to have one or more Base Jobs, search the BaseFile for all occurrences
1534   of JobId.
1535 - An optimization might be to make the BaseFile have:
1536      JobId
1537      BaseId
1538      FileId
1539   plus
1540      FileIndex
1541   This would avoid the need to explicitly fetch each File record for
1542   the Base job.  The Base Job record will be fetched to get the
1543   VolSessionId and VolSessionTime.
1544 =========================================================  
1545
1546
1547 ========================================================== 
1548     Unsaved File design
1549 For each Incremental job that is run, there may be files that
1550 were found but not saved because they were locked (this applies
1551 only to Windows). Such a system could send back to the Director
1552 a list of Unsaved files.
1553 Need:
1554 - New UnSavedFiles table that contains:
1555   JobId
1556   PathId
1557   FilenameId
1558 - Then in the next Incremental job, the list of Unsaved Files will be
1559   feed to the FD, who will ensure that they are explicitly chosen even
1560   if standard date/time check would not have selected them.
1561 =============================================================
1562
1563
1564 =====
1565    Multiple drive autochanger data:  see Alan Brown
1566    mtx -f xxx unloadStorage Element 1 is Already Full(drive 0 was empty)
1567    Unloading Data Transfer Element into Storage Element 1...source Element 
1568    Address 480 is Empty
1569
1570    (drive 0 was empty and so was slot 1)
1571    >   mtx -f xxx load 15 0
1572    no response, just returns to the command prompt when complete.
1573    >   mtx -f xxx status  Storage Changer /dev/changer:2 Drives, 60 Slots ( 2 Import/Export )
1574    Data Transfer Element 0:Full (Storage Element 15 Loaded):VolumeTag = HX001
1575    Data Transfer Element 1:Empty
1576          Storage Element 1:Empty
1577          Storage Element 2:Full :VolumeTag=HX002
1578          Storage Element 3:Full :VolumeTag=HX003
1579          Storage Element 4:Full :VolumeTag=HX004
1580          Storage Element 5:Full :VolumeTag=HX005
1581          Storage Element 6:Full :VolumeTag=HX006
1582          Storage Element 7:Full :VolumeTag=HX007
1583          Storage Element 8:Full :VolumeTag=HX008
1584          Storage Element 9:Full :VolumeTag=HX009
1585          Storage Element 10:Full :VolumeTag=HX010
1586          Storage Element 11:Empty
1587          Storage Element 12:Empty
1588          Storage Element 13:Empty
1589          Storage Element 14:Empty
1590          Storage Element 15:Empty
1591          Storage Element 16:Empty....
1592          Storage Element 28:Empty
1593          Storage Element 29:Full :VolumeTag=CLNU01L1
1594          Storage Element 30:Empty....
1595          Storage Element 57:Empty
1596          Storage Element 58:Full :VolumeTag=NEX261L2
1597          Storage Element 59 IMPORT/EXPORT:Empty
1598          Storage Element 60 IMPORT/EXPORT:Empty
1599    $  mtx -f xxx unload
1600    Unloading Data Transfer Element into Storage Element 15...done
1601
1602    (just to verify it remembers where it came from, however it can be
1603     overrriden with mtx unload {slotnumber} to go to any storage slot.)
1604    Configuration wise:
1605    There needs to be a table of drive # to devices somewhere - If there are
1606    multiple changers or drives there may not be a 1:1 correspondance between
1607    changer drive number and system device name - and depending on the way the
1608    drives are hooked up to scsi busses, they may not be linearly numbered
1609    from an offset point either.something like 
1610
1611    Autochanger drives = 2
1612    Autochanger drive 0 = /dev/nst1
1613    Autochanger drive 1 = /dev/nst2
1614    IMHO, it would be _safest_ to use explicit mtx unload commands at all
1615    times, not just for multidrive changers. For a 1 drive changer, that's
1616    just:
1617
1618    mtx load xx 0
1619    mtx unload xx 0
1620
1621    MTX's manpage (1.2.15):
1622          unload [<slotnum>] [ <drivenum> ]
1623                     Unloads media from drive  <drivenum>  into  slot
1624                     <slotnum>. If <drivenum> is omitted, defaults to
1625                     drive 0 (as do all commands).  If  <slotnum>  is
1626                     omitted, defaults to the slot that the drive was
1627                     loaded from. Note that there's currently no  way
1628                     to  say  'unload  drive 1's media to the slot it
1629                     came from', other than to  explicitly  use  that
1630                     slot number as the destination.AB
1631 ====
1632
1633 ====
1634 SCSI info:
1635 FreeBSD
1636 undef# camcontrol devlist
1637 <WANGTEK 51000  SCSI M74H 12B3>    at scbus0 target 2 lun 0 (pass0,sa0)
1638 <ARCHIVE 4586XX 28887-XXX 4BGD>    at scbus0 target 4 lun 0 (pass1,sa1)
1639 <ARCHIVE 4586XX 28887-XXX 4BGD>    at scbus0 target 4 lun 1 (pass2)
1640
1641 tapeinfo -f /dev/sg0 with a bad tape in drive 1:
1642 [kern@rufus mtx-1.2.17kes]$ ./tapeinfo -f /dev/sg0
1643 Product Type: Tape Drive
1644 Vendor ID: 'HP      '
1645 Product ID: 'C5713A          '
1646 Revision: 'H107'
1647 Attached Changer: No
1648 TapeAlert[3]:   Hard Error: Uncorrectable read/write error.
1649 TapeAlert[20]:    Clean Now: The tape drive neads cleaning NOW.
1650 MinBlock:1
1651 MaxBlock:16777215
1652 SCSI ID: 5
1653 SCSI LUN: 0
1654 Ready: yes
1655 BufferedMode: yes
1656 Medium Type: Not Loaded
1657 Density Code: 0x26
1658 BlockSize: 0
1659 DataCompEnabled: yes
1660 DataCompCapable: yes
1661 DataDeCompEnabled: yes
1662 CompType: 0x20
1663 DeCompType: 0x0
1664 Block Position: 0
1665 =====
1666
1667 ====
1668    Handling removable disks
1669
1670    From: Karl Cunningham <karlc@keckec.com>
1671
1672    My backups are only to hard disk these days, in removable bays. This is my
1673    idea of how a backup to hard disk would work more smoothly. Some of these
1674    things Bacula does already, but I mention them for completeness. If others
1675    have better ways to do this, I'd like to hear about it.
1676
1677    1. Accommodate several disks, rotated similar to how tapes are.  Identified
1678    by partition volume ID or perhaps by the name of a subdirectory.
1679    2. Abort & notify the admin if the wrong disk is in the bay.
1680    3. Write backups to different subdirectories for each machine to be backed
1681    up.
1682    4. Volumes (files) get created as needed in the proper subdirectory, one
1683    for each backup.
1684    5. When a disk is recycled, remove or zero all old backup files. This is
1685    important as the disk being recycled may be close to full. This may be
1686    better done manually since the backup files for many machines may be
1687    scattered in many subdirectories.
1688 ====
1689
1690
1691 === Done
1692 - Why the heck doesn't bacula drop root priviledges before connecting to
1693   the DB?
1694 - Look at using posix_fadvise(2) for backups -- see bug #751.
1695   Possibly add the code at findlib/bfile.c:795
1696 /* TCP socket options */
1697 #define TCP_KEEPIDLE            4       /* Start keeplives after this period */
1698 - Fix bnet_connect() code to set a timer and to use time to
1699   measure the time.
1700 - Implement 4th argument to make_catalog_backup that passes hostname.
1701 - Test FIFO backup/restore -- make regression
1702 - Please mount volume "xxx" on Storage device ... should also list
1703   Pool and MediaType in case user needs to create a new volume.
1704 - On restore add Restore Client, Original Client.
1705 01-Apr 00:42 rufus-dir: Start Backup JobId 55, Job=kernsave.2007-04-01_00.42.48
1706 01-Apr 00:42 rufus-sd: Python SD JobStart: JobId=55 Client=Rufus
1707 01-Apr 00:42 rufus-dir: Created new Volume "Full0001" in catalog.
1708 01-Apr 00:42 rufus-dir: Using Device "File"
1709 01-Apr 00:42 rufus-sd: kernsave.2007-04-01_00.42.48 Warning: Device "File" (/tmp) not configured to autolabel Volumes.
1710 01-Apr 00:42 rufus-sd: kernsave.2007-04-01_00.42.48 Warning: Device "File" (/tmp) not configured to autolabel Volumes.
1711 01-Apr 00:42 rufus-sd: Please mount Volume "Full0001" on Storage Device "File" (/tmp) for Job kernsave.2007-04-01_00.42.48
1712 01-Apr 00:44 rufus-sd: Wrote label to prelabeled Volume "Full0001" on device "File" (/tmp)
1713 - Check if gnome-console works with TLS.
1714 - the director seg faulted when I omitted the pool directive from a 
1715   job resource.  I was experimenting and thought it redundant that I had 
1716   specified Pool, Full Backup Pool. and Differential Backup Pool. but 
1717   apparently not.  This  happened when I removed the pool directive and 
1718   started the director.