]> git.sur5r.net Git - bacula/bacula/blob - bacula/kernstodo
kes Fix handling of JobMedia records during spooling and when a
[bacula/bacula] / bacula / kernstodo
1                     Kern's ToDo List
2                     06 March 2008
3
4
5 Document:
6 - !!! Cannot restore two jobs a the same time that were
7   written simultaneously unless they were totally spooled.
8 - Document cleaning up the spool files:
9   db, pid, state, bsr, mail, conmsg, spool
10 - Document the multiple-drive-changer.txt script.
11 - Pruning with Admin job.
12 - Does WildFile match against full name?  Doc.
13 - %d and %v only valid on Director, not for ClientRunBefore/After.
14 - During tests with the 260 char fix code, I found one problem:
15   if the system "sees" a long path once, it seems to forget it's
16   working drive (e.g.  c:\), which will lead to a problem during
17   the next job (create bootstrap file will fail).  Here is the
18   workaround: specify absolute working and pid directory in
19   bacula-fd.conf (e.g.  c:\bacula\working instead of
20   \bacula\working).
21 - Document techniques for restoring large numbers of files.
22 - Document setting my.cnf to big file usage.
23 - Add example of proper index output to doc. show index from File;
24 - Correct the Include syntax in the m4.xxx files in examples/conf
25 - Document JobStatus and Termination codes.
26 - Fix the error with the "DVI file can't be opened" while
27   building the French PDF.
28 - Document more DVD stuff
29 - Doc
30    { "JobErrors",  "i"},
31    { "JobFiles",   "i"},
32    { "SDJobFiles", "i"},
33    { "SDErrors",   "i"},
34    { "FDJobStatus","s"},
35    { "SDJobStatus","s"},
36 - Document all the little details of setting up certificates for
37   the Bacula data encryption code.
38 - Document more precisely how to use master keys -- especially
39   for disaster recovery.
40  
41 Professional Needs:
42 - Migration from other vendors
43   - Date change
44   - Path change
45 - Filesystem types
46 - Backup conf/exe (all daemons) 
47 - Backup up system state
48 - Detect state change of system (verify)
49 - Synthetic Full, Diff, Inc (Virtual, Reconstructed)
50 - SD to SD
51 - Modules for Databases, Exchange, ...
52 - Novell NSS backup http://www.novell.com/coolsolutions/tools/18952.html
53 - Compliance norms that compare restored code hash code.
54 - When glibc crash, get address with
55     info symbol 0x809780c
56 - How to sync remote offices.
57 - Exchange backup:
58   http://www.microsoft.com/technet/itshowcase/content/exchbkup.mspx
59 - David's priorities
60    Copypools
61    Extract capability (#25)
62    Continued enhancement of bweb
63    Threshold triggered migration jobs (not currently in list, but will be
64     needed ASAP)
65    Client triggered backups
66    Complete rework of the scheduling system (not in list)
67    Performance and usage instrumentation (not in list)
68    See email of 21Aug2007 for details.
69 - Look at: http://tech.groups.yahoo.com/group/cfg2html
70    and http://www.openeyet.nl/scc/ for managing customer changes
71
72 Priority:
73 > There's definitely something fishy in the recording of start and
74 > end blocks in the JOBMEDIA table.  This is a snip from last night's
75 > incremental run (still using 2.2.8 plus the four published patches, plus
76 > my posted fix for the jobmedia patch):
77 >
78 >  JmId | JID | MId | FI | LI | Sfile | Efile | Sblock | Eblock
79 >- 119 |   26 |   3 |  1 |  53 |   31 |    31 |      0 |    32 
80    120 |   27 |   3 |  1 |  83 |   31 |    31 |      0 |    242
81    121 |   28 |   3 |  1 | 239 |   31 |    31 |      0 |   5683
82 >
83 > Since I'm using spooling, those jobs should not be interspersed on
84 > tape.  Still, at least it seems the error is in including too many
85 > blocks in the set that a job's files occupies, so if I understand
86 > correctly, it shouldn't cause any restore problems.  :)
87
88 - Re-check new dcr->reserved_volume
89 - Softlinks that point to non-existent file are not restored in restore all,
90   but are restored if the file is individually selected.  BUG!
91 - Doc Duplicate Jobs.
92 - New directive "Delete purged Volumes"
93 - Prune by Job
94 - Prune by Job Level (Full, Differential, Incremental)
95 - Strict automatic pruning 
96 - Implement unmount of USB volumes.
97 - Use "./config no-idea no-mdc2 no-rc5" on building OpenSSL for
98   Win32 to avoid patent problems.
99 - Implement Bacula plugins -- design API
100 - modify pruning to keep a fixed number of versions of a file, 
101   if requested.
102 - the cd-command should allow complete paths
103   i.e. cd /foo/bar/foo/bar
104   -> if a customer mails me the path to a certain file,
105      its faster to enter the specified directory
106 - Fix bpipe.c so that it does not modify results pointer.
107   ***FIXME*** calling sequence should be changed.
108 - Make tree walk routines like cd, ls, ... more user friendly
109   by handling spaces better.
110 === rate design
111   jcr->last_rate
112   jcr->last_runtime
113   MA = (last_MA * 3 + rate) / 4
114   rate = (bytes - last_bytes) / (runtime - last_runtime)
115 - Add a recursive mark command (rmark) to restore.
116 - "Minimum Job Interval = nnn" sets minimum interval between Jobs
117   of the same level and does not permit multiple simultaneous
118   running of that Job (i.e. lets any previous invocation finish
119   before doing Interval testing).
120 - Look at simplifying File exclusions.
121 - Scripts
122 - Auto update of slot:
123    rufus-dir: ua_run.c:456-10 JobId=10 NewJobId=10 using pool Full priority=10
124    02-Nov 12:58 rufus-dir JobId 10: Start Backup JobId 10, Job=kernsave.2007-11-02_12.58.03
125    02-Nov 12:58 rufus-dir JobId 10: Using Device "DDS-4"
126    02-Nov 12:58 rufus-sd JobId 10: Invalid slot=0 defined in catalog for Volume "Vol001" on "DDS-4" (/dev/nst0). Manual load my be required.
127    02-Nov 12:58 rufus-sd JobId 10: 3301 Issuing autochanger "loaded? drive 0" command.
128    02-Nov 12:58 rufus-sd JobId 10: 3302 Autochanger "loaded? drive 0", result is Slot 2.
129    02-Nov 12:58 rufus-sd JobId 10: Wrote label to prelabeled Volume "Vol001" on device "DDS-4" (/dev/nst0)
130    02-Nov 12:58 rufus-sd JobId 10: Alert: TapeAlert[7]:   Media Life: The tape has reached the end of its useful life.
131    02-Nov 12:58 rufus-dir JobId 10: Bacula rufus-dir 2.3.6 (26Oct07): 02-Nov-2007 12:58:51
132 - Eliminate:  /var is a different filesystem. Will not descend from / into /var
133 - Separate Files and Directories in catalog
134 - Create FileVersions table
135 - Look at rsysnc for incremental updates and dedupping
136 - Add MD5 or SHA1 check in SD for data validation
137 - finish implementation of fdcalled -- see ua_run.c:105
138 - Fix problem in postgresql.c in my_postgresql_query, where the
139   generation of the error message doesn't differentiate result==NULL
140   and a bad status from that result.  Not only that, the result is
141   cleared on a bail_out without having generated the error message.
142 - KIWI
143 - Implement SDErrors (must return from SD)
144 - Implement USB keyboard support in rescue CD.
145 - Implement continue spooling while despooling.
146 - Remove all install temp files in Win32 PLUGINSDIR.
147 - Audit retention periods to make sure everything is 64 bit.
148 - No where in restore causes kaboom.
149 - Performance: multiple spool files for a single job.
150 - Performance: despool attributes when despooling data (problem
151   multiplexing Dir connection).
152 - Make restore use the in-use volume reservation algorithm.
153 - When Pool specifies Storage command override does not work.
154 - Implement wait_for_sysop() message display in wait_for_device(), which
155   now prints warnings too often.
156 - Ensure that each device in an Autochanger has a different
157   Device Index.
158 - Look at sg_logs -a /dev/sg0 for getting soft errors.
159 - btape "test" command with Offline on Unmount = yes
160
161    This test is essential to Bacula.
162
163    I'm going to write one record  in file 0,
164    two records in file 1,
165    and three records in file 2
166
167    02-Feb 11:00 btape: ABORTING due to ERROR in dev.c:715
168    dev.c:714 Bad call to rewind. Device "LTO" (/dev/nst0) not open
169    02-Feb 11:00 btape: Fatal Error because: Bacula interrupted by signal 11: Segmentation violation
170    Kaboom! btape, btape got signal 11. Attempting traceback.
171
172 - Encryption -- email from Landon
173    > The backup encryption algorithm is currently not configurable, and is  
174    > set to AES_128_CBC in src/filed/backup.c. The encryption code  
175    > supports a number of different ciphers (as well as adding arbitrary  
176    > new ones) -- only a small bit of code would be required to map a  
177    > configuration string value to a CRYPTO_CIPHER_* value, if anyone is  
178    > interested in implementing this functionality.
179
180 - Figure out some way to "automatically" backup conf changes.
181 - Add the OS version back to the Win32 client info.
182 - Restarted jobs have a NULL in the from field.
183 - Modify SD status command to indicate when the SD is writing
184   to a DVD (the device is not open -- see bug #732).
185 - Look at the possibility of adding "SET NAMES UTF8" for MySQL,
186   and possibly changing the blobs into varchar.
187 - Ensure that the SD re-reads the Media record if the JobFiles
188   does not match -- it may have been updated by another job.
189 - Doc items
190 - Test Volume compatibility between machine architectures
191 - Encryption documentation
192 - Wrong jobbytes with query 12 (todo)
193 - Bare-metal recovery Windows (todo)
194    
195
196 Projects:
197 - Pool enhancements
198   - Access Mode = Read-Only, Read-Write, Unavailable, Destroyed, Offsite
199   - Pool Type = Copy
200   - Maximum number of scratch volumes
201   - Maximum File size
202   - Next Pool (already have)
203   - Reclamation threshold
204   - Reclamation Pool
205   - Reuse delay (after all files purged from volume before it can be used)
206   - Copy Pool = xx, yyy (or multiple lines).
207   - Catalog = xxx
208   - Allow pool selection during restore.
209
210 - Average tape size from Eric
211     SELECT COALESCE(media_avg_size.volavg,0) * count(Media.MediaId) AS volmax,                                                              GROUP BY Media.MediaType, Media.PoolId, media_avg_size.volavg
212            count(Media.MediaId)  AS volnum,
213            sum(Media.VolBytes)   AS voltotal,
214            Media.PoolId          AS PoolId,
215            Media.MediaType       AS MediaType
216     FROM Media
217     LEFT JOIN (SELECT avg(Media.VolBytes) AS volavg,
218                       Media.MediaType     AS MediaType
219                FROM Media
220               WHERE Media.VolStatus = 'Full'
221               GROUP BY Media.MediaType
222                ) AS media_avg_size ON (Media.MediaType = media_avg_size.MediaType)
223     GROUP BY Media.MediaType, Media.PoolId, media_avg_size.volavg
224 - GUI
225   - Admin
226   - Management reports
227   - Add doc for bweb -- especially Installation
228   - Look at Webmin
229      http://www.orangecrate.com/modules.php?name=News&file=article&sid=501
230 - Performance
231   - Despool attributes in separate thread
232   - Database speedups
233   - Embedded MySQL
234   - Check why restore repeatedly sends Rechdrs between
235     each data chunk -- according to James Harper 9Jan07.
236 - Features
237   - Better scheduling  
238   - Full at least once a month, ...
239   - Cancel Inc if Diff/Full running
240   - More intelligent re-run
241   - New/deleted file backup   
242   - FD plugins
243   - Incremental backup -- rsync, Stow
244
245
246 For next release:
247 - Try to fix bscan not working with multiple DVD volumes bug #912.
248 - Look at mondo/mindi
249 - Make Bacula by default not backup tmpfs, procfs, sysfs, ...
250 - Fix hardlinked immutable files when linking a second file, the
251   immutable flag must be removed prior to trying to link it.
252 - Implement Python event for backing up/restoring a file.
253 - Change dbcheck to tell users to use native tools for fixing
254   broken databases, and to ensure they have the proper indexes.
255 - add udev rules for Bacula devices.
256 - If a job terminates, the DIR connection can close before the
257   Volume info is updated, leaving the File count wrong.
258 - Look at why SIGPIPE during connection can cause seg fault in
259   writing the daemon message, when Dir dropped to bacula:bacula
260 - Look at zlib 32 => 64 problems.
261 - Possibly turn on St. Bernard code.
262 - Fix bextract to restore ACLs, or better yet, use common routines.
263 - Do we migrate appendable Volumes?
264 - Remove queue.c code.
265 - Print warning message if LANG environment variable does not specify
266   UTF-8.
267 - New dot commands from Arno.
268   .show device=xxx lists information from one storage device, including 
269      devices (I'm not even sure that information exists in the DIR...)
270   .move eject device=xxx mostly the same as 'unmount xxx' but perhaps with 
271      better machine-readable output like "Ok" or "Error busy"
272   .move eject device=xxx toslot=yyy the same as above, but with a new 
273      target slot. The catalog should be updated accordingly.
274   .move transfer device=xxx fromslot=yyy toslot=zzz
275
276 Low priority:
277 - Article: http://www.heise.de/open/news/meldung/83231
278 - Article: http://www.golem.de/0701/49756.html
279 - Article: http://lwn.net/Articles/209809/
280 - Article: http://www.onlamp.com/pub/a/onlamp/2004/01/09/bacula.html
281 - Article: http://www.linuxdevcenter.com/pub/a/linux/2005/04/07/bacula.html
282 - Article: http://www.osreviews.net/reviews/admin/bacula
283 - Article: http://www.debianhelp.co.uk/baculaweb.htm
284 - Article: 
285 - Wikis mentioning Bacula
286   http://wiki.finkproject.org/index.php/Admin:Backups
287   http://wiki.linuxquestions.org/wiki/Bacula
288   http://www.openpkg.org/product/packages/?package=bacula
289   http://www.iterating.com/products/Bacula
290   http://net-snmp.sourceforge.net/wiki/index.php/Net-snmp_extensions
291   http://www.section6.net/wiki/index.php/Using_Bacula_for_Tape_Backups
292   http://bacula.darwinports.com/
293   http://wiki.mandriva.com/en/Releases/Corporate/Server_4/Notes#Bacula
294   http://en.wikipedia.org/wiki/Bacula
295
296 - Bacula Wikis
297   http://www.devco.net/pubwiki/Bacula/
298   http://paramount.ind.wpi.edu/wiki/doku.php
299   http://gentoo-wiki.com/HOWTO_Backup
300   http://www.georglutz.de/wiki/Bacula
301   http://www.clarkconnect.com/wiki/index.php?title=Modules_-_LAN_Backup/Recovery
302   http://linuxwiki.de/Bacula   (in German)
303
304 - Possibly allow SD to spool even if a tape is not mounted.
305 - Fix re-read of last block to check if job has actually written
306   a block, and check if block was written by a different job
307   (i.e. multiple simultaneous jobs writing).
308 - Figure out how to configure query.sql.  Suggestion to use m4:
309     == changequote.m4 ===
310     changequote(`[',`]')dnl
311     ==== query.sql.in ===
312     :List next 20 volumes to expire
313     SELECT
314         Pool.Name AS PoolName,
315         Media.VolumeName,
316         Media.VolStatus,
317         Media.MediaType,
318     ifdef([MySQL],
319     [ FROM_UNIXTIME(UNIX_TIMESTAMP(Media.LastWritten) Media.VolRetention) AS Expire, ])dnl
320     ifdef([PostgreSQL],
321     [ media.lastwritten + interval '1 second' * media.volretention as expire, ])dnl
322       Media.LastWritten
323       FROM Pool
324       LEFT JOIN Media
325       ON Media.PoolId=Pool.PoolId
326       WHERE Media.LastWritten>0
327       ORDER BY Expire
328       LIMIT 20;
329     ====
330     Command: m4 -DmySQL changequote.m4 query.sql.in >query.sql
331
332   The problem is that it requires m4, which is not present on all machines
333   at ./configure time.
334 - Given all the problems with FIFOs, I think the solution is to do something a
335   little different, though I will look at the code and see if there is not some
336   simple solution (i.e. some bug that was introduced).  What might be a better
337   solution would be to use a FIFO as a sort of "key" to tell Bacula to read and
338   write data to a program rather than the FIFO.  For example, suppose you
339   create a FIFO named:
340
341      /home/kern/my-fifo
342
343   Then, I could imagine if you backup and restore this file with a direct
344   reference as is currently done for fifos, instead, during backup Bacula will
345   execute:
346
347     /home/kern/my-fifo.backup
348
349   and read the data that my-fifo.backup writes to stdout. For restore, Bacula
350   will execute:
351
352     /home/kern/my-fifo.restore
353
354   and send the data backed up to stdout. These programs can either be an
355   executable or a shell script and they need only read/write to stdin/stdout.
356
357   I think this would give a lot of flexibility to the user without making any
358   significant changes to Bacula.
359
360
361 ==== SQL
362 # get null file
363 select FilenameId from Filename where Name='';
364 # Get list of all directories referenced in a Backup.
365 select Path.Path from Path,File where File.JobId=nnn and
366   File.FilenameId=(FilenameId-from-above) and File.PathId=Path.PathId
367   order by Path.Path ASC;
368
369 - Look into using Dart for testing
370   http://public.kitware.com/Dart/HTML/Index.shtml
371
372 - Look into replacing autotools with cmake
373   http://www.cmake.org/HTML/Index.html
374
375 - Mount on an Autochanger with no tape in the drive causes:
376    Automatically selected Storage: LTO-changer
377    Enter autochanger drive[0]: 0
378    3301 Issuing autochanger "loaded drive 0" command.
379    3302 Autochanger "loaded drive 0", result: nothing loaded.
380    3301 Issuing autochanger "loaded drive 0" command.
381    3302 Autochanger "loaded drive 0", result: nothing loaded.
382    3902 Cannot mount Volume on Storage Device "LTO-Drive1" (/dev/nst0) because:
383    Couldn't rewind device "LTO-Drive1" (/dev/nst0): ERR=dev.c:678 Rewind error on "LTO-Drive1" (/dev/nst0). ERR=No medium found.
384    3905 Device "LTO-Drive1" (/dev/nst0) open but no Bacula volume is mounted.
385    If this is not a blank tape, try unmounting and remounting the Volume.
386 - If Drive 0 is blocked, and drive 1 is set "Autoselect=no", drive 1 will
387   be used.
388 - Autochanger did not change volumes.  
389    select * from Storage;
390    +-----------+-------------+-------------+
391    | StorageId | Name        | AutoChanger |
392    +-----------+-------------+-------------+
393    |         1 | LTO-changer |           0 |
394    +-----------+-------------+-------------+
395    05-May 03:50 roxie-sd: 3302 Autochanger "loaded drive 0", result is Slot 11.
396    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Warning: Director wanted Volume "LT
397     Current Volume "LT0-002" not acceptable because:
398     1997 Volume "LT0-002" not in catalog.
399    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Error: Autochanger Volume "LT0-002"
400     Setting InChanger to zero in catalog.
401    05-May 03:50 roxie-dir: Tibs.2006-05-05_03.05.02 Error: Unable to get Media record
402
403    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Fatal error: Error getting Volume i
404    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Fatal error: Job 530 canceled.
405    05-May 03:50 roxie-sd: Tibs.2006-05-05_03.05.02 Fatal error: spool.c:249 Fatal appe
406    05-May 03:49 Tibs: Tibs.2006-05-05_03.05.02 Fatal error: c:\cygwin\home\kern\bacula
407    , got
408      (missing)
409     llist volume=LTO-002
410               MediaId: 6
411            VolumeName: LTO-002
412                  Slot: 0
413                PoolId: 1
414             MediaType: LTO-2
415          FirstWritten: 2006-05-05 03:11:54
416           LastWritten: 2006-05-05 03:50:23
417             LabelDate: 2005-12-26 16:52:40
418               VolJobs: 1
419              VolFiles: 0
420             VolBlocks: 1
421             VolMounts: 0
422              VolBytes: 206
423             VolErrors: 0
424             VolWrites: 0
425      VolCapacityBytes: 0
426             VolStatus: 
427               Recycle: 1
428          VolRetention: 31,536,000
429        VolUseDuration: 0
430            MaxVolJobs: 0
431           MaxVolFiles: 0
432           MaxVolBytes: 0
433             InChanger: 0
434               EndFile: 0
435              EndBlock: 0
436              VolParts: 0
437             LabelType: 0
438             StorageId: 1
439
440    Note VolStatus is blank!!!!!
441    llist volume=LTO-003
442              MediaId: 7
443           VolumeName: LTO-003
444                 Slot: 12
445               PoolId: 1
446            MediaType: LTO-2
447         FirstWritten: 0000-00-00 00:00:00
448          LastWritten: 0000-00-00 00:00:00
449            LabelDate: 2005-12-26 16:52:40
450              VolJobs: 0
451             VolFiles: 0
452            VolBlocks: 0
453            VolMounts: 0
454             VolBytes: 1
455            VolErrors: 0
456            VolWrites: 0
457     VolCapacityBytes: 0
458            VolStatus: Append
459              Recycle: 1
460         VolRetention: 31,536,000
461       VolUseDuration: 0
462           MaxVolJobs: 0
463          MaxVolFiles: 0
464          MaxVolBytes: 0
465            InChanger: 0
466              EndFile: 0
467             EndBlock: 0
468             VolParts: 0
469            LabelType: 0
470            StorageId: 1
471 ===
472    mount
473    Automatically selected Storage: LTO-changer
474    Enter autochanger drive[0]: 0
475    3301 Issuing autochanger "loaded drive 0" command.
476    3302 Autochanger "loaded drive 0", result: nothing loaded.
477    3301 Issuing autochanger "loaded drive 0" command.
478    3302 Autochanger "loaded drive 0", result: nothing loaded.
479    3902 Cannot mount Volume on Storage Device "LTO-Drive1" (/dev/nst0) because:
480    Couldn't rewind device "LTO-Drive1" (/dev/nst0): ERR=dev.c:678 Rewind error on "LTO-Drive1" (/dev/nst0). ERR=No medium found.
481
482    3905 Device "LTO-Drive1" (/dev/nst0) open but no Bacula volume is mounted.
483    If this is not a blank tape, try unmounting and remounting the Volume.
484
485 - http://www.dwheeler.com/essays/commercial-floss.html
486 - Add VolumeLock to prevent all but lock holder (SD) from updating
487   the Volume data (with the exception of VolumeState).
488 - The btape fill command does not seem to use the Autochanger
489 - Make Windows installer default to system disk drive.
490 - Look at using ioctl(FIOBMAP, ...) on Linux, and 
491   DeviceIoControl(...,  FSCTL_QUERY_ALLOCATED_RANGES, ...) on
492   Win32 for sparse files.
493   http://www.flexhex.com/docs/articles/sparse-files.phtml
494   http://www.informatik.uni-frankfurt.de/~loizides/reiserfs/fibmap.html
495 - Directive: at <event> "command"
496 - Command: pycmd "command" generates "command" event.  How to
497   attach to a specific job?
498 - Integrate Christopher's St. Bernard code.
499 - run_cmd() returns int should return JobId_t
500 - get_next_jobid_from_list() returns int should return JobId_t
501 - Document export LDFLAGS=-L/usr/lib64
502 - Don't attempt to restore from "Disabled" Volumes.
503 - Network error on Win32 should set Win32 error code.
504 - What happens when you rename a Disk Volume?
505 - Job retention period in a Pool (and hence Volume).  The job would
506   then be migrated.
507 - Look at -D_FORTIFY_SOURCE=2
508 - Add Win32 FileSet definition somewhere
509 - Look at fixing restore status stats in SD.
510 - Look at using ioctl(FIMAP) and FIGETBSZ for sparse files.
511   http://www.informatik.uni-frankfurt.de/~loizides/reiserfs/fibmap.html
512 - Implement a mode that says when a hard read error is
513   encountered, read many times (as it currently does), and if the
514   block cannot be read, skip to the next block, and try again.  If
515   that fails, skip to the next file and try again, ...
516 - Add level table:
517   create table LevelType (LevelType binary(1), LevelTypeLong tinyblob);
518   insert into LevelType (LevelType,LevelTypeLong) values
519   ("F","Full"),
520   ("D","Diff"),
521   ("I","Inc");
522 - Show files/second in client status output.
523 - new pool XXX with ScratchPoolId = MyScratchPool's PoolId and
524   let it fill itself, and RecyclePoolId = XXX's PoolId so I can
525   see if it become stable and I just have to supervise
526   MyScratchPool
527 - If I want to remove this pool, I set RecyclePoolId = MyScratchPool's
528   PoolId, and when it is empty remove it.
529 - Add Volume=SCRTCH
530 - Allow Check Labels to be used with Bacula labels.
531 - "Resuming" a failed backup (lost line for example) by using the
532   failed backup as a sort of "base" job.
533 - Look at NDMP
534 - Email to the user when the tape is about to need changing x
535   days before it needs changing.
536 - Command to show next tape that will be used for a job even
537   if the job is not scheduled.
538 - From: Arunav Mandal <amandal@trolltech.com>
539   1. When jobs are running and bacula for some reason crashes or if I do a 
540   restart it remembers and jobs it was running before it crashed or restarted 
541   as of now I loose all jobs if I restart it.
542
543   2. When spooling and in the midway if client is disconnected for instance a 
544   laptop bacula completely discard the spool. It will be nice if it can write 
545   that spool to tape so there will be some backups for that client if not all.
546
547   3. We have around 150 clients machines it will be nice to have a option to 
548   upgrade all the client machines bacula version automatically.
549
550   4. Atleast one connection should be reserved for the bconsole so at heavy load 
551   I should connect to the director via bconsole which at sometimes I can't
552
553   5. Another most important feature that is missing, say at 10am I manually 
554   started  backup of client abc and it was a full backup since client abc has 
555   no backup history and at 10.30am bacula again automatically started backup of 
556   client abc as that was in the schedule. So now we have 2 multiple Full 
557   backups of the same client and if we again try to start a full backup of 
558   client backup abc bacula won't complain. That should be fixed.
559
560 - For Windows disaster recovery see http://unattended.sf.net/
561 - regardless of the retention period, Bacula will not prune the
562   last Full, Diff, or Inc File data until a month after the
563   retention period for the last Full backup that was done.
564 - update volume=xxx --- add status=Full
565 - Remove old spool files on startup.
566 - Exclude SD spool/working directory.
567 - Refuse to prune last valid Full backup. Same goes for Catalog.
568 - Python:
569   - Make a callback when Rerun failed levels is called.
570   - Give Python program access to Scheduled jobs.
571   - Add setting Volume State via Python.
572   - Python script to save with Python, not save, save with Bacula.
573   - Python script to do backup.
574   - What events?
575   - Change the Priority, Client, Storage, JobStatus (error) 
576     at the start of a job.
577 - Why is SpoolDirectory = /home/bacula/spool;  not reported
578   as an error when writing a DVD?
579 - Make bootstrap file handle multiple MediaTypes (SD)
580 - Remove all old Device resource code in Dir and code to pass it
581   back in SD -- better, rework it to pass back device statistics.
582 - Check locking of resources -- be sure to lock devices where previously
583   resources were locked. 
584 - The last part is left in the spool dir.
585
586
587 - In restore don't compare byte count on a raw device -- directory
588   entry does not contain bytes.
589
590
591 - Max Vols limit in Pool off by one?
592 - Implement Files/Bytes,... stats for restore job.
593 - Implement Total Bytes Written, ... for restore job.
594 - Despool attributes simultaneously with data in a separate
595   thread, rejoined at end of data spooling.
596 - 7. Implement new Console commands to allow offlining/reserving drives,
597      and possibly manipulating the autochanger (much asked for).
598 - Add start/end date editing in messages (%t %T, %e?) ...
599 - Add ClientDefs similar to JobDefs.
600 - Print more info when bextract -p accepts a bad block.
601 - Fix FD JobType to be set before RunBeforeJob in FD.
602 - Look at adding full Volume and Pool information to a Volume 
603   label so that bscan can get *all* the info. 
604 - If the user puts "Purge Oldest Volume = yes" or "Recycle Oldest Volume = yes"
605   and there is only one volume in the pool, refuse to do it -- otherwise
606   he fills the Volume, then immediately starts reusing it.
607 - Implement copies and stripes.
608 - Add history file to console.
609 - Each file on tape creates a JobMedia record. Peter has 4 million
610   files spread over 10000 tape files and four tapes. A restore takes
611   16 hours to build the restore list.
612 - Add and option to check if the file size changed during backup.
613 - Make sure SD deletes spool files on error exit.
614 - Delete old spool files when SD starts.
615 - When labeling tapes, if you enter 000026, Bacula uses
616   the tape index rather than the Volume name 000026.
617 - Add offline tape command to Bacula console.
618 - Bug: 
619   Enter MediaId or Volume name: 32
620   Enter new Volume name: DLT-20Dec04
621   Automatically selected Pool: Default
622   Connecting to Storage daemon DLTDrive at 192.168.68.104:9103 ...
623   Sending relabel command from "DLT-28Jun03" to "DLT-20Dec04" ...
624   block.c:552 Write error at 0:0 on device /dev/nst0. ERR=Bad file descriptor.
625   Error writing final EOF to tape. This tape may not be readable.
626   dev.c:1207 ioctl MTWEOF error on /dev/nst0. ERR=Permission denied.
627   askdir.c:219 NULL Volume name. This shouldn't happen!!!
628   3912 Failed to label Volume: ERR=dev.c:1207 ioctl MTWEOF error on /dev/nst0. ERR=Permission denied.
629   Label command failed for Volume DLT-20Dec04.
630   Do not forget to mount the drive!!!
631 - Bug: if a job is manually scheduled to run later, it does not appear
632   in any status report and cannot be cancelled.
633
634 ==== Keeping track of deleted/new files ====
635 - To mark files as deleted, run essentially a Verify to disk, and
636   when a file is found missing (MarkId != JobId), then create
637   a new File record with FileIndex == -1. This could be done
638   by the FD at the same time as the backup.
639
640      My "trick" for keeping track of deletions is the following.
641      Assuming the user turns on this option, after all the files
642      have been backed up, but before the job has terminated, the
643      FD will make a pass through all the files and send their
644      names to the DIR (*exactly* the same as what a Verify job
645      currently does).  This will probably be done at the same
646      time the files are being sent to the SD avoiding a second
647      pass.  The DIR will then compare that to what is stored in
648      the catalog.  Any files in the catalog but not in what the
649      FD sent will receive a catalog File entry that indicates
650      that at that point in time the file was deleted. This
651      either transmitted to the FD or simultaneously computed in
652      the FD, so that the FD can put a record on the tape that
653      indicates that the file has been deleted at this point.
654      A delete file entry could potentially be one with a FileIndex
655      of 0 or perhaps -1 (need to check if FileIndex is used for
656      some other thing as many of the Bacula fields are "overloaded"
657      in the SD).
658
659      During a restore, any file initially picked up by some
660      backup (Full, ...) then subsequently having a File entry
661      marked "delete" will be removed from the tree, so will not
662      be restored.  If a file with the same name is later OK it
663      will be inserted in the tree -- this already happens.  All
664      will be consistent except for possible changes during the
665      running of the FD.
666
667      Since I'm on the subject, some of you may be wondering what
668      the utility of the in memory tree is if you are going to
669      restore everything (at least it comes up from time to time
670      on the list).  Well, it is still *very* useful because it
671      allows only the last item found for a particular filename
672      (full path) to be entered into the tree, and thus if a file
673      is backed up 10 times, only the last copy will be restored.
674      I recently (last Friday) restored a complete directory, and
675      the Full and all the Differential and Incremental backups
676      spanned 3 Volumes.  The first Volume was not even mounted
677      because all the files had been updated and hence backed up
678      since the Full backup was made.  In this case, the tree
679      saved me a *lot* of time.
680
681      Make sure this information is stored on the tape too so
682      that it can be restored directly from the tape.
683
684      All the code (with the exception of formally generating and
685      saving the delete file entries) already exists in the Verify
686      Catalog command.  It explicitly recognizes added/deleted files since
687      the last InitCatalog.  It is more or less a "simple" matter of
688      taking that code and adapting it slightly to work for backups.
689
690   Comments from Martin Simmons (I think they are all covered):
691   Ok, that should cover the basics.  There are few issues though:
692
693   - Restore will depend on the catalog.  I think it is better to include the
694   extra data in the backup as well, so it can be seen by bscan and bextract.
695
696   - I'm not sure if it will preserve multiple hard links to the same inode.  Or
697   maybe adding or removing links will cause the data to be dumped again?
698
699   - I'm not sure if it will handle renamed directories.  Possibly it will work
700   by dumping the whole tree under a renamed directory?
701
702   - It remains to be seen how the backup performance of the DIR's will be
703   affected when comparing the catalog for a large filesystem.
704
705    1. Use the current Director in-memory tree code (very fast), but currently in 
706    memory.  It probably could be paged.
707
708    2. Use some DB such as Berkeley DB or SQLite.  SQLite is already compiled and 
709    built for Win32, and it is something we could compile into the program.
710
711    3. Implement our own custom DB code.
712
713    Note, by appropriate use of Directives in the Director, we can dynamically 
714    decide if the work is done in the Director or in the FD, and we can even 
715    allow the user to choose.
716
717 === most recent accurate file backup/restore ===
718    Here is a sketch (i.e. more details must be filled in later) that I recently 
719    made of an algorithm for doing Accurate Backup.
720
721    1. Dir informs FD that it is doing an Accurate backup and lookup done by 
722    Director.
723
724    2. FD passes through the file system doing a normal backup based on normal 
725    conditions, recording the names of all files and their attributes, and 
726    indicating which files were backed up.  This is very similar to what Verify 
727    does.
728
729    3. The Director receives the two lists of files at the end of the FD backup. 
730    One, files backed up, and one files not backed up. It then looks up all the 
731    files not backed up (using Verify style code).
732
733    4. The Dir sends the FD a list of:
734      a. Additional files to backup (based on user specified criteria, name, size
735            inode date, hash, ...).
736              b. Files to delete.
737
738    5. Dir deletes list of file not backed up.
739
740    6. FD backs up additional files generates a list of those backed up and sends 
741    it to the Director, which adds it to the list of files backed up.  The list 
742    is now complete and current.
743
744    7. The FD generates delete records for all the files that were deleted and 
745    sends to the SD.
746
747    8. The Dir deletes the previous CurrentBackup list, and then does a 
748    transaction insert of the new list that it has.
749
750    9. The rest works as before ...
751
752    That is it.
753
754    Two new tables needed.
755    1. CurrentBackupId table that contains Client, JobName, FileSet, and a unique 
756    BackupId.  This is created during a Full save, and the BackupId can be set to 
757    the JobId of the Full save.  It will remain the same until another Full 
758    backup is done.  That is when new records are added during a Differential or 
759    Incremental, they must use the same BackupId.
760
761    2. CurrentBackup table that contains essentially a File record (less a number 
762    of fields, but with a few extra fields) -- e.g. a flag that the File was 
763    backed up by a Full save (this permits doing a Differential).    The unique 
764    BackupId allows us to look up the CurrentBackup for a particular Client, 
765    Jobname, FileSet using that unique BackupId as the key, so this table must be 
766    indexed by the BackupId. 
767
768    Note any time a file is saved by the FD other than during a Full save, the 
769    Full save flag is cleared.  When doing a Differential backup, if a file has 
770    the Full save flag set, it is skipped, otherwise it is backed up.  For an 
771    Incremental backup, we check to see if the file has changed since the last 
772    time we backed it up.
773
774    Deleted files should have FileIndex == 0
775
776 ==== 
777 From David:
778 How about introducing a Type = MgmtPolicy job type? That job type would
779 be responsible for scanning the Bacula environment looking for specific
780 conditions, and submitting the appropriate jobs for implementing said
781 policy, eg: 
782
783 Job {
784    Name = "Migration-Policy"
785    Type = MgmtPolicy
786    Policy Selection Job Type = Migrate
787    Scope = "<keyword> <operator> <regexp>"
788    Threshold = "<keyword> <operator> <regexp>"
789    Job Template = <template-name>
790 }
791
792 Where <keyword> is any legal job keyword, <operator> is a comparison
793 operator (=,<,>,!=, logical operators AND/OR/NOT) and <regexp> is a
794 appropriate regexp. I could see an argument for Scope and Threshold
795 being SQL queries if we want to support full flexibility. The
796 Migration-Policy job would then get scheduled as frequently as a site
797 felt necessary (suggested default: every 15 minutes). 
798
799 Example: 
800
801 Job {
802    Name = "Migration-Policy"
803    Type = MgmtPolicy
804    Policy Selection Job Type = Migration
805    Scope = "Pool=*"
806    Threshold = "Migration Selection Type = LowestUtil"
807    Job Template = "MigrationTemplate"
808 }
809
810 would select all pools for examination and generate a job based on
811 MigrationTemplate to automatically select the volume with the lowest
812 usage and migrate it's contents to the nextpool defined for that pool. 
813
814 This policy abstraction would be really handy for adjusting the behavior
815 of Bacula according to site-selectable criteria (one thing that pops
816 into mind is Amanda's ability to automatically adjust backup levels
817 depending on various criteria).
818
819
820 =====
821
822 Regression tests:
823 - Add Pool/Storage override regression test.
824 - Add delete JobId to regression.
825 - Add a regression test for dbcheck.  
826 - New test to add bscan to four-concurrent-jobs regression,
827   i.e. after the four-concurrent jobs zap the
828   database as is done in the bscan-test, then use bscan to
829   restore the database, do a restore and compare with the
830   original.
831 - Add restore of specific JobId to regression (item 3
832   on the restore prompt)
833 - Add IPv6 to regression
834 - Add database test to regression. Test each function like delete,
835   purge, ...
836
837 - AntiVir can slow down backups on Win32 systems. 
838 - Win32 systems with FAT32 can be much slower than NTFS for
839   more than 1000 files per directory.
840
841
842 1.37 Possibilities:
843 - A HOLD command to stop all jobs from starting.
844 - A PAUSE command to pause all running jobs ==> release the
845   drive.
846 - Media Type = LTO,LTO-2,LTO-3
847   Media Type Read = LTO,LTO2,LTO3
848   Media Type Write = LTO2, LTO3
849
850 === From Carsten Menke <bootsy52@gmx.net>
851
852 Following is a list of what I think in the situations where I'm faced with, 
853 could be a usefull enhancement to bacula, which I'm certain other users will 
854 benefit from as well.
855
856 1. NextJob/NextJobs Directive within a Job Resource in the form of
857     NextJobs = job1,job2.
858
859     Why:
860     I currently solved the problem with running multiple jobs each after each
861     by setting the Max Wait Time for a job to 8 hours, and give
862     the jobs different Priorities. However, there scenarios where
863     1 Job is directly depending on another job, so if the former job fails,
864     the job after it needn't to be run
865     while maybe other jobs should run despite of that
866
867 Example:
868   A Backup Job and a Verify job, if the backup job fails there is no need to run
869   the verify job, as the backup job already failed. However, one may like
870   to backup the Catalog to disk despite of that the main backup job failed.
871
872 Notes:
873   I see that this is related to the Event Handlers which are on the ToDo
874   list, also it is maybe a good idea to check for the return value and
875   execute different actions based on the return value
876
877
878 3. offline capability to bconsole
879
880     Why:
881     Currently I use a script which I execute within the last Job via the
882     RunAfterJob Directive, to release and eject the tape.
883     So I have to call bconsole "release=Storage-Name" and afterwards
884     mt -f /dev/nst0 eject to get the tape out.
885
886     If I have multiple Storage Devices, than these may not be /dev/nst0 and
887     I have to modify the script or call it with parameters etc.
888     This would actually not be needed, as everything is already defined
889     in bacula-sd.conf and if   I can invoke bconsole with the
890     storage name via $1 in the script than I'm done and information is
891     not duplicated.
892
893 4. %s for Storage Name added to the chars being substituted in "RunAfterJob"
894
895     Why:
896
897     For the reason mentioned in 3. to have the ability to call a
898     script with /scripts/foobar %s and in the script use $1
899     to pass the Storage Name to bconsole
900
901 5. Setting Volume State within a Job Resource
902
903     Why:
904     Instead of using "Maximum Volume Jobs" in the Pool Resource,
905     I would have the possibilty to define
906     in a Job Resource that after this certain job is run, the Volume State
907     should be set to "Volume State = Used", this give more flexibility (IMHO).
908
909 6. Localization of Bacula Messages
910
911     Why:
912     Unfortunatley many,many people I work with don't speak english very well.
913     So if at least the Reporting messages would be localized then they
914     would  understand that they have to change the tape,etc. etc.
915
916     I volunteer to do the german translations, and if I can convince my wife also
917     french and Morre (western african language).
918
919 7. OK, this is evil, probably bound to security risks and maybe not possible
920     due to the design of bacula.
921
922     Implementation of Backtics ( `command` ) for shell comand execution to
923     the "Label Format" Directive.
924
925 Why:
926
927     Currently I have defined BACULA_DAY_OF_WEEK="day1|day2..." resulting in
928     Label Format = "HolyBackup-${BACULA_DAY_OF_WEEK[${WeekDay}]}". If I could
929     use backticks than I could use "Label Format = HolyBackup-`date +%A` to have
930     the localized name for the day of the week appended to the
931     format string. Then I have the tape labeled automatically with weekday
932     name in the correct language.
933 ==========
934 - Make output from status use html table tags for nicely 
935   presenting in a browser.
936 - Can one write tapes faster with 8192 byte block sizes?
937 - Document security problems with the same password for everyone in
938   rpm and Win32 releases.
939 - Browse generations of files.
940 - I've seen an error when my catalog's File table fills up.  I
941    then have to recreate the File table with a larger maximum row
942    size.  Relevant information is at
943    http://dev.mysql.com/doc/mysql/en/Full_table.html ; I think the
944    "Installing and Configuring MySQL" chapter should talk a bit
945    about this potential problem, and recommend a solution.
946 - For Solaris must use POSIX awk.
947 - Want speed of writing to tape while despooling.
948 - Supported autochanger:
949 OS: Linux
950 Man.: HP
951 Media: LTO-2
952 Model: SSL1016
953 Slots: 16
954 Cap: 200GB
955 - Supported drive:
956   Wangtek 6525ES (SCSI-1 QIC drive, 525MB), under Linux 2.4.something, 
957   bacula 1.36.0/1 works with blocksize 16k INSIDE bacula-sd.conf.
958 - Add regex from http://www.pcre.org to Bacula for Win32.
959 - Use only shell tools no make in CDROM package.
960 - Include within include does it work?
961 - Implement a Pool of type Cleaning?
962 - Implement VolReadTime and VolWriteTime in SD
963 - Modify Backing up Your Database to include a bootstrap file.
964 - Think about making certain database errors fatal.
965 - Look at correcting the time jump in the scheduler for daylight
966   savings time changes.
967 - Add a "real" timer to network connections.
968 - Promote to Full = Time period 
969 - Check dates entered by user for correctness (month/day/... ranges)
970 - Compress restore Volume listing by date and first file.
971 - Look at patches/bacula_db.b2z postgresql that loops during restore.
972   See Gregory Wright.
973 - Perhaps add read/write programs and/or plugins to FileSets.
974 - How to handle backing up portables ...
975 - Add some sort of guaranteed Interval for upgrading jobs.
976 - Can we write the state file after every job terminates? On Win32
977   the system crashes and the state file is not updated.
978 - Limit bandwidth
979
980 Documentation to do: (any release a little bit at a time)
981 - Doc to do unmount before removing magazine.
982 - Alternative to static linking "ldd prog" save all binaries listed,
983   restore them and point LD_LIBRARY_PATH to them.
984 - Document add "</dev/null >/dev/null 2>&1" to the bacula-fd command line
985 - Document query file format.
986 - Add more documentation for bsr files.
987 - Document problems with Verify and pruning.
988 - Document how to use multiple databases.
989 - VXA drives have a "cleaning required"
990   indicator, but Exabyte recommends preventive cleaning after every 75
991   hours of operation.
992   From Phil:
993     In this context, it should be noted that Exabyte has a command-line
994     vxatool utility available for free download. (The current version is
995     vxatool-3.72.) It can get diagnostic info, read, write and erase tapes,
996     test the drive, unload tapes, change drive settings, flash new firmware,
997     etc.
998     Of particular interest in this context is that vxatool <device> -i will
999     report, among other details, the time since last cleaning in tape motion
1000     minutes. This information can be retrieved (and settings changed, for
1001     that matter) through the generic-SCSI device even when Bacula has the
1002     regular tape device locked. (Needless to say, I don't recommend
1003     changing tape settings while a job is running.)
1004 - Lookup HP cleaning recommendations.
1005 - Lookup HP tape replacement recommendations (see trouble shooting autochanger)
1006 - Document doing table repair
1007
1008
1009 ===================================
1010 - Add macro expansions in JobDefs.
1011   Run Before Job = "SomeFile %{Level} %{Client}"
1012   Write Bootstrap="/some/dir/%{JobName}_%{Client}.bsr"
1013 - Use non-blocking network I/O but if no data is available, use
1014   select().
1015 - Use gather write() for network I/O.
1016 - Autorestart on crash.
1017 - Add bandwidth limiting.
1018 - Add acks every once and a while from the SD to keep
1019   the line from timing out.
1020 - When an error in input occurs and conio beeps, you can back
1021   up through the prompt.
1022 - Detect fixed tape block mode during positioning by looking at
1023   block numbers in btape "test".  Possibly adjust in Bacula.
1024 - Fix list volumes to output volume retention in some other
1025   units, perhaps via a directive.
1026 - Allow Simultaneous Priorities = yes  => run up to Max concurrent jobs even
1027   with multiple priorities.
1028 - If you use restore replace=never, the directory attributes for
1029   non-existent directories will not be restored properly.
1030
1031 - see lzma401.zip in others directory for new compression
1032   algorithm/library.
1033 - Allow the user to select JobType for manual pruning/purging.
1034 - bscan does not put first of two volumes back with all info in
1035   bscan-test.
1036 - Implement the FreeBSD nodump flag in chflags.
1037 - Figure out how to make named console messages go only to that
1038   console and to the non-restricted console (new console class?).
1039 - Make restricted console prompt for password if *ask* is set or
1040   perhaps if password is undefined.
1041 - Implement "from ISO-date/time every x hours/days/weeks/months" in
1042   schedules.
1043
1044 ==== from Marc Schoechlin
1045 - the help-command should be more verbose
1046   (it should explain the paramters of the different 
1047   commands in detail)
1048   -> its time-comsuming to consult the manual anytime
1049      you need a special parameter
1050   -> maybe its more easy to maintain this, if the
1051      descriptions of that commands are outsourced to
1052      a ceratin-file
1053 - if the password is not configured in bconsole.conf
1054   you should be asked for it.
1055   -> sometimes you like to do restore on a customer-machine
1056      which shouldnt know the password for bacula.
1057   -> adding the password to the file favours admins
1058      to forget to remove the password after usage
1059   -> security-aspects
1060      the protection of that file is less important
1061 - long-listed-output of commands should be scrollable
1062   like the unix more/less-command does
1063   -> if someone runs 200 and more machines, the lists could
1064      be a little long and complex
1065 - command-output should be shown column by column
1066   to reduce scrolling and to increase clarity
1067   -> see last item
1068 - lsmark should list the selected files with full
1069   paths
1070 - wildcards for selecting and file and directories would be nice
1071 - any actions should be interuptable with STRG+C
1072 - command-expansion would be pretty cool
1073 ====
1074 - When the replace Never option is set, new directory permissions
1075   are not restored. See bug 213. To fix this requires creating a
1076   list of newly restored directories so that those directory 
1077   permissions *can* be restored.
1078 - Add prune all command
1079 - Document fact that purge can destroy a part of a restore by purging
1080   one volume while others remain valid -- perhaps mark Jobs.
1081 - Add multiple-media-types.txt
1082 - look at mxt-changer.html
1083 - Make ? do a help command (no return needed).
1084 - Implement restore directory.
1085 - Document streams and how to implement them.
1086 - Try not to re-backup a file if a new hard link is added.
1087 - Add feature to backup hard links only, but not the data.
1088 - Fix stream handling to be simpler.
1089 - Add Priority and Bootstrap to Run a Job.
1090 - Eliminate Restore "Run Restore Job" prompt by allowing new "run command
1091   to be issued"
1092 - Remove View FileSet button from Run a Job dialog.
1093 - Handle prompt for restore job at end of Restore command.
1094 - Add display of total selected files to Restore window.
1095 - Add tree pane to left of window.
1096 - Add progress meter.
1097 - Max wait time or max run time causes seg fault -- see runtime-bug.txt
1098 - Add message to user to check for fixed block size when the forward
1099   space test fails in btape.
1100 - When unmarking a directory check if all files below are unmarked and
1101   then remove the + flag -- in the restore tree.
1102 - Possibly implement: Action = Unmount Device="TapeDrive1" in Admin jobs.
1103 - Setup lrrd graphs: (http://www.linpro.no/projects/lrrd/) Mike Acar.
1104 - Revisit the question of multiple Volumes (disk) on a single device.
1105 - Add a block copy option to bcopy.
1106 - Finish work on Gnome restore GUI.
1107 - Fix "llist jobid=xx" where no fileset or client exists.
1108 - For each job type (Admin, Restore, ...) require only the really necessary
1109   fields.- Pass Director resource name as an option to the Console.
1110 - Add a "batch" mode to the Console (no unsolicited queries, ...).
1111 - Add a .list all files in the restore tree (probably also a list all files)
1112   Do both a long and short form.
1113 - Allow browsing the catalog to see all versions of a file (with 
1114   stat data on each file).
1115 - Restore attributes of directory if replace=never set but directory
1116   did not exist.
1117 - Use SHA1 on authentication if possible.
1118 - See comtest-xxx.zip for Windows code to talk to USB.
1119 - Add John's appended files:
1120    Appended = {     /files/server/logs/http/*log   }
1121    and such files would be treated as follows.On a FULL backup, they would
1122    be backed up like any other file.On an INCREMENTAL backup, where a
1123    previous INCREMENTAL or FULL was already in thecatalogue and the length
1124    of the file wasgreater than the length of the last backup, only thedata
1125    added since the last backup will be dumped.On an INCREMENTAL backup, if
1126    the length of the file is less than thelength of the file with the same
1127    name last backed up, the completefile is dumped.On Windows systems, with
1128    creation date of files, we can be evensmarter about this and not count
1129    entirely upon the length.On a restore, the full and all incrementals
1130    since it will beapplied in sequence to restore the file.  
1131 - Check new HAVE_WIN32 open bits.    
1132 - Check if the tape has moved before writing.  
1133 - Handling removable disks -- see below:
1134 - Keep track of tape use time, and report when cleaning is necessary.
1135 - Add FromClient and ToClient keywords on restore command (or
1136   BackupClient RestoreClient).
1137 - Implement a JobSet, which groups any number of jobs. If the
1138   JobSet is started, all the jobs are started together.
1139   Allow Pool, Level, and Schedule overrides.
1140 - Enhance cancel to timeout BSOCK packets after a specific delay.
1141 - Do scheduling by UTC using gmtime_r() in run_conf, scheduler, and   
1142   ua_status.!!! Thanks to Alan Brown for this tip.
1143 - Look at updating Volume Jobs so that Max Volume Jobs = 1 will work
1144   correctly for multiple simultaneous jobs.
1145 - Correct code so that FileSet MD5 is calculated for < and | filename   
1146   generation.
1147 - Implement the Media record flag that indicates that the Volume does disk 
1148   addressing.
1149 - Implement VolAddr, which is used when Volume is addressed like a disk,
1150   and form it from VolFile and VolBlock.
1151 - Make multiple restore jobs for multiple media types specifying 
1152   the proper storage type.
1153 - Fix fast block rejection (stored/read_record.c:118). It passes a null
1154   pointer (rec) to try_repositioning().
1155 - Look at extracting Win data from BackupRead.
1156 - Implement RestoreJobRetention? Maybe better "JobRetention" in a Job,
1157   which would take precidence over the Catalog "JobRetention".
1158 - Implement Label Format in Add and Label console commands.
1159 - Possibly up network buffers to 65K. Put on variable.
1160 - Put email tape request delays on one or more variables. User wants
1161   to cancel the job after a certain time interval.  Maximum Mount Wait?
1162 - Job, Client, Device, Pool, or Volume?
1163   Is it possible to make this a directive which is *optional* in multiple
1164   resources, like Level? If so, I think I'd make it an optional directive
1165   in Job, Client, and Pool, with precedence such that Job overrides Client
1166   which in turn overrides Pool.
1167
1168 - New Storage specifications:
1169   - Want to write to multiple storage devices simultaneously
1170   - Want to write to multiple storage devices sequentially (in one job)
1171   - Want to read/write simultaneously
1172   - Key is MediaType -- it must match
1173
1174   Passed to SD as a sort of BSR record called Storage Specification
1175     Record or SSR.
1176     SSR                    
1177       Next -> Next SSR
1178       MediaType -> Next MediaType
1179       Pool -> Next Pool
1180       Device -> Next Device
1181   Job Resource
1182      Allow multiple Storage specifications
1183      New flags
1184         One Archive = yes
1185         One Device = yes
1186         One Storage = yes
1187         One MediaType = yes
1188         One Pool = yes
1189   Storage
1190      Allow Multiple Pool specifications (note, Pool currently
1191        in Job resource).
1192      Allow Multiple MediaType specifications in Dir conf
1193      Allow Multiple Device specifications in Dir conf
1194      Perhaps keep this in a single SSR
1195   Tie a Volume to a specific device by using a MediaType that 
1196     is contained in only one device.
1197   In SD allow Device to have Multiple MediaTypes
1198
1199 - Ideas from Jerry Scharf:
1200   First let's point out some big pluses that bacula has for this
1201         it's open source
1202         more importantly it's active. Thank you so much for that
1203         even more important, it's not flaky
1204         it has an open access catalog, opening many possibilities
1205         it's pushing toward heterogeneous systems capability
1206   big things:
1207    Macintosh file client
1208         macs are an interesting niche, but I fear a server is a rathole
1209    working bare iron recovery for windows
1210    the option for  inc/diff backups not reset on fileset revision
1211         a) use both change and inode update time against base time
1212         b) do the full catalog check (expensive but accurate)
1213    sizing guide (how much system is needed to back up N systems/files)
1214    consultants on using bacula in building a disaster recovery system
1215    an integration guide
1216         or how to get at fancy things that one could do with bacula
1217    logwatch code for bacula logs (or similar)
1218    linux distro inclusion of bacula (brings good and bad, but necessary)
1219    win2k/XP server capability (icky but you asked)
1220    support for Oracle database ??
1221 ===
1222 - Look at adding SQL server and Exchange support for Windows. 
1223 - Make dev->file and dev->block_num signed integers so that -1 can
1224   be an invalid value which happens with BSR.
1225 - Create VolAddr for disk files in place of VolFile and VolBlock. This
1226   is needed to properly specify ranges.
1227 - Add progress of files/bytes to SD and FD.
1228 - Print warning message if FileId > 4 billion
1229 - do a "messages" before the first prompt in Console
1230 - Client does not show busy during Estimate command.
1231 - Implement Console mtx commands.
1232 - Implement a Mount Command and an Unmount Command where
1233   the users could specify a system command to be performed
1234   to do the mount, after which Bacula could attempt to
1235   read the device. This is for Removeable media such as a CDROM.
1236   - Most likely, this mount command would be invoked explicitly
1237   by the user using the current Console "mount" and "unmount" 
1238   commands -- the Storage Daemon would do the right thing 
1239   depending on the exact nature of the device.
1240   - As with tape drives, when Bacula wanted a new removable
1241   disk mounted, it would unmount the old one, and send a message
1242   to the user, who would then use "mount" as described above 
1243   once he had actually inserted the disk.
1244 - Implement dump/print label to UA
1245 - Spool to disk only when the tape is full, then when a tape is hung move
1246   it to tape.
1247 - bextract is sending everything to the log file ****FIXME****
1248 - Allow multiple Storage specifications (or multiple names on
1249   a single Storage specification) in the Job record. Thus a job 
1250   can be backed up to a number of storage devices.
1251 - Implement some way for the File daemon to contact the Director 
1252   to start a job or pass its DHCP obtained IP number.
1253 - Implement a query tape prompt/replace feature for a console
1254 - Copy console @ code to gnome2-console
1255 - Make sure that Bacula rechecks the tape after the 20 min wait.
1256 - Set IO_NOWAIT on Bacula TCP/IP packets.
1257 - Try doing a raw partition backup and restore by mounting a
1258   Windows partition.
1259 - From Lars Kellers:
1260     Yes, it would allow to highly automatic the request for new tapes. If a 
1261     tape is empty, bacula reads the barcodes (native or simulated), and if 
1262     an unused tape is found, it runs the label command with all the 
1263     necessary parameters.
1264
1265     By the way can bacula automatically "move" an empty/purged volume say 
1266     in the "short" pool to the "long" pool if this pool runs out of volume 
1267     space?
1268 - What to do about "list files job=xxx".
1269 - Look at how fuser works and /proc/PID/fd that is how Nic found the
1270   file descriptor leak in Bacula.
1271 - Implement WrapCounters in Counters.
1272 - Add heartbeat from FD to SD if hb interval expires.
1273 - Can we dynamically change FileSets?
1274 - If pool specified to label command and Label Format is specified,
1275   automatically generate the Volume name.
1276 - Why can't SQL do the filename sort for restore?
1277 - Add ExhautiveRestoreSearch
1278 - Look at the possibility of loading only the necessary 
1279   data into the restore tree (i.e. do it one directory at a
1280   time as the user walks through the tree).
1281 - Possibly use the hash code if the user selects all for a restore command.
1282 - Fix "restore all" to bypass building the tree.
1283 - Prohibit backing up archive device (findlib/find_one.c:128)
1284 - Implement Release Device in the Job resource to unmount a drive.
1285 - Implement Acquire Device in the Job resource to mount a drive,
1286   be sure this works with admin jobs so that the user can get
1287   prompted to insert the correct tape.  Possibly some way to say to
1288   run the job but don't save the files.
1289 - Make things like list where a file is saved case independent for
1290   Windows.
1291 - Use autochanger to handle multiple devices.
1292 - Implement a Recycle command
1293 - Start working on Base jobs.
1294 - Implement UnsavedFiles DB record.
1295 - From Phil Stracchino:
1296   It would probably be a per-client option, and would be called
1297   something like, say, "Automatically purge obsoleted jobs".  What it
1298   would do is, when you successfully complete a Differential backup of a
1299   client, it would automatically purge all Incremental backups for that
1300   client that are rendered redundant by that Differential.  Likewise,
1301   when a Full backup on a client completed, it would automatically purge
1302   all Differential and Incremental jobs obsoleted by that Full backup.
1303   This would let people minimize the number of tapes they're keeping on
1304   hand without having to master the art of retention times.
1305 - When doing a Backup send all attributes back to the Director, who
1306   would then figure out what files have been deleted.
1307 - Currently in mount.c:236 the SD simply creates a Volume. It should have
1308   explicit permission to do so.  It should also mark the tape in error
1309   if there is an error.
1310 - Cancel waiting for Client connect in SD if FD goes away.
1311
1312 - Implement timeout in response() when it should come quickly.
1313 - Implement a Slot priority (loaded/not loaded).
1314 - Implement "vacation" Incremental only saves.
1315 - Implement create "FileSet"?
1316 - Add prefixlinks to where or not where absolute links to FD.
1317 - Issue message to mount a new tape before the rewind.
1318 - Simplified client job initiation for portables.
1319 - If SD cannot open a drive, make it periodically retry.
1320 - Add more of the config info to the tape label.
1321
1322 - Refine SD waiting output:
1323     Device is being positioned
1324     >     Device is being positioned for append
1325     >     Device is being positioned to file x
1326     > 
1327 - Figure out some way to estimate output size and to avoid splitting
1328   a backup across two Volumes -- this could be useful for writing CDROMs
1329   where you really prefer not to have it split -- not serious.
1330 - Have SD compute MD5 or SHA1 and compare to what FD computes.
1331 - Make VolumeToCatalog calculate an MD5 or SHA1 from the 
1332   actual data on the Volume and compare it.                  
1333 - Make bcopy read through bad tape records.
1334 - Program files (i.e. execute a program to read/write files).
1335   Pass read date of last backup, size of file last time.
1336 - Add Signature type to File DB record.
1337 - CD into subdirectory when open()ing files for backup to
1338   speed up things.  Test with testfind().
1339 - Priority job to go to top of list.
1340 - Why are save/restore of device different sizes (sparse?)   Yup! Fix it.
1341 - Implement some way for the Console to dynamically create a job.
1342 - Solaris -I on tar for include list
1343 - Need a verbose mode in restore, perhaps to bsr.
1344 - bscan without -v is too quiet -- perhaps show jobs.
1345 - Add code to reject whole blocks if not wanted on restore.
1346 - Check if we can increase Bacula FD priorty in Win2000
1347 - Make sure the MaxVolFiles is fully implemented in SD
1348 - Check if both CatalogFiles and UseCatalog are set to SD.
1349 - Possibly add email to Watchdog if drive is unmounted too
1350   long and a job is waiting on the drive.
1351 - After unmount, if restore job started, ask to mount.
1352 - Add UA rc and history files.
1353 - put termcap (used by console) in ./configure and
1354   allow -with-termcap-dir.
1355 - Fix Autoprune for Volumes to respect need for full save.
1356 - Compare tape to Client files (attributes, or attributes and data) 
1357 - Make all database Ids 64 bit.
1358 - Allow console commands to detach or run in background.
1359 - Add SD message variables to control operator wait time
1360   - Maximum Operator Wait
1361   - Minimum Message Interval
1362   - Maximum Message Interval
1363 - Send Operator message when cannot read tape label.
1364 - Verify level=Volume (scan only), level=Data (compare of data to file).
1365   Verify level=Catalog, level=InitCatalog
1366 - Events file
1367 - Add keyword search to show command in Console.
1368 - Events : tape has more than xxx bytes.
1369 - Complete code in Bacula Resources -- this will permit
1370   reading a new config file at any time.
1371 - Handle ctl-c in Console
1372 - Implement script driven addition of File daemon to config files.
1373 - Think about how to make Bacula work better with File (non-tape) archives.
1374 - Write Unix emulator for Windows.
1375 - Put memory utilization in Status output of each daemon
1376   if full status requested or if some level of debug on.
1377 - Make database type selectable by .conf files i.e. at runtime
1378 - Set flag for uname -a.  Add to Volume label.
1379 - Restore files modified after date
1380 - SET LD_RUN_PATH=$HOME/mysql/lib/mysql
1381 - Remove duplicate fields from jcr (e.g. jcr.level and jcr.jr.Level, ...).
1382 - Timout a job or terminate if link goes down, or reopen link and query.
1383 - Concept of precious tapes (cannot be reused).
1384 - Make bcopy copy with a single tape drive.
1385 - Permit changing ownership during restore.
1386
1387 - From Phil:
1388   > My suggestion:  Add a feature on the systray menu-icon menu to request
1389   > an immediate backup now.  This would be useful for laptop users who may
1390   > not be on the network when the regular scheduled backup is run.
1391   > 
1392   > My wife's suggestion: Add a setting to the win32 client to allow it to
1393   > shut down the machine after backup is complete (after, of course,
1394   > displaying a "System will shut down in one minute, click here to cancel"
1395   > warning dialog).  This would be useful for sites that want user
1396   > woorkstations to be shut down overnight to save power.
1397   > 
1398
1399 - Autolabel should be specified by DIR instead of SD.
1400 - Storage daemon    
1401   - Add media capacity
1402   - AutoScan (check checksum of tape)
1403   - Format command = "format /dev/nst0"
1404   - MaxRewindTime
1405   - MinRewindTime
1406   - MaxBufferSize
1407   - Seek resolution (usually corresponds to buffer size)
1408   - EODErrorCode=ENOSPC or code
1409   - Partial Read error code
1410   - Partial write error code
1411   - Nonformatted read error
1412   - Nonformatted write error
1413   - WriteProtected error
1414   - IOTimeout
1415   - OpenRetries
1416   - OpenTimeout
1417   - IgnoreCloseErrors=yes
1418   - Tape=yes
1419   - NoRewind=yes
1420 - Pool
1421   - Maxwrites
1422   - Recycle period
1423 - Job
1424   - MaxWarnings
1425   - MaxErrors (job?)
1426 =====
1427 - FD sends unsaved file list to Director at end of job (see
1428   RFC below).
1429 - File daemon should build list of files skipped, and then
1430   at end of save retry and report any errors.
1431 - Write a Storage daemon that uses pipes and
1432   standard Unix programs to write to the tape.
1433   See afbackup.
1434 - Need something that monitors the JCR queue and
1435   times out jobs by asking the deamons where they are.
1436 - Enhance Jmsg code to permit buffering and saving to disk.
1437 - device driver = "xxxx" for drives.
1438 - Verify from Volume
1439 - Ensure that /dev/null works
1440 - Need report class for messages. Perhaps
1441   report resource where report=group of messages
1442 - enhance scan_attrib and rename scan_jobtype, and
1443   fill in code for "since" option 
1444 - Director needs a time after which the report status is sent
1445   anyway -- or better yet, a retry time for the job.
1446 - Don't reschedule a job if previous incarnation is still running.
1447 - Some way to automatically backup everything is needed????
1448 - Need a structure for pending actions:
1449   - buffered messages
1450   - termination status (part of buffered msgs?)
1451 - Drive management
1452   Read, Write, Clean, Delete
1453 - Login to Bacula; Bacula users with different permissions:
1454    owner, group, user, quotas
1455 - Store info on each file system type (probably in the job header on tape.
1456   This could be the output of df; or perhaps some sort of /etc/mtab record.
1457
1458 ========= ideas ===============
1459 From: "Jerry K. Schieffer" <jerry@skylinetechnology.com>
1460 To: <kern@sibbald.com>
1461 Subject: RE: [Bacula-users] future large programming jobs
1462 Date: Thu, 26 Feb 2004 11:34:54 -0600
1463
1464 I noticed the subject thread and thought I would offer the following
1465 merely as sources of ideas, i.e. something to think about, not even as
1466 strong as a request.  In my former life (before retiring) I often
1467 dealt with backups and storage management issues/products as a
1468 developer and as a consultant.  I am currently migrating my personal
1469 network from amanda to bacula specifically because of the ability to
1470 cross media boundaries during storing backups.
1471 Are you familiar with the commercial product called ADSM (I think IBM
1472 now sells it under the Tivoli label)?  It has a couple of interesting
1473 ideas that may apply to the following topics.
1474
1475 1. Migration:  Consider that when you need to restore a system, there
1476 may be pressure to hurry.  If all the information for a single client
1477 can eventually end up on the same media (and in chronological order),
1478 the restore is facillitated by not having to search past information
1479 from other clients.  ADSM has the concept of "client affinity" that
1480 may be associated with it's storage pools.  It seems to me that this
1481 concept (as an optional feature) might fit in your architecture for
1482 migration.
1483
1484 ADSM also has the concept of defining one or more storage pools as
1485 "copy pools" (almost mirrors, but only in the sense of contents).
1486 These pools provide the ability to have duplicte data stored both
1487 onsite and offsite.  The copy process can be scheduled to be handled
1488 by their storage manager during periods when there is no backup
1489 activity.  Again, the migration process might be a place to consider
1490 implementing something like this.
1491
1492 >
1493 > It strikes me that it would be very nice to be able to do things
1494 like
1495 > have the Job(s) backing up the machines run, and once they have all
1496 > completed, start a migration job to copy the data from disks Volumes
1497 to
1498 > a tape library and then to offsite storage. Maybe this can already
1499 be
1500 > done with some careful scheduling and Job prioritzation; the events
1501 > mechanism described below would probably make it very easy.
1502
1503 This is the goal. In the first step (before events), you simply
1504 schedule
1505 the Migration to tape later.
1506
1507 2. Base jobs:  In ADSM, each copy of each stored file is tracked in
1508 the database.  Once a file (unique by path and metadata such as dates,
1509 size, ownership, etc.) is in a copy pool, no more copies are made.  In
1510 other words, when you start ADSM, it begins like your concept of a
1511 base job.  After that it is in the "incremental" mode.  You can
1512 configure the number of "generations" of files to be retained, plus a
1513 retention date after which even old generations are purged.  The
1514 database tracks the contents of media and projects the percentage of
1515 each volume that is valid.  When the valid content of a volume drops
1516 below a configured percentage, the valid data are migrated to another
1517 volume and the old volume is marked as empty.  Note, this requires
1518 ADSM to have an idea of the contents of a client, i.e. marking the
1519 database when an existing file was deleted, but this would solve your
1520 issue of restoring a client without restoring deleted files.
1521
1522 This is pretty far from what bacula now does, but if you are going to
1523 rip things up for Base jobs,.....
1524 Also, the benefits of this are huge for very large shops, especially
1525 with media robots, but are a pain for shops with manual media
1526 mounting.
1527
1528 >
1529 > Base jobs sound pretty useful, but I'm not dying for them.
1530
1531 Nobody is dying for them, but when you see what it does, you will die
1532 without it.
1533
1534 3. Restoring deleted files:  Since I think my comments in (2) above
1535 have low probability of implementation, I'll also suggest that you
1536 could approach the issue of deleted files by a mechanism of having the
1537 fd report to the dir, a list of all files on the client for every
1538 backup job.  The dir could note in the database entry for each file
1539 the date that the file was seen.  Then if a restore as of date X takes
1540 place, only files that exist from before X until after X would be
1541 restored.  Probably the major cost here is the extra date container in
1542 each row of the files table.
1543
1544 Thanks for "listening".  I hope some of this helps.  If you want to
1545 contact me, please send me an email - I read some but not all of the
1546 mailing list traffic and might miss a reply there.
1547
1548 Please accept my compliments for bacula.  It is doing a great job for
1549 me!!  I sympathize with you in the need to wrestle with excelence in
1550 execution vs. excelence in feature inclusion.
1551
1552 Regards,
1553 Jerry Schieffer
1554
1555 ==============================
1556
1557 Longer term to do:
1558 - Design at hierarchial storage for Bacula. Migration and Clone. 
1559 - Implement FSM (File System Modules).
1560 - Audit M_ error codes to ensure they are correct and consistent.
1561 - Add variable break characters to lex analyzer.
1562   Either a bit mask or a string of chars so that
1563   the caller can change the break characters.
1564 - Make a single T_BREAK to replace T_COMMA, etc.
1565 - Ensure that File daemon and Storage daemon can
1566   continue a save if the Director goes down (this
1567   is NOT currently the case). Must detect socket error,
1568   buffer messages for later. 
1569 - Enhance time/duration input to allow multiple qualifiers e.g. 3d2h
1570 - Add ability to backup to two Storage devices (two SD sessions) at
1571   the same time -- e.g. onsite, offsite.
1572 - Compress or consolidate Volumes of old possibly deleted files. Perhaps
1573   someway to do so with every volume that has less than x% valid 
1574   files.
1575
1576
1577 Migration: Move a backup from one Volume to another
1578 Clone:     Copy a backup -- two Volumes
1579
1580
1581 ======================================================
1582         Base Jobs design
1583 It is somewhat like a Full save becomes an incremental since
1584 the Base job (or jobs) plus other non-base files.
1585 Need:
1586 - A Base backup is same as Full backup, just different type.
1587 - New BaseFiles table that contains:
1588     BaseId - index
1589     BaseJobId - Base JobId referenced for this FileId (needed ???)
1590     JobId - JobId currently running
1591     FileId - File not backed up, exists in Base Job
1592     FileIndex - FileIndex from Base Job.
1593   i.e. for each base file that exists but is not saved because
1594   it has not changed, the File daemon sends the JobId, BaseId,
1595   FileId, FileIndex back to the Director who creates the DB entry.
1596 - To initiate a Base save, the Director sends the FD 
1597   the FileId, and full filename for each file in the Base.
1598 - When the FD finds a Base file, he requests the Director to
1599   send him the full File entry (stat packet plus MD5), or
1600   conversely, the FD sends it to the Director and the Director
1601   says yes or no. This can be quite rapid if the FileId is kept
1602   by the FD for each Base Filename.          
1603 - It is probably better to have the comparison done by the FD
1604   despite the fact that the File entry must be sent across the
1605   network.
1606 - An alternative would be to send the FD the whole File entry
1607   from the start. The disadvantage is that it requires a lot of
1608   space. The advantage is that it requires less communications
1609   during the save.
1610 - The Job record must be updated to indicate that one or more
1611   Bases were used.
1612 - At end of Job, FD returns:   
1613    1. Count of base files/bytes not written to tape (i.e. matches)
1614    2. Count of base file that were saved i.e. had changed.
1615 - No tape record would be written for a Base file that matches, in the
1616   same way that no tape record is written for Incremental jobs where
1617   the file is not saved because it is unchanged.
1618 - On a restore, all the Base file records must explicitly be
1619   found from the BaseFile tape. I.e. for each Full save that is marked
1620   to have one or more Base Jobs, search the BaseFile for all occurrences
1621   of JobId.
1622 - An optimization might be to make the BaseFile have:
1623      JobId
1624      BaseId
1625      FileId
1626   plus
1627      FileIndex
1628   This would avoid the need to explicitly fetch each File record for
1629   the Base job.  The Base Job record will be fetched to get the
1630   VolSessionId and VolSessionTime.
1631 =========================================================  
1632
1633
1634
1635 =====
1636    Multiple drive autochanger data:  see Alan Brown
1637    mtx -f xxx unloadStorage Element 1 is Already Full(drive 0 was empty)
1638    Unloading Data Transfer Element into Storage Element 1...source Element 
1639    Address 480 is Empty
1640
1641    (drive 0 was empty and so was slot 1)
1642    >   mtx -f xxx load 15 0
1643    no response, just returns to the command prompt when complete.
1644    >   mtx -f xxx status  Storage Changer /dev/changer:2 Drives, 60 Slots ( 2 Import/Export )
1645    Data Transfer Element 0:Full (Storage Element 15 Loaded):VolumeTag = HX001
1646    Data Transfer Element 1:Empty
1647          Storage Element 1:Empty
1648          Storage Element 2:Full :VolumeTag=HX002
1649          Storage Element 3:Full :VolumeTag=HX003
1650          Storage Element 4:Full :VolumeTag=HX004
1651          Storage Element 5:Full :VolumeTag=HX005
1652          Storage Element 6:Full :VolumeTag=HX006
1653          Storage Element 7:Full :VolumeTag=HX007
1654          Storage Element 8:Full :VolumeTag=HX008
1655          Storage Element 9:Full :VolumeTag=HX009
1656          Storage Element 10:Full :VolumeTag=HX010
1657          Storage Element 11:Empty
1658          Storage Element 12:Empty
1659          Storage Element 13:Empty
1660          Storage Element 14:Empty
1661          Storage Element 15:Empty
1662          Storage Element 16:Empty....
1663          Storage Element 28:Empty
1664          Storage Element 29:Full :VolumeTag=CLNU01L1
1665          Storage Element 30:Empty....
1666          Storage Element 57:Empty
1667          Storage Element 58:Full :VolumeTag=NEX261L2
1668          Storage Element 59 IMPORT/EXPORT:Empty
1669          Storage Element 60 IMPORT/EXPORT:Empty
1670    $  mtx -f xxx unload
1671    Unloading Data Transfer Element into Storage Element 15...done
1672
1673    (just to verify it remembers where it came from, however it can be
1674     overrriden with mtx unload {slotnumber} to go to any storage slot.)
1675    Configuration wise:
1676    There needs to be a table of drive # to devices somewhere - If there are
1677    multiple changers or drives there may not be a 1:1 correspondance between
1678    changer drive number and system device name - and depending on the way the
1679    drives are hooked up to scsi busses, they may not be linearly numbered
1680    from an offset point either.something like 
1681
1682    Autochanger drives = 2
1683    Autochanger drive 0 = /dev/nst1
1684    Autochanger drive 1 = /dev/nst2
1685    IMHO, it would be _safest_ to use explicit mtx unload commands at all
1686    times, not just for multidrive changers. For a 1 drive changer, that's
1687    just:
1688
1689    mtx load xx 0
1690    mtx unload xx 0
1691
1692    MTX's manpage (1.2.15):
1693          unload [<slotnum>] [ <drivenum> ]
1694                     Unloads media from drive  <drivenum>  into  slot
1695                     <slotnum>. If <drivenum> is omitted, defaults to
1696                     drive 0 (as do all commands).  If  <slotnum>  is
1697                     omitted, defaults to the slot that the drive was
1698                     loaded from. Note that there's currently no  way
1699                     to  say  'unload  drive 1's media to the slot it
1700                     came from', other than to  explicitly  use  that
1701                     slot number as the destination.AB
1702 ====
1703
1704 ====
1705 SCSI info:
1706 FreeBSD
1707 undef# camcontrol devlist
1708 <WANGTEK 51000  SCSI M74H 12B3>    at scbus0 target 2 lun 0 (pass0,sa0)
1709 <ARCHIVE 4586XX 28887-XXX 4BGD>    at scbus0 target 4 lun 0 (pass1,sa1)
1710 <ARCHIVE 4586XX 28887-XXX 4BGD>    at scbus0 target 4 lun 1 (pass2)
1711
1712 tapeinfo -f /dev/sg0 with a bad tape in drive 1:
1713 [kern@rufus mtx-1.2.17kes]$ ./tapeinfo -f /dev/sg0
1714 Product Type: Tape Drive
1715 Vendor ID: 'HP      '
1716 Product ID: 'C5713A          '
1717 Revision: 'H107'
1718 Attached Changer: No
1719 TapeAlert[3]:   Hard Error: Uncorrectable read/write error.
1720 TapeAlert[20]:    Clean Now: The tape drive neads cleaning NOW.
1721 MinBlock:1
1722 MaxBlock:16777215
1723 SCSI ID: 5
1724 SCSI LUN: 0
1725 Ready: yes
1726 BufferedMode: yes
1727 Medium Type: Not Loaded
1728 Density Code: 0x26
1729 BlockSize: 0
1730 DataCompEnabled: yes
1731 DataCompCapable: yes
1732 DataDeCompEnabled: yes
1733 CompType: 0x20
1734 DeCompType: 0x0
1735 Block Position: 0
1736 =====
1737
1738 ====
1739    Handling removable disks
1740
1741    From: Karl Cunningham <karlc@keckec.com>
1742
1743    My backups are only to hard disk these days, in removable bays. This is my
1744    idea of how a backup to hard disk would work more smoothly. Some of these
1745    things Bacula does already, but I mention them for completeness. If others
1746    have better ways to do this, I'd like to hear about it.
1747
1748    1. Accommodate several disks, rotated similar to how tapes are.  Identified
1749    by partition volume ID or perhaps by the name of a subdirectory.
1750    2. Abort & notify the admin if the wrong disk is in the bay.
1751    3. Write backups to different subdirectories for each machine to be backed
1752    up.
1753    4. Volumes (files) get created as needed in the proper subdirectory, one
1754    for each backup.
1755    5. When a disk is recycled, remove or zero all old backup files. This is
1756    important as the disk being recycled may be close to full. This may be
1757    better done manually since the backup files for many machines may be
1758    scattered in many subdirectories.
1759 ====
1760
1761
1762 === Done
1763 - Why the heck doesn't bacula drop root priviledges before connecting to
1764   the DB?
1765 - Look at using posix_fadvise(2) for backups -- see bug #751.
1766   Possibly add the code at findlib/bfile.c:795
1767 /* TCP socket options */
1768 #define TCP_KEEPIDLE            4       /* Start keeplives after this period */
1769 - Fix bnet_connect() code to set a timer and to use time to
1770   measure the time.
1771 - Implement 4th argument to make_catalog_backup that passes hostname.
1772 - Test FIFO backup/restore -- make regression
1773 - Please mount volume "xxx" on Storage device ... should also list
1774   Pool and MediaType in case user needs to create a new volume.
1775 - On restore add Restore Client, Original Client.
1776 01-Apr 00:42 rufus-dir: Start Backup JobId 55, Job=kernsave.2007-04-01_00.42.48
1777 01-Apr 00:42 rufus-sd: Python SD JobStart: JobId=55 Client=Rufus
1778 01-Apr 00:42 rufus-dir: Created new Volume "Full0001" in catalog.
1779 01-Apr 00:42 rufus-dir: Using Device "File"
1780 01-Apr 00:42 rufus-sd: kernsave.2007-04-01_00.42.48 Warning: Device "File" (/tmp) not configured to autolabel Volumes.
1781 01-Apr 00:42 rufus-sd: kernsave.2007-04-01_00.42.48 Warning: Device "File" (/tmp) not configured to autolabel Volumes.
1782 01-Apr 00:42 rufus-sd: Please mount Volume "Full0001" on Storage Device "File" (/tmp) for Job kernsave.2007-04-01_00.42.48
1783 01-Apr 00:44 rufus-sd: Wrote label to prelabeled Volume "Full0001" on device "File" (/tmp)
1784 - Check if gnome-console works with TLS.
1785 - the director seg faulted when I omitted the pool directive from a 
1786   job resource.  I was experimenting and thought it redundant that I had 
1787   specified Pool, Full Backup Pool. and Differential Backup Pool. but 
1788   apparently not.  This  happened when I removed the pool directive and 
1789   started the director.
1790 - Add Where: client:/.... to restore job report.
1791 - Ensure that moving a purged Volume in ua_purge.c to the RecyclePool
1792   does the right thing.
1793 - FD-SD quick disconnect
1794 - Building the in memory restore tree is slow.
1795 - Erabt if min_block_size > max_block_size
1796 - Add the ability to consolidate old backup sets (basically do a restore
1797   to tape and appropriately update the catalog). Compress Volume sets.
1798   Might need to spool via file is only one drive is available.
1799 - Why doesn't @"xxx abc" work in a conf file?
1800 - Don't restore Solaris Door files:
1801    #define   S_IFDOOR   in st_mode.
1802   see: http://docs.sun.com/app/docs/doc/816-5173/6mbb8ae23?a=view#indexterm-360
1803 - Figure out how to recycle Scratch volumes back to the Scratch Pool.
1804 - Implement Despooling data status.
1805 - Use E'xxx' to escape PostgreSQL strings.
1806 - Look at mincore: http://insights.oetiker.ch/linux/fadvise.html
1807 - Unicode input http://en.wikipedia.org/wiki/Byte_Order_Mark
1808 - Look at moving the Storage directive from the Job to the
1809   Pool in the default conf files.
1810 - Look at in src/filed/backup.c
1811 >    pm_strcpy(ff_pkt->fname, ff_pkt->fname_save);
1812 >    pm_strcpy(ff_pkt->link, ff_pkt->link_save);
1813 - Add Catalog = to Pool resource so that pools will exist
1814   in only one catalog -- currently Pools are "global".
1815 - Add TLS to bat (should be done).
1816 === Duplicate jobs ===
1817    hese apply only to backup jobs.
1818
1819    1.  Allow Duplicate Jobs  = Yes | No | Higher   (Yes)
1820
1821    2. Duplicate Job Interval = <time-interval>   (0)
1822
1823    The defaults are in parenthesis and would produce the same behavior as today.
1824
1825    If Allow Duplicate Jobs is set to No, then any job starting while a job of the
1826    same name is running will be canceled.
1827
1828    If Allow Duplicate Jobs is set to Higher, then any job starting with the same
1829    or lower level will be canceled, but any job with a Higher level will start.
1830    The Levels are from High to Low:  Full, Differential, Incremental
1831
1832    Finally, if you have Duplicate Job Interval set to a non-zero value, any job
1833    of the same name which starts <time-interval> after a previous job of the
1834    same name would run, any one that starts within <time-interval> would be
1835    subject to the above rules.  Another way of looking at it is that the Allow
1836    Duplicate Jobs directive will only apply after <time-interval> of when the
1837    previous job finished (i.e. it is the minimum interval between jobs).
1838
1839    So in summary:
1840
1841    Allow Duplicate Jobs = Yes | No | HigherLevel | CancelLowerLevel  (Yes)
1842
1843    Where HigherLevel cancels any waiting job but not any running job.
1844    Where CancelLowerLevel is same as HigherLevel but cancels any running job or
1845                waiting job.
1846
1847    Duplicate Job Proximity = <time-interval>   (0)
1848
1849     My suggestion was to define it as the minimum guard time between
1850     executions of a specific job -- ie, if a job was scheduled within Job
1851     Proximity number of seconds, it would be considered a duplicate and
1852     consolidated.
1853
1854     Skip  = Do not allow two or more jobs with the same name to run
1855     simultaneously within the proximity interval. The second and subsequent
1856     jobs are skipped without further processing (other than to note the job
1857     and exit immediately), and are not considered errors.
1858
1859     Fail = The second and subsequent jobs that attempt to run during the
1860     proximity interval are cancelled and treated as error-terminated jobs.
1861
1862     Promote = If a job is running, and a second/subsequent job of higher
1863     level attempts to start, the running job is promoted to the higher level
1864     of processing using the resources already allocated, and the subsequent
1865     job is treated as in Skip above.
1866
1867
1868 DuplicateJobs {
1869   Name = "xxx"
1870   Description = "xxx"
1871   Allow = yes|no          (no = default)
1872
1873   AllowHigherLevel = yes|no    (no)
1874
1875   AllowLowerLevel = yes|no     (no)
1876
1877   AllowSameLevel = yes|no 
1878
1879   Cancel = Running | New        (no)
1880
1881   CancelledStatus = Fail | Skip  (fail)
1882
1883   Job Proximity = <time-interval>  (0)
1884   My suggestion was to define it as the minimum guard time between
1885   executions of a specific job -- ie, if a job was scheduled within Job
1886   Proximity number of seconds, it would be considered a duplicate and
1887   consolidated.
1888
1889 }
1890
1891 ===