]> git.sur5r.net Git - bacula/bacula/blobdiff - bacula/kernstodo
- Implement restore of a single directory.
[bacula/bacula] / bacula / kernstodo
index 9aa767fbd2293ea490ae02529d7a8fe83a102936..0ed8b654ae2e30dcc443ad7bbcc7574b8594959e 100644 (file)
-                 Kern's ToDo List
-                 27 January 2004
+                    Kern's ToDo List
+                     26 April 2005
+
+Major development:      
+Project                     Developer
+=======                     =========                         
+IPv6_2                      Meno Abels
+TLS                         Landon Fuller
+Unicode in Win32            Thorsten Engle
+VSS                         Thorsten Engle (under consideration)
+Version 1.37                Kern (see below)
+========================================================
+
+1.37 Major Projects:
+#3   Migration (Move, Copy, Archive Jobs)
+     (probably not this version)
+#7   Single Job Writing to Multiple Storage Devices
+     (probably not this version)
+
+##   Integrate web-bacula into a new Bacula project with
+     bimagemgr.
+##   Consider moving docs to their own project.
+##   Move rescue to its own project.
+
+Autochangers:
+- 3. Prevent two drives requesting the same Volume in any given
+     autochanger, by checking if a Volume is mounted on another drive
+     in an Autochanger.
+- 7. Implement new Console commands to allow offlining/reserving drives,
+     and possibly manipulating the autochanger (much asked for).
+-    Make "update slots" when pointing to Autochanger, remove
+     all Volumes from other drives.  "update slots all-drives"?
+
+
+For 1.37:
+- Python:
+  - Make a callback when Rerun failed levels is called.
+  - Give Python program access to Scheduled jobs.
+  - Python script to save with Python, not save, save with Bacula.
+  - Python script to do backup.
+  - What events?
+  - Change the Priority, Client, Storage, JobStatus (error) 
+    at the start of a job.
+  - Make sure that Python has access to Client address/port so that
+    it can check if Clients are alive.
+
+- If drive is opened read/write, close it and re-open
+  read-only if doing a restore, and vice-versa.
+- SD crashes after a tape restore then doing a backup. 
+- Implement some way to turn off automatic pruning in Jobs.
+- Implement a way an Admin Job can prune, possibly multiple
+  clients -- Python script?
+- Implement "NewVolumeEachJob = yes|no" in Dir.
+- Create a new GUI chapter explaining all the GUI programs.
+- Look at Preben's acl.c error handling code.
+- Implement Maximum Job Spool Size
+- Remove all old Device resource code in Dir and code to pass it
+  back in SD -- better, rework it to pass back device statistics.
+- Finish implementation of passing all Storage and Device needs to
+  the SD.
+- Check locking of resources -- be sure to lock devices where previously
+  resources were locked. 
+- Add global lock on all devices when creating a device structure.
+- Look at adding full Volume and Pool information to a Volume 
+  label so that bscan can get *all* the info. 
+- Fix FD JobType to be set before RunBeforeJob in FD.
+
+
+Ideas:
+- Use non-blocking network I/O but if no data is available, use
+  select().
+- Use gather write() for network I/O.
+- Autorestart on crash.
+
+Maybe in 1.37:
+- If the user puts "Purge Oldest Volume = yes" or "Recycle Oldest Volume = yes"
+  and there is only one volume in the pool, refuse to do it -- otherwise
+  he fills the Volume, then immediately starts reusing it.
+- Implement copies and stripes.
+- Add history file to console.
+- Each file on tape creates a JobMedia record. Peter has 4 million
+  files spread over 10000 tape files and four tapes. A restore takes
+  16 hours to build the restore list.
+- By the way: on page http://www.bacula.org/?page=tapedrives , at the 
+  bottom, the link to "Tape Testing Chapter" is broken. It goes to 
+  /html-manual/... while the others point to /rel-manual/...
+- OS linux 2.4
+  1) ADIC, DLT, FastStor 4000, 7*20GB
+  2) Sun, DDS, (Suns name unknown - Archive Python DDS drive), 1.2GB
+  3) Wangtek, QIC, 6525ES, 525MB (fixed block size 1k, block size etc. 
+  driver dependent - aic7xxx works, ncr53c8xx with problems)
+  4) HP, DDS-2, C1553A, 6*4GB
+- Doc the following
+  to activate, check or disable the hardware compression feature on my 
+  exb-8900 i use the exabyte "MammothTool" you can get it here:
+  http://www.exabyte.com/support/online/downloads/index.cfm
+  There is a solaris version of this tool. With option -C 0 or 1 you can 
+  disable or activate compression. Start this tool without any options for 
+  a small reference.
+- Linux Sony LIB-D81, AIT-3 library works.
+- Device resource needs the "name" of the SD.
+- Add and option to see if the file size changed during backup.
+- Windows restore:
+  data-fd: RestoreFiles.2004-12-07_15.56.42 Error:
+  > ..\findlib\../../findlib/create_file.c:275 Could not open e:/: ERR=Der
+  > Prozess kann nicht auf die Datei zugreifen, da sie von einem anderen
+  > Prozess verwendet wird.
+  Restore restores all files, but then fails at the end trying
+  to set the attributes of e:
+- Add better documentation on how restores can be done
+  from failed jobs.
+- Resolve the problem between Device name and Archive name,
+  and fix SD messages.
+- Make sure SD deletes spool files on error exit.
+- Delete old spool files when SD starts.
+- Add a restore directory-x
+- When labeling tapes, if you enter 000026, Bacula uses
+  the tape index rather than the Volume name 000026.
+- Max Vols limit in Pool off by one?
+- Tell the "restore" user when browsing is no longer possible.
+- Require restore via the restore command or make a restore Job
+  get the bootstrap file.
+- Make bootstrap file handle multiple MediaTypes (SD)
+- Add offline tape command to Bacula console.
+- Document that Bootstrap files can be written with cataloging
+  turned off.
+- Upgrade to MySQL 4.1.1 See:  
+  http://dev.mysql.com/doc/mysql/en/Server_SQL_mode.html
+- Add client version to the Client name line that prints in
+  the Job report.
+- Bug: 
+  Enter MediaId or Volume name: 32
+  Enter new Volume name: DLT-20Dec04
+  Automatically selected Pool: Default
+  Connecting to Storage daemon DLTDrive at 192.168.68.104:9103 ...
+  Sending relabel command from "DLT-28Jun03" to "DLT-20Dec04" ...
+  block.c:552 Write error at 0:0 on device /dev/nst0. ERR=Bad file descriptor.
+  Error writing final EOF to tape. This tape may not be readable.
+  dev.c:1207 ioctl MTWEOF error on /dev/nst0. ERR=Permission denied.
+  askdir.c:219 NULL Volume name. This shouldn't happen!!!
+  3912 Failed to label Volume: ERR=dev.c:1207 ioctl MTWEOF error on /dev/nst0. ERR=Permission denied.
+
+  Label command failed for Volume DLT-20Dec04.
+  Do not forget to mount the drive!!!
+- Bug: if a job is manually scheduled to run later, it does not appear
+  in any status report and cannot be cancelled.
+
+Regression tests (Scott):
+- Add Pool/Storage override regression test.
+- Add delete JobId to regression.
+- Add a regression test for dbcheck.  
+- New test to add bscan to four-concurrent-jobs regression,
+  i.e. after the four-concurrent jobs zap the
+  database as is done in the bscan-test, then use bscan to
+  restore the database, do a restore and compare with the
+  original.
+- Add restore of specific JobId to regression (item 3
+  on the restore prompt)
+- Add IPv6 to regression
+- Add database test to regression. Test each function like delete,
+  purge, ...
+
+- AntiVir can slow down backups on Win32 systems. 
+- Win32 systems with FAT32 can be much slower than NTFS for
+  more than 1000 files per directory.
+
+
+1.37 Possibilities:
+- A HOLD command to stop all jobs from starting.
+- A PAUSE command to pause all running jobs ==> release the
+  drive.
+- Media Type = LTO,LTO-2,LTO-3
+  Media Type Read = LTO,LTO2,LTO3
+  Media Type Write = LTO2, LTO3
+
+=== From Carsten Menke <bootsy52@gmx.net>
+
+Following is a list of what I think in the situations where I'm faced with, 
+could be a usefull enhancement to bacula, which I'm certain other users will 
+benefit from as well.
+
+1. NextJob/NextJobs Directive within a Job Resource in the form of
+    NextJobs = job1,job2.
+
+    Why:
+    I currently solved the problem with running multiple jobs each after each
+    by setting the Max Wait Time for a job to 8 hours, and give
+    the jobs different Priorities. However, there scenarios where
+    1 Job is directly depending on another job, so if the former job fails,
+    the job after it needn't to be run
+    while maybe other jobs should run despite of that
+
+Example:
+  A Backup Job and a Verify job, if the backup job fails there is no need to run
+  the verify job, as the backup job already failed. However, one may like
+  to backup the Catalog to disk despite of that the main backup job failed.
+
+Notes:
+  I see that this is related to the Event Handlers which are on the ToDo
+  list, also it is maybe a good idea to check for the return value and
+  execute different actions based on the return value
+
+
+3. offline capability to bconsole
+
+    Why:
+    Currently I use a script which I execute within the last Job via the
+    RunAfterJob Directive, to release and eject the tape.
+    So I have to call bconsole "release=Storage-Name" and afterwards
+    mt -f /dev/nst0 eject to get the tape out.
+
+    If I have multiple Storage Devices, than these may not be /dev/nst0 and
+    I have to modify the script or call it with parameters etc.
+    This would actually not be needed, as everything is already defined
+    in bacula-sd.conf and if   I can invoke bconsole with the
+    storage name via $1 in the script than I'm done and information is
+    not duplicated.
+
+4. %s for Storage Name added to the chars being substituted in "RunAfterJob"
+
+    Why:
+
+    For the reason mentioned in 3. to have the ability to call a
+    script with /scripts/foobar %s and in the script use $1
+    to pass the Storage Name to bconsole
+
+5. Setting Volume State within a Job Resource
+
+    Why:
+    Instead of using "Maximum Volume Jobs" in the Pool Resource,
+    I would have the possibilty to define
+    in a Job Resource that after this certain job is run, the Volume State
+    should be set to "Volume State = Used", this give more flexibility (IMHO).
+
+6. Localization of Bacula Messages
+
+    Why:
+    Unfortunatley many,many people I work with don't speak english very well.
+    So if at least the Reporting messages would be localized then they
+    would  understand that they have to change the tape,etc. etc.
+
+    I volunteer to do the german translations, and if I can convince my wife also
+    french and Morre (western african language).
+
+7. OK, this is evil, probably bound to security risks and maybe not possible
+    due to the design of bacula.
+
+    Implementation of Backtics ( `command` ) for shell comand execution to
+    the "Label Format" Directive.
+
+Why:
+
+    Currently I have defined BACULA_DAY_OF_WEEK="day1|day2..." resulting in
+    Label Format = "HolyBackup-${BACULA_DAY_OF_WEEK[${WeekDay}]}". If I could
+    use backticks than I could use "Label Format = HolyBackup-`date +%A` to have
+    the localized name for the day of the week appended to the
+    format string. Then I have the tape labeled automatically with weekday
+    name in the correct language.
+==========
+- Make output from status use html table tags for nicely 
+  presenting in a browser.
+- Can one write tapes faster with 8192 byte block sizes?
+- Specify a single directory to restore.
+- Document security problems with the same password for everyone in
+  rpm and Win32 releases.
+- Browse generations of files.
+- I've seen an error when my catalog's File table fills up.  I
+   then have to recreate the File table with a larger maximum row
+   size.  Relevant information is at
+   http://dev.mysql.com/doc/mysql/en/Full_table.html ; I think the
+   "Installing and Configuring MySQL" chapter should talk a bit
+   about this potential problem, and recommend a solution.
+- For Solaris must use POSIX awk.
+- Want speed of writing to tape while despooling.
+- Supported autochanger:
+OS: Linux
+Man.: HP
+Media: LTO-2
+Model: SSL1016
+Slots: 16
+Cap: 200GB
+- Supported drive:
+  Wangtek 6525ES (SCSI-1 QIC drive, 525MB), under Linux 2.4.something, 
+  bacula 1.36.0/1 works with blocksize 16k INSIDE bacula-sd.conf.
+- Add regex from http://www.pcre.org to Bacula for Win32.
+- Use only shell tools no make in CDROM package.
+- Document PostgreSQL performance problems bug 131.
+- Document testing
+- Document that ChangerDevice is used for Alert command.
+- Include within include does it work?
+- Implement a Pool of type Cleaning?
+- Implement VolReadTime and VolWriteTime in SD
+- Modify Backing up Your Database to include a bootstrap file.
+- Think about making certain database errors fatal.
+- Look at correcting the time jump in the scheduler for daylight
+  savings time changes.
+- Add a "real" timer to network connections.
+- Write non-optimized bsrs from the JobMedia and Media records,
+  even after Files are pruned.
+- Promote to Full = Time period 
+- Despool attributes simultaneously with data in a separate
+  thread, rejoined at end of data spooling.
+- Implement Files/Bytes,... stats for restore job.
+- Implement Total Bytes Written, ... for restore job.
+- Check dates entered by user for correctness (month/day/... ranges)
+- Compress restore Volume listing by date and first file.
+- Look at patches/bacula_db.b2z postgresql that loops during restore.
+  See Gregory Wright.
+- Perhaps add read/write programs and/or plugins to FileSets.
+- How to handle backing up portables ...
+- Add some sort of guaranteed Interval for upgrading jobs.
+- Can we write the state file after every job terminates? On Win32
+  the system crashes and the state file is not updated.
+- Limit bandwidth
 
 Documentation to do: (any release a little bit at a time)
-- Document running a test version.
+- Doc to do unmount before removing magazine.
+- Alternative to static linking "ldd prog" save all binaries listed,
+  restore them and point LD_LIBRARY_PATH to them.
+- Document add "</dev/null >/dev/null 2>&1" to the bacula-fd command line
 - Document query file format.
-- Document static linking
+- Add more documentation for bsr files.
 - Document problems with Verify and pruning.
 - Document how to use multiple databases.
-- For FreeBSD typical /dev/nrsa0 and for mtx /dev/pass1
 - VXA drives have a "cleaning required"
   indicator, but Exabyte recommends preventive cleaning after every 75
   hours of operation.
   From Phil:
     In this context, it should be noted that Exabyte has a command-line
-    vxatool utility available for free download.  (The current version is
+    vxatool utility available for free download. (The current version is
     vxatool-3.72.) It can get diagnostic info, read, write and erase tapes,
     test the drive, unload tapes, change drive settings, flash new firmware,
     etc.
     Of particular interest in this context is that vxatool <device> -i will
     report, among other details, the time since last cleaning in tape motion
-    minutes.  This information can be retrieved (and settings changed, for
+    minutes. This information can be retrieved (and settings changed, for
     that matter) through the generic-SCSI device even when Bacula has the
-    regular tape device locked.  (Needless to say, I don't recommend
+    regular tape device locked. (Needless to say, I don't recommend
     changing tape settings while a job is running.)
 - Lookup HP cleaning recommendations.
 - Lookup HP tape replacement recommendations (see trouble shooting autochanger)
-- Create a man page for each binary (Debian package requirement).
+- Document doing table repair
+  
           
 Testing to do: (painful)
-- Test drive polling!
-- that ALL console command line options work and are always implemented
-- blocksize recognition code.
-- Test if rewind at end of tape waits for tape to rewind.
-- Test cancel at EOM.       
-
-For 1.33 Testing/Documentation:
-- Newly labeled tapes are chosen before ones already in use.
-- Document new alias records in Director. SDAddress SDDeviceName, SDPassword.
-  FDPassword, FDAddress, DBAddress, DBPort, DBPassword.
-- Document new Include/Exclude ...
-- Add test of exclusion, test multiple Include {} statements.
-- Add counter variable test.
-- Document ln -sf /usr/lib/libncurses.so /usr/lib/libtermcap.so
-  and install the esound-dev  package for compiling Console on SuSE.
-  This should read 'Document LDFLAGS="-L/usr/lib/termcap" ... '
-- Add an example of using a FIFO in dirdconf.wml 
-- Add an item to the FAQ about running jobs in different timezones.
-- Add some examples of job editing codes.
-
-- Document Dan's new --with-dir-user, ... options.
-  See userid.txt
-- Figure out how to use ssh or stunnel to protect Bacula communications.
-  Add Dan's work to manual
-  See ssl.txt
-- Add db check test to regression. Test each function like delete,
-  purge, ...
-- Add subsections to the Disaster Recovery index section.
-- Document Pool keyword for restore.
+
+
+For 1.37 Testing/Documentation:
+- Add bandwidth limiting.
+- Add acks every once and a while from the SD to keep
+  the line from timing out.
+- When an error in input occurs and conio beeps, you can back
+  up through the prompt.
+- Detect fixed tape block mode during positioning by looking at
+  block numbers in btape "test".  Possibly adjust in Bacula.
+- Fix list volumes to output volume retention in some other
+  units, perhaps via a directive.
+- If opening a tape in read/write mode fails attempt to open
+  it in read-only mode, and mark the tape for read only.
+- Add a read-only mode to the mount option.
+- Allow Simultaneous Priorities = yes  => run up to Max concurrent jobs even
+  with multiple priorities.
 - If you use restore replace=never, the directory attributes for
   non-existent directories will not be restored properly.
-- In the Bacula User Guide you write:"Note, one major disadvantage of
-  writing to a NFS mounted volume as I do isthat if the other machine goes
-  down, the OS will wait forever on the fopen()call that Bacula makes.  As
-  a consequence, Bacula will completely stall untilthe machine exporting
-  the NSF mounts comes back up.  If someone knows a wayaround this, please
-  let me know."I haven't tried using NFS in years, but I think that the
-  "soft" and "intr"remount options may well help you.  The only way of
-  being sure would be totry it.See, for example,
-     http://howtos.linux.com/guides/nag2/x-087-2-nfs.mountd.shtml
-
-For 1.33
-- During install, copy any console.conf to bconsole.conf.
-- Have each daemon save the last_jobs structure when exiting and
-  read it back in when starting up.
-- "restore jobid=1 select" calls get_storage_xxx, which prints "JobId 1 is
-  not running."
+
+- see lzma401.zip in others directory for new compression
+  algorithm/library.
+- Minimal autochanger handling in Bacula and in btape.
+- Look into how tar does not save sockets and the possiblity of
+  not saving them in Bacula (Martin Simmons reported this).
+- Fix restore jobs so that multiple jobs can run if they
+  are not using the same tape(s).
+- Allow the user to select JobType for manual pruning/purging.
+- bscan does not put first of two volumes back with all info in
+  bscan-test.
+- Implement the FreeBSD nodump flag in chflags.
+- Figure out how to make named console messages go only to that
+  console and to the non-restricted console (new console class?).
+- Make restricted console prompt for password if *ask* is set or
+  perhaps if password is undefined.
+- Implement "from ISO-date/time every x hours/days/weeks/months" in
+  schedules.
+=== rate design
+  jcr->last_rate
+  jcr->last_runtime
+  MA = (last_MA * 3 + rate) / 4
+  rate = (bytes - last_bytes) / (runtime - last_runtime)
+
+==== from Marc Schoechlin
+- the help-command should be more verbose
+  (it should explain the paramters of the different 
+  commands in detail)
+  -> its time-comsuming to consult the manual anytime
+     you need a special parameter
+  -> maybe its more easy to maintain this, if the
+     descriptions of that commands are outsourced to
+     a ceratin-file
+- the cd-command should allow complete paths
+  i.e. cd /foo/bar/foo/bar
+  -> if a customer mails me the path to a certain file,
+     its faster to enter the specified directory
+- if the password is not configured in bconsole.conf
+  you should be asked for it.
+  -> sometimes you like to do restore on a customer-machine
+     which shouldnt know the password for bacula.
+  -> adding the password to the file favours admins
+     to forget to remove the password after usage
+  -> security-aspects
+     the protection of that file is less important
+- long-listed-output of commands should be scrollable
+  like the unix more/less-command does
+  -> if someone runs 200 and more machines, the lists could
+     be a little long and complex
+- command-output should be shown column by column
+  to reduce scrolling and to increase clarity
+  -> see last item
+- lsmark should list the selected files with full
+  paths
+- wildcards for selecting and file and directories would be nice
+- any actions should be interuptable with STRG+C
+- command-expansion would be pretty cool
+====
+- When the replace Never option is set, new directory permissions
+  are not restored. See bug 213. To fix this requires creating a
+  list of newly restored directories so that those directory 
+  permissions *can* be restored.
+- Compaction of Disk space by "migrating" Volumes that have pruned
+  Jobs (what criteria? size, #jobs, time).
+- Add prune all command
+- Document fact that purge can destroy a part of a restore by purging
+  one volume while others remain valid -- perhaps mark Jobs.
+- Add multiple-media-types.txt
+- look at mxt-changer.html
+- Make ? do a help command (no return needed).
+- Implement restore directory.
+- Document streams and how to implement them.
+- Try not to re-backup a file if a new hard link is added.
+- Add feature to backup hard links only, but not the data.
+- Fix stream handling to be simpler.
+- Add Priority and Bootstrap to Run a Job.
+- Eliminate Restore "Run Restore Job" prompt by allowing new "run command
+  to be issued"
+- Remove View FileSet button from Run a Job dialog.
+- Handle prompt for restore job at end of Restore command.
+- Add display of total selected files to Restore window.
+- Add tree pane to left of window.
+- Add progress meter.
+- Max wait time or max run time causes seg fault -- see runtime-bug.txt
+- Document writing to a CD/DVD with Bacula.
+- Add a "base" package to the window installer for pthreadsVCE.dll
+  which is needed by all packages.
+- Add message to user to check for fixed block size when the forward
+  space test fails in btape.
+- When unmarking a directory check if all files below are unmarked and
+  then remove the + flag -- in the restore tree.
+- Possibly implement: Action = Unmount Device="TapeDrive1" in Admin jobs.
+- Setup lrrd graphs: (http://www.linpro.no/projects/lrrd/) Mike Acar.
+- Revisit the question of multiple Volumes (disk) on a single device.
+- Add a block copy option to bcopy.
+- Investigate adding Mac Resource Forks.
+- Finish work on Gnome restore GUI.
+- Fix "llist jobid=xx" where no fileset or client exists.
+- From Chris Hull:
+   it seems to be complaining about 12:00pm which should be a valid 12
+   hour time.  I changed the time to 11:59am and everything works fine.
+   Also 12:00am works fine.  0:00pm also works (which I don't think
+   should).  None of the values 12:00pm - 12:59pm work for that matter.
+- Add level to estimate command.
+- For each job type (Admin, Restore, ...) require only the really necessary
+  fields.
+- Fix option 2 of restore -- list where file is backed up -- require Client,
+  then list last 20 backups.
+- Pass Director resource name as an option to the Console.
+- Add a "batch" mode to the Console (no unsolicited queries, ...).
+- Add a .list all files in the restore tree (probably also a list all files)
+  Do both a long and short form.
+- Allow browsing the catalog to see all versions of a file (with 
+  stat data on each file).
+- Restore attributes of directory if replace=never set but directory
+  did not exist.
+- Use SHA1 on authentication if possible.
+- See comtest-xxx.zip for Windows code to talk to USB.
+- Add Events and Perl scripting.
+- Add John's appended files:
+   Appended = {     /files/server/logs/http/*log   }
+   and such files would be treated as follows.On a FULL backup, they would
+   be backed up like any other file.On an INCREMENTAL backup, where a
+   previous INCREMENTAL or FULL was already in thecatalogue and the length
+   of the file wasgreater than the length of the last backup, only thedata
+   added since the last backup will be dumped.On an INCREMENTAL backup, if
+   the length of the file is less than thelength of the file with the same
+   name last backed up, the completefile is dumped.On Windows systems, with
+   creation date of files, we can be evensmarter about this and not count
+   entirely upon the length.On a restore, the full and all incrementals
+   since it will beapplied in sequence to restore the file.  
+- Allow for optional cancelling of SD and FD in case DIR
+  gets a fatal error. Requested by Jesse Guardiani <jesse@wingnet.net>
+- Add "limit=n" for "list jobs"
+- Check new HAVE_WIN32 open bits.    
+- Check if the tape has moved before writing.  
+- Handling removable disks -- see below:
+- Keep track of tape use time, and report when cleaning is necessary.
 - Add FromClient and ToClient keywords on restore command (or
   BackupClient RestoreClient).
-- Automatic "update slots" on user configuration directive when a
-  slot error occurs.
-- Allow "delete job jobid=xx jobid=xxx".   
-- Allow "delete job jobid=xxx,yyy,aaa-bbb" i.e. list + ranges.
-- Implement multiple Volume in "purge jobs volume=".
 - Implement a JobSet, which groups any number of jobs. If the
   JobSet is started, all the jobs are started together.
   Allow Pool, Level, and Schedule overrides.
 - Enhance cancel to timeout BSOCK packets after a specific delay.
-- When I restore to Windows the Created, Accessed and Modifiedtimes are
-  those of the time of the restore, not those of the originalfile.  
-  The dates you will find in your restore log seem to be the original
-   creation dates
-- Rescue builds incorrect script files on Rufus.  
-- Write a Qmsg() to be used in bnet.c to prevent recursion.  Queue the
-  message. If dequeueing toss the messages. Lock while dequeuing so that
-  it cannot be called recursively and set dequeuing flag.
-- Add all pools in Dir conf to DB also update them to catch changed
-  LabelFormats and such.
-- Symbolic link a directory to another one, then backup the symbolic
-  link.
-- Build console in client-only build.
-- Restore attributes of directory if replace=never set but directory
-  did not exist.
-- Check why Phil's Verify exclude does not work.
-- Phil says that Windows file sizes mismatch in Verify when they should,
-  and that either the file size or the catalog size was zero.
-- Fix option 2 of restore -- list where file is backed up -- require Client,
-  then list last 20 backups.
-- Allow browsing the catalog to see all versions of a file (with 
-  stat data on each file).
-- Finish code passing files=nnn to restore start.
-- Add level to estimate command.
-- Check time/dates printed during restore when using Win32 API.
-- Volume "add"ed to Pool gets recycled in first use. VolBytes=0
-- Get rid of 0 dates in LastWritten, ...
-- Fix "llist jobid=xx" where no fileset or client exists.
-- Release SQLite 2.8.9
-- If a tape is recycled while it is mounted, Stanislav Tvrudy must do an
-  additional mount to deblock the job.
-- From Johan Decock:
-  bscan: sql_update.c:65 UPDATE File SET MD5='Ij+5kwN6TFIxK+8l8+/I+A' WHERE FileId=0
-  bscan: bscan.c:1074 Could not add MD5/SHA1 to File record. ERR=sql_update.c:65 Update problem: affected_rows=0
 - Do scheduling by UTC using gmtime_r() in run_conf, scheduler, and   
   ua_status.!!! Thanks to Alan Brown for this tip.
 - Look at updating Volume Jobs so that Max Volume Jobs = 1 will work
   correctly for multiple simultaneous jobs.
 - Correct code so that FileSet MD5 is calculated for < and | filename   
   generation.
-- Mark Volume in error on error from WEOF.
-- Why does Bacula need the drive open to do "autochanger list" ?
-- Add a .list all files in the restore tree (probably also a list all files)
-  Do both a long and short form.
 - Implement the Media record flag that indicates that the Volume does disk 
   addressing.
 - Implement VolAddr, which is used when Volume is addressed like a disk,
@@ -140,108 +522,24 @@ For 1.33
 - Fix fast block rejection (stored/read_record.c:118). It passes a null
   pointer (rec) to try_repositioning().
 - Look at extracting Win data from BackupRead.
-- Having dashes in filenames apparently creates problems for restore
-  by filename.
-- Add data compare on write/read in btape "test". 
 - Implement RestoreJobRetention? Maybe better "JobRetention" in a Job,
   which would take precidence over the Catalog "JobRetention".
 - Implement Label Format in Add and Label console commands.
 - Possibly up network buffers to 65K. Put on variable.
 - Put email tape request delays on one or more variables. User wants
   to cancel the job after a certain time interval.  Maximum Mount Wait?
-  Job, Client, Device, Pool, or Volume?
+- Job, Client, Device, Pool, or Volume?
   Is it possible to make this a directive which is *optional* in multiple
   resources, like Level? If so, I think I'd make it an optional directive
   in Job, Client, and Pool, with precedence such that Job overrides Client
   which in turn overrides Pool.
-- Print a message when a job starts if the conf file is not current.
-- Finish work on conio.c
-- To pass Include 1 or two letter commands
-  I Name           Include name - first record
-  B Name           Base name - repeat
-  R "xxx"          Regexp
-  W "xxx"          Wild Card
-  E zzz            Exclude expression (wild card)
-  P "plugin"       Plugin
-  D "reader"       Reader program
-  T "writer"       Writer program
-  O Options        In current commpressed format
-    (compression, signature, onefs, recurse, sparse,
-     replace, verify options, ...)
-  N                End option set
-  B BaseName       Start second option set any letter
-  ...
-  E
-  F Number         Number of filenames to follow
-  <file-name>
-  B Name
-  ...
-  N                End option set
-  F Number         Number of filenames to follow
-  <file-name>
-  ...
-
-- Spooling ideas taken from Volker Sauer's and other's emails:
-   > IMHO job spooling should be turned on
-   > 
-   > 1) by job
-   > 2) by schedule
-   > 3) by sd
-   > 
-   > where and 2) overrides 1) and 3) is independent.
-
-   Yes, this is the minimum that I think is necessary.
-
-   > 
-   > Reason(s):
-   > It should be switched by job, because the job that backs up the machine 
-   > with the bacula-sd on doesn't need spooling.
-   > It should be switched by schedule, because for full-backups I don't need 
-   > spooling, so I can switch it off (because the network faster then the 
-   > tapedrive) 
-
-   True, with the exception that if you have enough disk spool space,
-   and you want to run concurrent jobs, spooling can eliminate the block
-   interleaving restore inefficiencies.
-
-   > And you should be able to turn it of by sd for sd-machines with low disk 
-   > capacity or if you just don't need or want this feature.
-   > 
-   > There should be:
-   > - definitly the possibility for multipe spool direcories
-
-   Having multiple directories is no problem -- having different maximum
-   sizes creates specification problems.  At some point, I will probably
-   have a common SD pool of spool directories as well as a set of
-   private spool directories for each device.  The first implementation
-   will be a set of private spool directories for each device since
-   managing a global pool with a bunch of threads writing into the same
-   directory is *much* more complicated and prone to error.
-
-   > - the ability to spool parts of a backup (not the whole client)
-
-   This may change in the future, but for the moment, it will spool
-   either to a job high water mark, or until the directory is full
-   (reaches max spool size or I/O error).  It will then write to tape,
-   truncate the spool file, and begin spooling again.
-
-   > - spooling while writing to tape
-
-   Not within a job, but yes, if you run concurrent jobs -- each is a
-   different thread.  Within a job could be a feature, but *much* later.
-
-   > - parallel spooling (like parallel jobs/ concurrent jobs) of clients
-
-   Yes, this is one of my main motivations for doing it (aside from
-   eliminating tape "shoe shine" during incremental backups.
-
-   > - flushing a backup that only went to disk (like amflush in amanda)
-
-   This will be a future feature, since spooling is different from backing
-   up to disk. The future feature will be "migration" which will move a job
-   from one backup Volume to another.
 
 - New Storage specifications:
+  - Want to write to multiple storage devices simultaneously
+  - Want to write to multiple storage devices sequentially (in one job)
+  - Want to read/write simultaneously
+  - Key is MediaType -- it must match
+
   Passed to SD as a sort of BSR record called Storage Specification
     Record or SSR.
     SSR                    
@@ -249,7 +547,6 @@ For 1.33
       MediaType -> Next MediaType
       Pool -> Next Pool
       Device -> Next Device
-  Write Copy Resource that makes a copy of a resource.
   Job Resource
      Allow multiple Storage specifications
      New flags
@@ -261,42 +558,24 @@ For 1.33
   Storage
      Allow Multiple Pool specifications (note, Pool currently
        in Job resource).
-     Allow Multiple MediaType specifications
-     Allow Multiple Device specifications
+     Allow Multiple MediaType specifications in Dir conf
+     Allow Multiple Device specifications in Dir conf
      Perhaps keep this in a single SSR
   Tie a Volume to a specific device by using a MediaType that 
     is contained in only one device.
   In SD allow Device to have Multiple MediaTypes
 
-After 1.33:
-- Look at www.nu2.nu/pebuilder as a helper for full windows
-  bare metal restore.
-From Chris Hull:
-   it seems to be complaining about 12:00pm which should be a valid 12
-   hour time.  I changed the time to 11:59am and everything works fine.
-   Also 12:00am works fine.  0:00pm also works (which I don't think
-   should).  None of the values 12:00pm - 12:59pm work for that matter.
-Ideas from Jerry Scharf:
+- Ideas from Jerry Scharf:
   First let's point out some big pluses that bacula has for this
         it's open source
         more importantly it's active. Thank you so much for that
         even more important, it's not flaky
         it has an open access catalog, opening many possibilities
         it's pushing toward heterogeneous systems capability
-  simple things:
-        I don't remember an include file directive for config files
-                (not filesets, actual config directives)
-        can you check the configs without starting the daemon?
-        some warnings about possible common mistakes
   big things:
-   doing the testing and blessing of concurrent backup writes
-        this is absolutely necessary in the enterprise
-   easy user recovery GUI with full access checking
    Macintosh file client
         macs are an interesting niche, but I fear a server is a rathole
    working bare iron recovery for windows
-   much better handling on running config changes
-        thinking through the logic of what happens to jobs in progress
    the option for  inc/diff backups not reset on fileset revision
         a) use both change and inode update time against base time
         b) do the full catalog check (expensive but accurate)
@@ -310,32 +589,22 @@ Ideas from Jerry Scharf:
    support for Oracle database ??
 ===
 - Look at adding SQL server and Exchange support for Windows. 
-- Restore: Enter Filename: 'C:/Documents and Settings/Comercial/My
-  Documents/MOP/formulário de registro BELAS ARTES.doc' causes Bacula to
-  crash.
 - Each DVD-RAM disk would be a volume, just like each tape is 
   a volume. It's a 4.7GB media with random access, but there's nothing about 
-  it that I can see that makes it so different than a tape from  bacula's 
+  it that I can see that makes it so different than a tape from bacula's 
   perspective. Why couldn't I back up to a bare floppy as a volume (ignoring 
   the media capacity?)
 - Make dev->file and dev->block_num signed integers so that -1 can
   be an invalid value which happens with BSR.
 - Create VolAddr for disk files in place of VolFile and VolBlock. This
   is needed to properly specify ranges.
-- Print bsmtp output to job report so that problems will be seen.
-- Pass the number of files to be restored to the FD for reporting 
 - Add progress of files/bytes to SD and FD.
-- Don't continue Restore if no files selected.
 - Print warning message if FileId > 4 billion
 - do a "messages" before the first prompt in Console
 - Add a date and time stamp at the beginning of every line in the 
   Job report (Volker Sauer).
 - Client does not show busy during Estimate command.
 - Implement Console mtx commands.
-- Add a default DB password to MySQL.  
-  GRANT all privileges ON bacula.* TO bacula@localhost IDENTIFIED BY 
-     'bacula_password';
-  FLUSH PRIVILEGES;
 - Implement a Mount Command and an Unmount Command where
   the users could specify a system command to be performed
   to do the mount, after which Bacula could attempt to
@@ -349,70 +618,26 @@ Ideas from Jerry Scharf:
   to the user, who would then use "mount" as described above 
   once he had actually inserted the disk.
 - Implement dump/print label to UA
-- Implement disk spooling. Two parts: 1. Spool to disk then
-  immediately to tape to speed up tape operations. 2. Spool to
-  disk only when the tape is full, then when a tape is hung move
+- Spool to disk only when the tape is full, then when a tape is hung move
   it to tape.
-- Scratch Pool where the volumes can be re-assigned to any Pool.
 - bextract is sending everything to the log file ****FIXME****
-- Add Progress command that periodically reports the progress of
-  a job or all jobs.
-- Restrict characters permitted in a Resource name, and don't permit
-  duplicate names.
 - Allow multiple Storage specifications (or multiple names on
   a single Storage specification) in the Job record. Thus a job 
   can be backed up to a number of storage devices.
 - Implement some way for the File daemon to contact the Director 
   to start a job or pass its DHCP obtained IP number.
-- Implement multiple Consoles.
 - Implement a query tape prompt/replace feature for a console
-- From Johan?
-    Two jobs ready to go, first one blocked waiting for media
-    Cancel 2nd job ("waiting execution" one)
-    Cancel blocked job
-    boom - segfault*
 - Copy console @ code to gnome2-console
 - Make AES the only encryption algorithm see 
   http://csrc.nist.gov/CryptoToolkit/aes/).  It's
   an officially adopted standard, has survived peer
   review, and provides keys up to 256 bits.
-- Add ctl-c to console to stop current command and discard buffered
-  output.
-- Estimate to Tibs never returns.
-- Think about how space could be freed up on a tape -- perhaps this
-  is a Merge or Compact feature that is needed.
-- Modify FileSet, did not upgrade the current Increment job, but
-  waited for the next job to be upgraded.
 - Take a careful look at SetACL http://setacl.sourceforge.net     
-- Implement a where command for the tree telling where a file
-  is located.
 - Take a careful look at Level for the estimate command, maybe make
   it a command line option.
 - Add Volume name to "I cannot write on this volume because"
 - Make tree walk routines like cd, ls, ... more user friendly
   by handling spaces better.
-- Write your PID file and chown root:wheel before drop.
-- Make sure there is no symlink in a file before creating a
-  file (attack).
-- Look at mktemp or mkstemp(3).
-    mktemp and mkstemp create files with predictable names too.  That's
-    not the vulnerability.  The vulnerability is in creating files without
-    using the O_EXCL flag, which means "only create this file if it doesn't
-    exist, including if the file is a dangling symlink."
-
-    It is *NOT* enough to do the equivalent of
-
-      if doesn't exist $filename
-       then create $filename
-
-    because between the test and the create another process could have
-    gotten the CPU and created the file.  You must use atomic functions
-    (those that don't get interrupted by other processes) and O_EXCL is
-    the only way for this particular example.
-- Automatically create pools, but instead of looking for what
-  in in Job records, walk through the pool resources.
-- Check and double check tree code, why does it take so long?
-- Add device name to "Current Volume not acceptable because ..."
 - Make sure that Bacula rechecks the tape after the 20 min wait.
 - Set IO_NOWAIT on Bacula TCP/IP packets.
 - Try doing a raw partition backup and restore by mounting a
@@ -426,76 +651,17 @@ Ideas from Jerry Scharf:
     By the way can bacula automatically "move" an empty/purged volume say 
     in the "short" pool to the "long" pool if this pool runs out of volume 
     space?
-- Eliminate orphaned jobs: dbcheck, normal pruning, delete job command.
-  Hm.  Well, there are the remaining orphaned job records:
-
-     |   105 | Llioness Save  | 0000-00-00 00:00:00 | B    | D     |        0 |             0 | f         |
-     |   110 | Llioness Save  | 0000-00-00 00:00:00 | B    | I     |        0 |             0 | f         |
-     |   115 | Llioness Save  | 2003-09-10 02:22:03 | B    | I     |        0 |             0 | A         |
-     |   128 | Catalog Save   | 2003-09-11 03:53:32 | B    | I     |        0 |             0 | C         |
-     |   131 | Catalog Save   | 0000-00-00 00:00:00 | B    | I     |        0 |             0 | f         |
-
-     As you can see, three of the five are failures.  I already deleted the
-     one restore and one other failure using the by-client option.  Deciding
-     what is an orphaned job is a tricky problem though, I agree.  All these
-     records have or had 0 files/ 0 bytes, except for the restore.  With no
-     files, of course, I don't know of the job ever actually becomes
-     associated with a Volume.
-
-     (I'm not sure if this is documented anywhere -- what are the meanings of
-     all the possible JobStatus codes?)
-
-     Looking at my database, it appears to me as though all the "orphaned"
-     jobs fit into one of two categories:
-
-     1)  The Job record has a StartTime but no EndTime, and the job is not
-         currently running;
-     or
-     2)  The Job record has an EndTime, indicating that it completed, but
-         it has no associated JobMedia record.
-
-
-     This does suggest an approach.  If failed jobs (or jobs that, for some
-     other reason, write no files) are associated with a volume via a
-     JobMedia record, then they should be purged when the associated volume
-     is purged.  I see two ways to handle jobs that are NOT associated with a
-     specific volume:
-
-     1)  purge them automatically whenever any volume is manually purged;
-     or
-     2)  add an option to the purge command to manually purge all jobs with
-         no associated volume.
-
-     I think Restore jobs also fall into category 2 above ....  so one might
-     want to make that "The Job record has an EndTime,, but no associated
-     JobMedia record, and is not a Restore job."  
-- make "btape /tmp" work.
-- Make sure a rescheduled job is properly reported by status.
-- Walk through the Pool records rather than the Job records
-  in dird.c to create/update pools.
 - What to do about "list files job=xxx".
-- When job rescheduled, status gives is waiting for Client Rufus 
-  to connect to Storage File. Dir needs to inform SD that job
-  is rescheduled.
 - Make Dmsg look at global before calling subroutine.
-- Enable trace output at runtime for Win32
-- Available volumes for autochangers (see patrick@baanboard.com 3 Sep 03 
-  and 4 Sep) scan slots.
 - Get and test MySQL 4.0
-- Do a complete audit of all pthreads_mutex, cond, ... to ensure that
-  any that are dynamically initialized are destroyed when no longer used.
 - Look at how fuser works and /proc/PID/fd that is how Nic found the
   file descriptor leak in Bacula.
 - Implement WrapCounters in Counters.
-- Turn on SIGHUP in dird.c and test.
-- Use system dependent calls to get more precise info on tape errors.
 - Add heartbeat from FD to SD if hb interval expires.
-- Suppress read error on blank tape when doing a label.
 - Can we dynamically change FileSets?
 - If pool specified to label command and Label Format is specified,
   automatically generate the Volume name.
 - Why can't SQL do the filename sort for restore?
-- Look at libkse (man kse) for FreeBSD threading.
 - Look into Microsoft Volume Shadowcopy Service VSS for backing
   up system state components (Active Directory, System Volume, ...)
 - Add ExhautiveRestoreSearch
@@ -503,7 +669,6 @@ Ideas from Jerry Scharf:
   data into the restore tree (i.e. do it one directory at a
   time as the user walks through the tree).
 - Possibly use the hash code if the user selects all for a restore command.
-- Orphaned Dir buffer at parse_conf.c:373 =>  store_dir
 - Fix "restore all" to bypass building the tree.
 - Prohibit backing up archive device (findlib/find_one.c:128)
 - Implement Release Device in the Job resource to unmount a drive.
@@ -511,50 +676,28 @@ Ideas from Jerry Scharf:
   be sure this works with admin jobs so that the user can get
   prompted to insert the correct tape.  Possibly some way to say to
   run the job but don't save the files.
-- Implement FileOptions (see end of this document)
 - Make things like list where a file is saved case independent for
   Windows.
 - Implement migrate
-- Bacula needs to propagate SD errors.
-  > > cluster-dir: Start Backup JobId 252, Job=REUTERS.2003-08-11_15.04.12
-  > > prod4-sd: REUTERS.2003-08-11_15.04.12 Error: Write error on device 
-       /dev/nst0. ERR=Input/output error.
-  > > prod4-sd: REUTERS.2003-08-11_15.04.12 Error: Re-read of last block failed. 
-       Last block=5162 Current block=5164.
-  > > prod4-sd: End of medium on Volume "REU007" Bytes=16,303,521,933 
-
 - Use autochanger to handle multiple devices.
 - Add SuSE install doc to list.
 - Check and rechedk "Invalid block number"
-- Make bextract release the drive properly between tapes 
-  so that an autochanger can be made to work.
 - User wants to NOT backup up certain big files (email files).
 - Maybe remove multiple simultaneous devices code in SD.
 - On Windows with very long path names, it may be impossible to create 
   a file (and thus restore it) because the total length is too long.
   We must cd into the directory then create the file without the
   full path name.
-- lstat() is not going to work on Win32 for testing date.
 - Implement a Recycle command
 - Add client name to cram-md5 challenge so Director can immediately
   verify if it is the correct client.
-- Add JobLevel in FD status (but make sure it is defined).
 - Audit all UA commands to ensure that we always prompt where possible.
-- Check Jmsg in bnet, may not work, must dup bsock.
-- Suppress Job Name in Jmsg for console
-- Create Pools that are referenced in a Run statement at startup if possible.
-- Use runbeforejob to unload, then reload a volume previously used,
-  then the next job run gets an error reading the drive.
 - Make bootstrap filename unique.
 - Test a second language e.g. french.
 - Start working on Base jobs.
-- Make "make binary-release" work from any directory.
 - Implement UnsavedFiles DB record.
 - Implement argc/argv for daemon command line scanning using table driven
   stuff below.
-- Implement table driven single argc/argv scanner to pickup all arguments.
-  Much like xxx_conf.c scan table.
-  keyword, handler(store_routine), store_address, code, flags, default.
 - From Phil Stracchino:
   It would probably be a per-client option, and would be called
   something like, say, "Automatically purge obsoleted jobs".  What it
@@ -571,16 +714,10 @@ Ideas from Jerry Scharf:
 - Currently in mount.c:236 the SD simply creates a Volume. It should have
   explicit permission to do so.  It should also mark the tape in error
   if there is an error.
-- Make sure all restore counters are working correctly in the FD.
 - SD Bytes Read is wrong.
-- Look at ALL higher level routines that call block.c to be sure
-  they don't expect something in errmsg.
 - Investigate doing RAW backup of Win32 partition.
-- Add thread specific data to hold the jcr -- send error messages from
-  low level routines by accessing it and using Jmsg().
 - Cancel waiting for Client connect in SD if FD goes away.
 
-- Examine Bare Metal restore problem (a FD crash exists somewhere ...).
 - Implement timeout in response() when it should come quickly.
 - Implement console @echo command.
 - Implement a Slot priority (loaded/not loaded).
@@ -588,9 +725,6 @@ Ideas from Jerry Scharf:
 - Implement single pane restore (much like the Gftp panes).
 - Implement Automatic Mount even in operator wait.
 - Implement create "FileSet"?
-- Fix watchdog pthread crash on Win32 (this is pthread_kill() Cygwin bug)
-- Implement "scratch pool" where tapes are defined and can be
-  taken by any pool that needs them.
 - Implement restore "current system", but take all files without
   doing selection tree -- so that jobs without File records can
   be restored.
@@ -634,8 +768,6 @@ Ideas from Jerry Scharf:
 - Figure out how to do a bare metal Windows restore
 - Possibly add email to Watchdog if drive is unmounted too
   long and a job is waiting on the drive.
-- Restore program that errs in SD due to no tape, reports
-  OK incorrectly in output.
 - After unmount, if restore job started, ask to mount.
 - Convert all %x substitution variables, which are hard to remember
   and read to %(variable-name).  Idea from TMDA.
@@ -671,12 +803,8 @@ Ideas from Jerry Scharf:
   if full status requested or if some level of debug on.
 - Make database type selectable by .conf files i.e. at runtime
 - Set flag for uname -a.  Add to Volume label.
-- Implement throttled work queue.
 - Restore files modified after date
 - SET LD_RUN_PATH=$HOME/mysql/lib/mysql
-- Implement Restore FileSet=
-- Create a protocol.h and protocol.c where all protocol messages
-  are concentrated.
 - Remove duplicate fields from jcr (e.g. jcr.level and jcr.jr.Level, ...).
 - Timout a job or terminate if link goes down, or reopen link and query.
 - Concept of precious tapes (cannot be reused).
@@ -695,37 +823,6 @@ Ideas from Jerry Scharf:
   > woorkstations to be shut down overnight to save power.
   > 
 
-- From Terry Manderson <terry@apnic.net>
-   jobdefs { # new structure
-     name = "monthlyUnixBoxen"
-     type = backup
-     level = full
-     schedule = monthly
-     storage = DLT
-     messages = Standard
-     pool = MonthlyPool
-     priority = 10
-   }
-
-   job {
-     name = "wakame"
-     jobdefs = "genericUnixSet"
-     client = wakame-fd
-   }
-
-   job {
-     name = "durian"
-     jobdefs = "genericUnixSet"
-     client = durian-fd
-   }
-
-   job {
-     name = "soy"
-     jobdefs = "UnixDevelBoxSet"
-     client = soy-fd
-   }
-
-
 - Autolabel should be specified by DIR instead of SD.
 - Storage daemon    
   - Add media capacity
@@ -785,6 +882,105 @@ Ideas from Jerry Scharf:
 - Store info on each file system type (probably in the job header on tape.
   This could be the output of df; or perhaps some sort of /etc/mtab record.
 
+========= ideas ===============
+From: "Jerry K. Schieffer" <jerry@skylinetechnology.com>
+To: <kern@sibbald.com>
+Subject: RE: [Bacula-users] future large programming jobs
+Date: Thu, 26 Feb 2004 11:34:54 -0600
+
+I noticed the subject thread and thought I would offer the following
+merely as sources of ideas, i.e. something to think about, not even as
+strong as a request.  In my former life (before retiring) I often
+dealt with backups and storage management issues/products as a
+developer and as a consultant.  I am currently migrating my personal
+network from amanda to bacula specifically because of the ability to
+cross media boundaries during storing backups.
+Are you familiar with the commercial product called ADSM (I think IBM
+now sells it under the Tivoli label)?  It has a couple of interesting
+ideas that may apply to the following topics.
+
+1. Migration:  Consider that when you need to restore a system, there
+may be pressure to hurry.  If all the information for a single client
+can eventually end up on the same media (and in chronological order),
+the restore is facillitated by not having to search past information
+from other clients.  ADSM has the concept of "client affinity" that
+may be associated with it's storage pools.  It seems to me that this
+concept (as an optional feature) might fit in your architecture for
+migration.
+
+ADSM also has the concept of defining one or more storage pools as
+"copy pools" (almost mirrors, but only in the sense of contents).
+These pools provide the ability to have duplicte data stored both
+onsite and offsite.  The copy process can be scheduled to be handled
+by their storage manager during periods when there is no backup
+activity.  Again, the migration process might be a place to consider
+implementing something like this.
+
+>
+> It strikes me that it would be very nice to be able to do things
+like
+> have the Job(s) backing up the machines run, and once they have all
+> completed, start a migration job to copy the data from disks Volumes
+to
+> a tape library and then to offsite storage. Maybe this can already
+be
+> done with some careful scheduling and Job prioritzation; the events
+> mechanism described below would probably make it very easy.
+
+This is the goal. In the first step (before events), you simply
+schedule
+the Migration to tape later.
+
+2. Base jobs:  In ADSM, each copy of each stored file is tracked in
+the database.  Once a file (unique by path and metadata such as dates,
+size, ownership, etc.) is in a copy pool, no more copies are made.  In
+other words, when you start ADSM, it begins like your concept of a
+base job.  After that it is in the "incremental" mode.  You can
+configure the number of "generations" of files to be retained, plus a
+retention date after which even old generations are purged.  The
+database tracks the contents of media and projects the percentage of
+each volume that is valid.  When the valid content of a volume drops
+below a configured percentage, the valid data are migrated to another
+volume and the old volume is marked as empty.  Note, this requires
+ADSM to have an idea of the contents of a client, i.e. marking the
+database when an existing file was deleted, but this would solve your
+issue of restoring a client without restoring deleted files.
+
+This is pretty far from what bacula now does, but if you are going to
+rip things up for Base jobs,.....
+Also, the benefits of this are huge for very large shops, especially
+with media robots, but are a pain for shops with manual media
+mounting.
+
+>
+> Base jobs sound pretty useful, but I'm not dying for them.
+
+Nobody is dying for them, but when you see what it does, you will die
+without it.
+
+3. Restoring deleted files:  Since I think my comments in (2) above
+have low probability of implementation, I'll also suggest that you
+could approach the issue of deleted files by a mechanism of having the
+fd report to the dir, a list of all files on the client for every
+backup job.  The dir could note in the database entry for each file
+the date that the file was seen.  Then if a restore as of date X takes
+place, only files that exist from before X until after X would be
+restored.  Probably the major cost here is the extra date container in
+each row of the files table.
+
+Thanks for "listening".  I hope some of this helps.  If you want to
+contact me, please send me an email - I read some but not all of the
+mailing list traffic and might miss a reply there.
+
+Please accept my compliments for bacula.  It is doing a great job for
+me!!  I sympathize with you in the need to wrestle with excelence in
+execution vs. excelence in feature inclusion.
+
+Regards,
+Jerry Schieffer
+
+==============================
+
 Longer term to do:
 - Design at hierarchial storage for Bacula. Migration and Clone. 
 - Implement FSM (File System Modules).
@@ -874,177 +1070,6 @@ Need:
   VolSessionId and VolSessionTime.
 =========================================================  
 
-  
-
-=============================================================
-
-          Request For Comments For File Backup Options
-                   10 November 2002
-
-Subject: File Backup Options
-
-Problem: 
-  A few days ago, a Bacula user who is backing up to file volumes and
-  using compression asked if it was possible to suppress compressing
-  all .gz files since it was a waste of CPU time. Although Bacula
-  currently permits using different options (compression, ...) on
-  a directory by directory basis, it cannot do it on a file by 
-  file basis, which is clearly what was desired.   
-
-Proposed Implementation:
-  To solve this problem, I propose the following:
-
-  - Add a new Director resource type called Options.  
-
-  - The Options resource will have records for all
-    options that can currently be specified on the Include record 
-    (in a FileSet).  Examples below.
-
-  - The Options resource will permit an exclude option as well
-    as a number of additional options.
-
-  - The heart of the Options resource is the ability to
-    supply any number of Match records which specify POSIX
-    regular expressions.  These Match regular expressions are
-    applied to the fully qualified filename (path and all). If
-    one matches, then the Options will be used.
-
-  - When an Match specification matches an included file, the
-    options specified in the Options resource will override
-    the default options specified on the Include record.
-
-  - Include records will be modified to permit referencing one or
-    more Options resources.  The Options will be used
-    in the order listed on the Include record and the first
-    one that matches will be applied.
-
-  - Options (or specifications) currently supplied on the Include
-    record will be deprecated (i.e. removed in a later version a
-    year or so from now).
-
-  - The Exclude record will be deprecated as the same functionality
-    can be obtained by using an Exclude = yes in the Options.
-
-Options records:
-  The following records can appear in the Options resource. An
-  asterisk preceding the name indicates a feature not currently
-  implemented.
-
-    - Regexp "xxx"            - Match regular expression
-    - Wild "xxx"              - Do a wild card match
-
-  For Backup Jobs:
-    - Compression= (GZIP, ...)
-    - Signature=   (MD5, SHA1, ...)
-    - *Encryption=
-    - OneFs=      (yes/no)    - remain on one filesystem
-    - Recurse=    (yes/no)    - recurse into subdirectories
-    - Sparse=     (yes/no)    - do sparse file backup
-    - *Exclude=   (yes/no)    - exclude file from being saved
-    - *Reader=    (filename)  - external read (backup) program
-    - *Plugin=    (filename)  - read/write plugin module
-
-    - Include=    (yes/no)    - Include the file matched no additional
-                                patterns are applied.
-
-  For Verify Jobs:
-    - verify=     (ipnougsamc5) - verify options
-
-  For Restore Jobs:
-    - replace= (always/ifnewer/ifolder/never) - replace options currently
-                                                implemented in 1.31
-    - *Writer= (filename)   - external write (restore) program
-
-
-Implementation:
-  Currently options specifying compression, MD5 signatures, recursion,
-  ... of a FileSet are supplied on the Include record. These will now
-  all be collected into a Options resource, which will be
-  specified in the Include in place of the options. Multiple Options
-  may be specified.  Since the Options may contain regular expressions
-  that are applied to the full filename, this will give the ability
-  to specify backup options on a file by file basis to whatever level
-  of detail you wish.
-
-Example:
-
-  Today:
-
-    FileSet {
-      Name = "FullSet"
-      Include = compression=GZIP signature=MD5 {
-        /
-      }
-    }
-
-  Proposal:
-
-    FileSet {
-      Name = "FullSet"
-      Include {
-        Compression = GZIP;
-        Signature = MD5
-        Wild  = /*.?*/                # matches all files.
-        File = /
-      }
-    }
-
-  That's a lot more to do the same thing, but it gives the ability to
-  apply options on a file by file basis.  For example, suppose you
-  want to compress all files but not any file with extensions .gz or .Z.
-  In that case, you will need to group two sets of options using
-  the Options resource. Files may be anywhere except in an
-  option set???  All OptionSets apply to all files in the order
-  the OptionSets were specified.  To have files included with
-  different option sets without using wild-cards, use two or more
-  Includes -- each one is handled in turn using only the files and
-  optionsets specified in the include.
-
-    FileSet {
-      Name = "FullSet"
-      Include {
-        OptionSet {
-          Signature = MD5
-          # Note multiple Matches are ORed
-          Wild  = "*.gz"   # matches .gz files
-          Wild  = "*.Z"    # matches .Z files
-        }
-        OptionSet {
-          Compression = GZIP
-          Signature = MD5
-          Wild  = "*.?*"   # matches all files
-        }
-        File = /
-      }
-    }
-
-  Now, since the no Compression option is specified in the
-  first group of Options, *.gz or *.Z file will have an MD5 signature computed,
-  but will not be compressed. For all other files, the *.gz *.Z will not
-  match, so the second group of options will be used which will include GZIP
-  compression.
-
-Questions:
-  - Is it necessary to provide some means of ANDing regular expressions
-    and negation?  (not currently planned)
-
-    e.g.  Wild  = /*.gz/ && !/big.gz/
-
-  - I see that Networker has a "null" module which, if specified, does not 
-    backup the file, but does make an record of the file in the catalog
-    so that the catalog will reflect an exact picture of the filesystem.
-    The result is that the file can be "seen" when "browsing" the save
-    sets, but it cannot be restored.
-    
-    Is this really useful?  Should it be implemented in Bacula?
-  
-Results:
-  After implementing the above, the user will be able to specify
-  on a file by file basis (using regular expressions) what options are
-  applied for the backup.
-
-
-=============================================
 
 ========================================================== 
     Unsaved File design
@@ -1085,156 +1110,217 @@ Done: (see kernsdone for more)
 - Implement forward spacing block/file: position_device(bsr) --
   just before read_block_from_device();
 
-=== for 1.33
-- Change console to bconsole.
-- Change smtp to bsmtp.
-- Fix time difference problem between Bacula and Client
-  so that everything is in GMT.
-- Fix TimeZone problem!
-- Mount a tape that is not right for the job (wrong # files on tape)
-  Bacula asks for another tape, fix problems with first tape and
-  say "mount". All works OK, but status shows:
-   Device /dev/nst0 open but no Bacula volume is mounted.
-       Total Bytes=1,153,820,213 Blocks=17,888 Bytes/block=64,502
-       Positioned at File=9 Block=3,951
-   Full Backup job Rufus.2003-10-26_16.45.31 using Volume "DLT-24Oct03" on device /dev/nst0
-       Files=21,003 Bytes=253,954,408 Bytes/sec=2,919,016
-       FDReadSeqNo=192,134 in_msg=129830 out_msg=5 fd=7
-- Upgrade to cygwin 1.5
-- Optimize fsf not to read.
-- Use ioctl() fsf if it exists. Figure out where we are from
-  the mt_status command. Use slow fsf only if other does not work.
-- Enhance "update slots" to include a "scan" feature
-  scan 1; scan 1-5; scan 1,2,4 ...  to update the catalog 
-- Allow a slot or range of slots on the label barcodes command.
-- Finish implementation of Verify=DiskToCatalog
-- Make sure that Volumes are recycled based on "Least recently used"
-  rather than lowest MediaId.
-- Add flag to write only one EOF mark on the tape.
-- Implement autochanger testing in btape "test" command.
-- Implement lmark to list everyfile marked.
-- Make mark/unmark report how many files marked/unmarked.
-- Keep last 5 or 10 completed jobs and show them in a similar list.
-- Make a Running Jobs: output similar to current Scheduled Jobs:
-- Change "create_media_record in bscan to use Archive instead of Full.
-- Have some way to estimate the restore size or have it printed.
-- Volume problems occurs if you have valid volume, written, then it is
-  truncated. You get 12-Nov-2003 11:48 rufus-sd: kernsave.2003-11-12_11.48.09 Warning: mount.c:228 Volume on /tmp is not a Bacula labeled Volume, because:
-     block.c:640 Read zero bytes on device /tmp.
-- Make sure that 64 bit I/O packets are used on Cygwin.
-- Add to supported autochangers 
-  OS              : FreeBSD-4.9
-  Auto-Changer    : QUALSTAR TLS-4210
-    Manufufactur  : Qualstar
-    Tapes         : 12 (AIT1: 36GB, AIT2: 50GB all uncompressed)
-    Drives        : 2xAIT2 (installed in the Qualstar: SONY SDX-500C AIT2)
-- Document estimate command in tree.
-- Document lsmark command in tree.
-- Setup a standard job that builds a bootstrap file and saves
-  it with the catalog database.
-- See if a restore job can add a file to the tape (prohibit this).
-- Restrict characters permitted in a name.
-- In restore, provide option for limiting to a particular Pool.
-- In restore, list FileSets that only have different base names --
-  i.e. any FileSet with the same name should be treated as the same.
-- Make Scheduler sort jobs by StartTime, Priority.
-- Make sure smtp and any other useful program is executable by the world
-  in case Bacula is not running as root.
-- Look at Dan's field width problems in PostgreSQL.
-- Look at effect of removing GROUP BYs.
-- In restore take all filesets with same base name.
-- From Alan Brown <ajb2@mssl.ucl.ac.uk>
-    BTW, there's a make install bug in 1.33 - with --enable-gnome,
-    gnome-console is built, but the binary and .conf are not being installed.
-- Permit Bacula and apcupsd donations (not done for apcupsd).
-- Fix Ctl-C crashing the Console (readline?).
-- Look at code in recycle_oldes_purged_volume() recycle.c. Why not
-  let SQL do ORDER BY LastWritten ASC?
-- Look at find_next_volume() algorithm. Currently, it selects:
-    +---------+------------+---------------------+-----------+
-    | MediaId | VolumeName | LastWritten         | VolBytes  |
-    +---------+------------+---------------------+-----------+
-    |       3 | Test13     | 0000-00-00 00:00:00 |         1 |
-    |       4 | Test14     | 0000-00-00 00:00:00 |         1 |
-    |       1 | test11     | 2003-12-03 18:39:55 | 4,004,926 |
-    |       2 | test12     | 2004-01-04 15:25:56 | 2,078,691 |
-    +---------+------------+---------------------+-----------+
-  but perhaps it should fill already used Volumes first, and use
-  Append volumes before Purged, or Recycled, ...
-- Possibly remove the "|| ap == NULL" on lines 123 and 207 of lib/var.c,
-  which creates compile problems on alpha systems.
-  var.c:123: no match for `va_list & == long int'
-- Check "restore" 3 (JobId), then it asks for Storage resource. Does
-  it verify that the correct volume is chosen?
-- Make Bacula "poll a drive".
-- Notes for final checking of Nic's code:
-  Could I get you to double check the switch () statements in the
-  job_check_maxwaittime and job_check_maxruntime functions in
-  src/dird/job.c?
-- Define week of year for scheduler.  W01, W02, ...
-  Week 01 of a year is per definition the first week that has the
-  Thursday in this year, which is equivalent to the week that contains the
-  fourth day of January.  In other words, the first week of a new year is
-  the week that has the majority of its days in the new year.  Week 01
-  might also contain days from the previous year and the week before week
-  01 of a year is the last week (52 or 53) of the previous year even if it
-  contains days from the new year.  A week starts with Monday (day 1) and
-  ends with Sunday (day 7).  For example, the first week of the year 1997
-  lasts from 1996-12-30 to 1997-01-05 and can be written in standard
-  notation as
-    1997-W01 or 1997W01
-  The week notation can also be extended by a number indicating the day
-  of the week.  For example, the day 1996-12-31, which is the Tuesday (day
-  2) of the first week of 1997, can also be written as
-    1997-W01-2 or 1997W012
-- Either restrict the characters in a name, or fix the problem 
-  emailing with names containing / (smtp command line breaks).
-- Implement .consolerc for Console
-- Implement scan: for every slot it finds, zero the slot of
-  Volume other volume having that slot.
-- Make restore job check if all the files are actually restored.
-- Look at 2Gb limit for SQLite.
-- Fix get_storage_from_media_type (ua_restore) to use command line     
-  storage=
-- Don't print "Warning: Wrong Volume mounted ..." if mounting second volume.
-- Write a mini-readline with history and editing.
-- Take a careful look a the Basic recycling algorithm.  When Bacula
-  chooses, the order should be:
-   - Look for Append
-   - Look for Recycle or Purged
-   - Prune volumes
-   - Look for purged
-  Instead of using lowest media Id, find the least recently used
-  volume.
-
-  When the tape is mounted and Bacula requests the status
-  - Do everything possible to use it.
-
-  Define a "available" status, which is the currently mounted 
-  Volume and all volumes that are currently in the autochanger.
-- Is a pool specification really needed for a restore?  Yes, and
-  you may want to exclude archive Pools.
-- Implement a PostgreSQL driver.
-- Fix restore to list errors if Invalid block found, and if # files
-  restored does not match # expected.
-- Something is not right in last block of fill command.
-- Add FileSet to command line arguments for restore.
-- Enhance time and size scanning routines.
-- Add Console usr permissions -- do by adding filters for
-  jobs, clients, storage, ...
-- Put max network buffer size on a directive.
-- Why does "mark cygwin" take so long!!!!!!!!
-- Implement alist processing for ACLs from Console.
-- When a file is set for restore, walk back up the chain of 
-  directories, setting them to be restored.
-- Figure out a way to set restore on a directory without recursively
-  decending.  (recurse off?).
-- Fix restore to only pull in last Differential and later Incrementals.
-- Implement 3 Pools for a Job:
-   Job {
-     Name = ...
-     Full Backup Pool = xxx
-     Incremental Backup Pool = yyy
-     Differential Backup Pool = zzz
-   }
-- Look at ASSERT() at 384 src/lib/bnet.c
+=====
+   Multiple drive autochanger data:  see Alan Brown
+   mtx -f xxx unloadStorage Element 1 is Already Full(drive 0 was empty)
+   Unloading Data Transfer Element into Storage Element 1...source Element 
+   Address 480 is Empty
+
+   (drive 0 was empty and so was slot 1)
+   >   mtx -f xxx load 15 0
+   no response, just returns to the command prompt when complete.
+   >   mtx -f xxx status  Storage Changer /dev/changer:2 Drives, 60 Slots ( 2 Import/Export )
+   Data Transfer Element 0:Full (Storage Element 15 Loaded):VolumeTag = HX001
+   Data Transfer Element 1:Empty
+         Storage Element 1:Empty
+         Storage Element 2:Full :VolumeTag=HX002
+         Storage Element 3:Full :VolumeTag=HX003
+         Storage Element 4:Full :VolumeTag=HX004
+         Storage Element 5:Full :VolumeTag=HX005
+         Storage Element 6:Full :VolumeTag=HX006
+         Storage Element 7:Full :VolumeTag=HX007
+         Storage Element 8:Full :VolumeTag=HX008
+         Storage Element 9:Full :VolumeTag=HX009
+         Storage Element 10:Full :VolumeTag=HX010
+         Storage Element 11:Empty
+         Storage Element 12:Empty
+         Storage Element 13:Empty
+         Storage Element 14:Empty
+         Storage Element 15:Empty
+         Storage Element 16:Empty....
+         Storage Element 28:Empty
+         Storage Element 29:Full :VolumeTag=CLNU01L1
+         Storage Element 30:Empty....
+         Storage Element 57:Empty
+         Storage Element 58:Full :VolumeTag=NEX261L2
+         Storage Element 59 IMPORT/EXPORT:Empty
+         Storage Element 60 IMPORT/EXPORT:Empty
+   $  mtx -f xxx unload
+   Unloading Data Transfer Element into Storage Element 15...done
+
+   (just to verify it remembers where it came from, however it can be
+    overrriden with mtx unload {slotnumber} to go to any storage slot.)
+   Configuration wise:
+   There needs to be a table of drive # to devices somewhere - If there are
+   multiple changers or drives there may not be a 1:1 correspondance between
+   changer drive number and system device name - and depending on the way the
+   drives are hooked up to scsi busses, they may not be linearly numbered
+   from an offset point either.something like 
+
+   Autochanger drives = 2
+   Autochanger drive 0 = /dev/nst1
+   Autochanger drive 1 = /dev/nst2
+   IMHO, it would be _safest_ to use explicit mtx unload commands at all
+   times, not just for multidrive changers. For a 1 drive changer, that's
+   just:
+
+   mtx load xx 0
+   mtx unload xx 0
+
+   MTX's manpage (1.2.15):
+         unload [<slotnum>] [ <drivenum> ]
+                    Unloads media from drive  <drivenum>  into  slot
+                    <slotnum>. If <drivenum> is omitted, defaults to
+                    drive 0 (as do all commands).  If  <slotnum>  is
+                    omitted, defaults to the slot that the drive was
+                    loaded from. Note that there's currently no  way
+                    to  say  'unload  drive 1's media to the slot it
+                    came from', other than to  explicitly  use  that
+                    slot number as the destination.AB
+====
+
+====
+SCSI info:
+FreeBSD
+undef# camcontrol devlist
+<WANGTEK 51000  SCSI M74H 12B3>    at scbus0 target 2 lun 0 (pass0,sa0)
+<ARCHIVE 4586XX 28887-XXX 4BGD>    at scbus0 target 4 lun 0 (pass1,sa1)
+<ARCHIVE 4586XX 28887-XXX 4BGD>    at scbus0 target 4 lun 1 (pass2)
+
+tapeinfo -f /dev/sg0 with a bad tape in drive 1:
+[kern@rufus mtx-1.2.17kes]$ ./tapeinfo -f /dev/sg0
+Product Type: Tape Drive
+Vendor ID: 'HP      '
+Product ID: 'C5713A          '
+Revision: 'H107'
+Attached Changer: No
+TapeAlert[3]:   Hard Error: Uncorrectable read/write error.
+TapeAlert[20]:    Clean Now: The tape drive neads cleaning NOW.
+MinBlock:1
+MaxBlock:16777215
+SCSI ID: 5
+SCSI LUN: 0
+Ready: yes
+BufferedMode: yes
+Medium Type: Not Loaded
+Density Code: 0x26
+BlockSize: 0
+DataCompEnabled: yes
+DataCompCapable: yes
+DataDeCompEnabled: yes
+CompType: 0x20
+DeCompType: 0x0
+Block Position: 0
+=====
+
+====
+   Handling removable disks
+
+   From: Karl Cunningham <karlc@keckec.com>
+
+   My backups are only to hard disk these days, in removable bays. This is my
+   idea of how a backup to hard disk would work more smoothly. Some of these
+   things Bacula does already, but I mention them for completeness. If others
+   have better ways to do this, I'd like to hear about it.
+
+   1. Accommodate several disks, rotated similar to how tapes are.  Identified
+   by partition volume ID or perhaps by the name of a subdirectory.
+   2. Abort & notify the admin if the wrong disk is in the bay.
+   3. Write backups to different subdirectories for each machine to be backed
+   up.
+   4. Volumes (files) get created as needed in the proper subdirectory, one
+   for each backup.
+   5. When a disk is recycled, remove or zero all old backup files. This is
+   important as the disk being recycled may be close to full. This may be
+   better done manually since the backup files for many machines may be
+   scattered in many subdirectories.
+====
+
+
+=== Done
+- Save mount point for directories not traversed with onefs=yes.
+- Add seconds to start and end times in the Job report output.
+- if 2 concurrent backups are attempted on the same tape
+  drive (autoloader) into different tape pools, one of them will exit
+  fatally instead of halting until the drive is idle
+- Update StartTime if job held in Job Queue.
+- Look at www.nu2.nu/pebuilder as a helper for full windows
+  bare metal restore. (done by Scott)
+- Fix orphanned buffers:
+   Orphaned buffer:      24 bytes allocated at line 808 of rufus-dir job.c
+   Orphaned buffer:      40 bytes allocated at line 45 of rufus-dir alist.c
+- Implement Preben's suggestion to add
+  File System Types = ext2, ext3 
+  to FileSets, thus simplifying backup of *all* local partitions.
+- Try to open a device on each Job if it was not opened
+  when the SD started.
+- Add dump of VolSessionId/Time and FileIndex with bls.
+- If Bacula does not find the right tape in the Autochanger,
+  then mark the tape in error and move on rather than asking
+  for operator intervention.
+- Cancel command should include JobId in list of Jobs.
+- Add performance testing hooks
+- Bootstrap from JobMedia records.
+- Implement WildFile and WildDir to solve problem of 
+  saving only *.doc files.
+- Fix
+   Please use the "label"  command to create a new Volume for:
+       Storage:      DDS-4-changer
+       Media type:   
+       Pool:         Default
+   label
+   The defined Storage resources are:
+- Copy Changer Device and Changer Command from Autochanger
+  to Device resource in SD if none given in Device resource.
+- 1. Automatic use of more than one drive in an autochanger (done)
+- 2. Automatic selection of the correct drive for each Job (i.e.
+     selects a drive with an appropriate Volume for the Job) (done)
+- 6. Allow multiple simultaneous Jobs referencing the same pool write
+    to several tapes (some new directive(s) are are probably needed for
+    this) (done)
+- Locking (done)
+- Key on Storage rather than Pool (done)
+- Allow multiple drives to use same Pool (change jobq.c DIR) (done).
+- Synchronize multiple drives so that not more
+  than one loads a tape and any time (done)
+- 4. Use Changer Device and Changer Command specified in the
+     Autochanger resource, if none is found in the Device resource.
+    You can continue to specify them in the Device resource if you want
+    or need them to be different for each device.
+- 5. Implement a new Device directive (perhaps "Autoselect = yes/no") 
+    that can allow a Device be part of an Autochanger, and hence the changer
+    script protected, but if set to no, will prevent the Device from being 
+    automatically selected from the changer. This allows the device to
+    be directly accessed through its Device name, but not through the
+    AutoChanger name.
+#6   Select one from among Multiple Storage Devices for Job
+#5   Events that call a Python program 
+     (Implemented in Dir/SD)
+- Make sure the Device name is in the Query packet returned.
+- Don't start a second file job if one is already running.
+- Implement EOF/EOV labels for ANSI labels
+- Implement IBM labels.
+- When Python creates a new label, the tape is immediately
+  recycled and no label created. This happens when using   
+  autolabeling -- even when Python doesn't generate the name.
+- Scratch Pool where the volumes can be re-assigned to any Pool.
+- 28-Mar 23:19 rufus-sd: acquire.c:379 Device "DDS-4" (/dev/nst0) 
+  is busy reading. Job 6 canceled.
+- Remove separate thread for opening devices in SD.  On the other
+  hand, don't block waiting for open() for devices.
+- Fix code to either handle updating NumVol or to calculate it in
+  Dir next_vol.c
+- Ensure that you cannot exclude a directory or a file explicitly
+  Included with File.
+#4   Embedded Python Scripting 
+     (Implemented in Dir/SD/FD)
+- Add Python writable variable for changing the Priority,
+    Client, Storage, JobStatus (error), ...
+- SD Python
+  - Solicit Events
+- Add disk seeking on restore; turn off seek on tapes.
+  stored/match_bsr.c
+- Look at dird_conf.c:1000: warning: `int size' 
+  might be used uninitialized in this function
+- Indicate when a Job is purged/pruned during restore.
+