]> git.sur5r.net Git - bacula/docs/blob - docs/manuals/en/main/newfeatures.tex
Tweak newfeatures in manual
[bacula/docs] / docs / manuals / en / main / newfeatures.tex
1 \chapter{New Features in 3.1.4 (Development Version)}
2 \label{NewFeaturesChapter}
3
4 This chapter presents the new features that are currently under development
5 in the 3.1.x versions to be released as Bacula version 5.0.0 sometime in
6 late 2009 or early 2010.
7
8 \section{Truncate volume after purge}
9 \label{sec:actiononpurge}
10
11 The Pool directive \textbf{ActionOnPurge=Truncate} instructs Bacula to truncate
12 the volume when it is purged. It is useful to prevent disk based volumes from
13 consuming too much space. 
14
15 \begin{verbatim}
16 Pool {
17   Name = Default
18   Action On Purge = Truncate
19   ...
20 }
21 \end{verbatim}
22
23 \section{Maximum Concurent Jobs for Devices}
24 \label{sec:maximumconcurentjobdevice}
25
26 {\bf Maximum Concurrent Jobs} is a new Device directive in the Storage
27 Daemon configuration permits setting the maximum number of Jobs that can
28 run concurrently on a specified Device.  Using this directive, it is
29 possible to have different Jobs using multiple drives, because when the
30 Maximum Concurrent Jobs limit is reached, the Storage Daemon will start new
31 Jobs on any other available compatible drive.  This facilitates writing to
32 multiple drives with multiple Jobs that all use the same Pool.
33
34 This project was funded by Bacula Systems.
35
36 \section{Restore from Multiple Storage Daemons}
37 \index[general]{Restore}
38
39 Previously, you were able to restore from multiple devices in a single Storage
40 Daemon. Now, Bacula is able to restore from multiple Storage Daemons. For
41 example, if your full backup runs on a Storage Daemon with an autochanger, and
42 your incremental jobs use another Storage Daemon with lots of disks, Bacula
43 will switch automatically from one Storage Daemon to an other within the same
44 Restore job.
45
46 You must upgrade your File Daemon to version 3.1.3 or greater to use this
47 feature.
48
49 This project was funded by Bacula Systems with the help of Equiinet.
50
51 \section{File Deduplication using Base Jobs}
52 A base job is sort of like a Full save except that you will want the FileSet to
53 contain only files that are unlikely to change in the future (i.e.  a snapshot
54 of most of your system after installing it).  After the base job has been run,
55 when you are doing a Full save, you specify one or more Base jobs to be used.
56 All files that have been backed up in the Base job/jobs but not modified will
57 then be excluded from the backup.  During a restore, the Base jobs will be
58 automatically pulled in where necessary.
59
60 This is something none of the competition does, as far as we know (except
61 perhaps BackupPC, which is a Perl program that saves to disk only).  It is big
62 win for the user, it makes Bacula stand out as offering a unique optimization
63 that immediately saves time and money.  Basically, imagine that you have 100
64 nearly identical Windows or Linux machine containing the OS and user files.
65 Now for the OS part, a Base job will be backed up once, and rather than making
66 100 copies of the OS, there will be only one.  If one or more of the systems
67 have some files updated, no problem, they will be automatically restored.
68
69 A new Job directive \texttt{Base=Jobx, Joby...} permits to specify the list of
70 files that will be used during Full backup as base.
71
72 \begin{verbatim}
73 Job {
74    Name = BackupLinux
75    Level= Base
76    ...
77 }
78
79 Job {
80    Name = BackupZog4
81    Base = BackupZog4, BackupLinux
82    Accurate = yes
83    ...
84 }
85 \end{verbatim}
86
87 In this example, the job \texttt{BackupZog4} will use the most recent version
88 of all files contained in \texttt{BackupZog4} and \texttt{BackupLinux}
89 jobs. Base jobs should have run with \texttt{level=Base} to be used.
90
91 By default, Bacula will compare permissions bits, user and group fields,
92 modification time, size and the checksum of the file to choose between the
93 current backup and the BaseJob file list. You can change this behavior with the
94 \texttt{BaseJob} FileSet option. This option works like the \texttt{verify=}
95 one, that is described in the \ilink{FileSet}{FileSetResource} chapter.
96
97 \begin{verbatim}
98 FileSet {
99   Name = Full
100   Include = {
101     Options {
102        BaseJob  = pmugcs5
103        Accurate = mcs5
104        Verify   = pin5
105     }
106     File = /
107   }
108 }
109 \end{verbatim}
110
111
112 This project was funded by Bacula Systems.
113
114 \section{AllowCompression = \lt{}yes\vb{}no\gt{}}
115 \index[dir]{AllowCompression}
116
117 This new directive may be added to Storage resource within the Director's
118 configuration to allow users to selectively disable the client compression for
119 any job which writes to this storage resource.
120
121 For example:
122 \begin{verbatim}
123 Storage {
124   Name = UltriumTape
125   Address = ultrium-tape
126   Password = storage_password # Password for Storage Daemon
127   Device = Ultrium
128   Media Type = LTO 3
129   AllowCompression = No # Tape drive has hardware compression
130 }
131 \end{verbatim}
132 The above example would cause any jobs running with the UltriumTape storage
133 resource to run without compression from the client file daemons.  This
134 effectively overrides any compression settings defined at the FileSet level.
135
136 This feature is probably most useful if you have a tape drive which supports
137 hardware compression.  By setting the \texttt{AllowCompression = No} directive
138 for your tape drive storage resource, you can avoid additional load on the file
139 daemon and possibly speed up tape backups.
140
141 This project was funded by Collaborative Fusion, Inc.
142
143 \section{Accurate Fileset Options}
144 \label{sec:accuratefileset}
145
146 In previous versions, the accurate code used the file creation and modification
147 times to determine if a file was modified or not. Now you can specify which
148 attributes to use (time, size, checksum, permission, owner, group, \dots),
149 similar to the Verify options.
150
151 \begin{verbatim}
152 FileSet {
153   Name = Full
154   Include = {
155     Options {
156        Accurate = mcs5
157        Verify   = pin5
158     }
159     File = /
160   }
161 }
162 \end{verbatim}
163
164 \begin{description}  
165 \item {\bf i}  compare the inodes  
166 \item {\bf p}  compare the permission bits  
167 \item {\bf n}  compare the number of links  
168 \item {\bf u}  compare the user id  
169 \item {\bf g}  compare the group id  
170 \item {\bf s}  compare the size  
171 \item {\bf a}  compare the access time  
172 \item {\bf m}  compare the modification time (st\_mtime)  
173 \item {\bf c}  compare the change time (st\_ctime)  
174 \item {\bf d}  report file size decreases  
175 \item {\bf 5}  compare the MD5 signature  
176 \item {\bf 1}  compare the SHA1 signature  
177 \end{description}
178
179 \textbf{Important note:} If you decide to use checksum in Accurate jobs,
180 the File Daemon will have to read all files even if they normally would not
181 be saved.  This increases the I/O load, but also the accuracy of the
182 deduplication.  By default, Bacula will check modification/creation time
183 and size.
184
185 This project was funded by Bacula Systems.
186
187 \section{Tab-completion for Bconsole}
188 \label{sec:tabcompletion}
189
190 If you build \texttt{bconsole} with readline support, you will be able to use
191 the new auto-completion mode. This mode supports all commands, gives help
192 inside command, and lists resources when required. It works also in the restore
193 mode.
194
195 To use this feature, you should have readline development package loaded on
196 your system, and use the following option in configure.
197 \begin{verbatim}
198 ./configure --with-readline=/usr/include/readline --disable-conio ...
199 \end{verbatim}
200
201 The new bconsole won't be able to tab-complete with older directors.
202
203 This project was funded by Bacula Systems.
204
205 \section{Pool File and Job retention}
206 \label{sec:poolfilejobretention}
207
208 % TODO check
209 We added two new Pool directives, \texttt{FileRetention} and
210 \texttt{JobRetention}, that take precedence over Client directives of the same
211 name. It allows you to control the Catalog pruning algorithm Pool by Pool.
212
213 \section{Read-only File Daemon using capabilities}
214 \label{sec:fdreadonly}
215 This feature implements support of keeping \textbf{ReadAll} capabilities after
216 UID/GID switch, this allows FD to keep root read but drop write permission.
217
218 It introduces new \texttt{bacula-fd} option (\texttt{-k}) specifying that
219 \textbf{ReadAll} capabilities should be kept after UID/GID switch.
220
221 \begin{verbatim}
222 root@localhost:~# bacula-fd -k -u nobody -g nobody
223 \end{verbatim}
224
225 \section{Bvfs API}
226 \label{sec:bvfs}
227
228 To help developers of restore GUI interfaces, we have added new \textsl{dot
229   commands} that permit browsing the catalog in a very simple way.
230
231 \begin{itemize}
232 \item \texttt{.bvfs\_update [jobid=x,y,z]} This command is required to update
233   the Bvfs cache in the catalog. You need to run it before any access to the
234   Bvfs layer.
235
236 \item \texttt{.bvfs\_lsdirs jobid=x,y,z path=/path | pathid=101} This command
237   will list all directories in the specified \texttt{path} or
238   \texttt{pathid}. Using \texttt{pathid} avoids problems with character
239   encoding of path/filenames.
240
241 \item \texttt{.bvfs\_lsfiles jobid=x,y,z path=/path | pathid=101} This command
242   will list all files in the specified \texttt{path} or \texttt{pathid}. Using
243   \texttt{pathid} avoids problems with character encoding.
244 \end{itemize}
245
246 You can use \texttt{limit=xxx} and \texttt{offset=yyy} to limit the amount of
247 data that will be displayed.
248
249 \begin{verbatim}
250 * .bvfs_update jobid=1,2
251 * .bvfs_update
252 * .bvfs_lsdir path=/ jobid=1,2
253 \end{verbatim}
254
255 This project was funded by Bacula Systems.
256
257 \section{Testing your Tape Drive}
258 \label{sec:btapespeed}
259
260 To determine the best configuration of your tape drive, you can run the new
261 \texttt{speed} command available in the \texttt{btape} program.
262
263 This command can have the following arguments:
264 \begin{itemize}
265 \item[\texttt{file\_size=n}] Specify the Maximum File Size for this test
266   (between 1 and 5GB). This counter is in GB.
267 \item[\texttt{nb\_file=n}] Specify the number of file to be written. The amount
268   of data should be greater than your memory ($file\_size*nb\_file$).
269 \item[\texttt{skip\_zero}] This flag permits to skip tests with constant
270   data.
271 \item[\texttt{skip\_random}] This flag permits to skip tests with random
272   data.
273 \item[\texttt{skip\_raw}] This flag permits to skip tests with raw access.
274 \item[\texttt{skip\_block}] This flag permits to skip tests with Bacula block
275   access.
276 \end{itemize}
277
278 \begin{verbatim}
279 *speed file_size=3 skip_raw
280 btape.c:1078 Test with zero data and bacula block structure.
281 btape.c:956 Begin writing 3 files of 3.221 GB with blocks of 129024 bytes.
282 ++++++++++++++++++++++++++++++++++++++++++
283 btape.c:604 Wrote 1 EOF to "Drive-0" (/dev/nst0)
284 btape.c:406 Volume bytes=3.221 GB. Write rate = 44.128 MB/s
285 ...
286 btape.c:383 Total Volume bytes=9.664 GB. Total Write rate = 43.531 MB/s
287
288 btape.c:1090 Test with random data, should give the minimum throughput.
289 btape.c:956 Begin writing 3 files of 3.221 GB with blocks of 129024 bytes.
290 +++++++++++++++++++++++++++++++++++++++++++
291 btape.c:604 Wrote 1 EOF to "Drive-0" (/dev/nst0)
292 btape.c:406 Volume bytes=3.221 GB. Write rate = 7.271 MB/s
293 +++++++++++++++++++++++++++++++++++++++++++
294 ...
295 btape.c:383 Total Volume bytes=9.664 GB. Total Write rate = 7.365 MB/s
296
297 \end{verbatim}
298
299 When using compression, the random test will give your the minimum throughput
300 of your drive . The test using constant string will give you the maximum speed
301 of your hardware chain. (cpu, memory, scsi card, cable, drive, tape).
302
303 You can change the block size in the Storage Daemon configuration file.
304
305 \section{New {\bf Block Checksum} Device Directive}
306 You may now turn off the Block Checksum (CRC32) code
307 that Bacula uses when writing blocks to a Volume.  This is
308 done by adding:
309
310 \begin{verbatim}
311 Block Checksum = no
312 \end{verbatim}
313
314 doing so can reduce the Storage daemon CPU usage slightly.  It
315 will also permit Bacula to read a Volume that has corrupted data.
316
317 The default is {\bf yes} -- i.e. the checksum is computed on write
318 and checked on read. 
319
320 We do not recommend to turn this off particularly on older tape
321 drives or for disk Volumes where doing so may allow corrupted data
322 to go undetected.
323
324 \section{New Bat Features}
325
326 Those new features were funded by Bacula Systems.
327
328 \subsection{Media List View}
329
330 By clicking on ``Media'', you can see the list of all your volumes. You will be
331 able to filter by Pool, Media Type, Location,\dots And sort the result directly
332 in the table. The old ``Media'' view is now known as ``Pool''.
333 \begin{figure}[htbp]
334   \centering
335   \includegraphics[width=13cm]{\idir bat-mediaview.eps}
336   \label{fig:mediaview}
337 \end{figure}
338
339
340 \subsection{Media Information View}
341
342 By double-clicking on a volume (on the Media list, in the Autochanger content
343 or in the Job information panel), you can access a detailed overview of your
344 Volume. (cf \ref{fig:mediainfo}.)
345 \begin{figure}[htbp]
346   \centering
347   \includegraphics[width=13cm]{\idir bat11.eps}  
348   \caption{Media information}
349   \label{fig:mediainfo}
350 \end{figure}
351
352 \subsection{Job Information View}
353
354 By double-clicking on a Job record (on the Job run list or in the Media
355 information panel), you can access a detailed overview of your Job. (cf
356 \ref{fig:jobinfo}.)
357 \begin{figure}[htbp]
358   \centering
359   \includegraphics[width=13cm]{\idir bat12.eps}  
360   \caption{Job information}
361   \label{fig:jobinfo}
362 \end{figure}
363
364 \subsection{Autochanger Content View}
365
366 By double-clicking on a Storage record (on the Storage list panel), you can
367 access a detailed overview of your Autochanger. (cf \ref{fig:jobinfo}.)
368 \begin{figure}[htbp]
369   \centering
370   \includegraphics[width=13cm]{\idir bat13.eps}  
371   \caption{Autochanger content}
372   \label{fig:achcontent}
373 \end{figure}
374
375 To use this feature, you need to use the latest mtx-changer script
376 version. (With new \texttt{listall} and \texttt{transfer} commands)
377
378 \subsection{Win32 version}
379
380 Compilation instructions are available in \texttt{src/qt-console/README.mingw32}
381
382 \section{Console Timeout Option}
383 You can now use the -u option of bconsole to set a timeout for each command.
384
385 \section{Important behavior changes}
386 \label{sec:importantchanges}
387
388 \begin{itemize}
389 \item You are now allowed to Migrate, Copy, and Virtual Full to read and write
390   to the same Pool
391 \item The \texttt{Device Poll Interval} is now 5 minutes. (previously did not
392   poll)
393 \item The new \texttt{mtx-changer} script has two new options, \texttt{listall}
394   and \texttt{transfer}. Be sure to report your custom changes on it to be able
395   to use new functions.
396 \item To enhance security in the \texttt{BackupCatalog} job, we provide a new
397   script (\texttt{make\_catalog\_backup.pl}) that no longer expose your catalog
398   password. If you want to use the new version after an upgrade, you need to
399   manually change the \texttt{BackupCatalog} job definition.
400 \item The new \texttt{bconsole} \texttt{help} command can take now 
401   the command that you want to explain as argument. (ex: \texttt{help run})
402 \end{itemize}
403
404 \subsection{Custom Catalog queries}
405
406 If you wish to add specialized commands that list the contents of the catalog,
407 you can do so by adding them to the \texttt{query.sql} file. This
408 \texttt{query.sql} file is now empty by default, and you can copy and past
409 examples from \texttt{examples/sample-query.sql} file.
410
411 \subsection{Deprecated parts}
412
413 The following items are \textbf{deprecated} for a long time, and are now
414 removed from the code.
415 \begin{itemize}
416 \item Gnome console
417 \item Support for SQLite 2
418 \end{itemize}
419
420 \section{Misc changes}
421 \label{sec:miscchanges}
422
423 \begin{itemize}
424 \item Updated Nagios check\_bacula
425 \item Updated man files
426 \item Added OSX package generation scripts
427 \item Added Spanish and Ukrainian Bacula translation
428 \item Enable/disable command shows only Jobs that can change
429 \item Added \texttt{show disabled} command to show disabled Jobs
430 \item Many ACL improvements
431 \item Added Level to FD status Job entry
432 \item Begin Ingres DB driver (not yet working)
433 \item Splited RedHat spec files into bacula, bat, mtx, and docs
434 \item Reorganized the manuals (fewer separate manuals)
435 \item Added lock/unlock order protection in lock manager
436 \item Allow 64 bit sizes for a number of variables
437 \item Fixed several deadlocks or potential race conditions from SD
438 \end{itemize}
439
440 \chapter{New Features in Released Version 3.0.2}
441
442 This chapter presents the new features added to the
443 Released Bacula Version 3.0.2.
444
445 \section{Full Restore from a Given JobId}
446 \index[general]{Restore menu}
447
448 This feature allows selecting a single JobId and having Bacula
449 automatically select all the other jobs that comprise a full backup up to
450 and including the selected date (through JobId).
451
452 Assume we start with the following jobs:
453 \begin{verbatim}
454 +-------+--------------+---------------------+-------+----------+------------+
455 | jobid | client       | starttime           | level | jobfiles | jobbytes   |
456 +-------+--------------+---------------------+-------+----------+------------
457 | 6     | localhost-fd | 2009-07-15 11:45:49 | I     | 2        | 0          |
458 | 5     | localhost-fd | 2009-07-15 11:45:45 | I     | 15       | 44143      |
459 | 3     | localhost-fd | 2009-07-15 11:45:38 | I     | 1        | 10         |
460 | 1     | localhost-fd | 2009-07-15 11:45:30 | F     | 1527     | 44143073   |
461 +-------+--------------+---------------------+-------+----------+------------+
462 \end{verbatim}
463
464 Below is an example of this new feature (which is number 12 in the
465 menu).
466
467 \begin{verbatim}
468 * restore
469 To select the JobIds, you have the following choices:
470      1: List last 20 Jobs run
471      2: List Jobs where a given File is saved
472 ...
473     12: Select full restore to a specified Job date
474     13: Cancel
475
476 Select item:  (1-13): 12
477 Enter JobId to get the state to restore: 5
478 Selecting jobs to build the Full state at 2009-07-15 11:45:45
479 You have selected the following JobIds: 1,3,5
480
481 Building directory tree for JobId(s) 1,3,5 ...  +++++++++++++++++++
482 1,444 files inserted into the tree.
483 \end{verbatim}
484
485 This project was funded by Bacula Systems.
486
487 \section{Source Address}
488 \index[general]{Source Address}
489
490 A feature has been added which allows the administrator to specify the address
491 from which the Director and File daemons will establish connections.  This
492 may be used to simplify system configuration overhead when working in complex
493 networks utilizing multi-homing and policy-routing.
494
495 To accomplish this, two new configuration directives have been implemented:
496 \begin{verbatim}
497 FileDaemon {
498   FDSourceAddress=10.0.1.20    # Always initiate connections from this address
499 }
500
501 Director {
502   DirSourceAddress=10.0.1.10   # Always initiate connections from this address
503 }
504 \end{verbatim}
505
506 Simply adding specific host routes on the OS
507 would have an undesirable side-effect: any
508 application trying to contact the destination host would be forced to use the
509 more specific route possibly diverting management traffic onto a backup VLAN.
510 Instead of adding host routes for each client connected to a multi-homed backup
511 server (for example where there are management and backup VLANs), one can
512 use the new directives to specify a specific source address at the application
513 level.
514
515 Additionally, this allows the simplification and abstraction of firewall rules
516 when dealing with a Hot-Standby director or storage daemon configuration.  The
517 Hot-standby pair may share a CARP address, which connections must be sourced
518 from, while system services listen and act from the unique interface addresses.
519
520 This project was funded by Collaborative Fusion, Inc.
521
522 \section{Show volume availability when doing restore}
523
524 When doing a restore the selection dialog ends by displaying this
525 screen:
526
527 \begin{verbatim}
528   The job will require the following
529    Volume(s)                 Storage(s)                SD Device(s)
530    ===========================================================================
531    *000741L3                  LTO-4                     LTO3 
532    *000866L3                  LTO-4                     LTO3 
533    *000765L3                  LTO-4                     LTO3 
534    *000764L3                  LTO-4                     LTO3 
535    *000756L3                  LTO-4                     LTO3 
536    *001759L3                  LTO-4                     LTO3 
537    *001763L3                  LTO-4                     LTO3 
538     001762L3                  LTO-4                     LTO3 
539     001767L3                  LTO-4                     LTO3 
540
541 Volumes marked with ``*'' are online (in the autochanger).
542 \end{verbatim}
543
544 This should help speed up large restores by minimizing the time spent
545 waiting for the operator to discover that he must change tapes in the library.
546
547 This project was funded by Bacula Systems.
548
549 \section{Accurate estimate command}
550
551 The \texttt{estimate} command can now use the accurate code to detect changes
552 and give a better estimation.
553
554 You can set the accurate behavior on the command line by using
555 \texttt{accurate=yes\vb{}no} or use the Job setting as default value.
556
557 \begin{verbatim}
558 * estimate listing accurate=yes level=incremental job=BackupJob
559 \end{verbatim}
560
561 This project was funded by Bacula Systems.
562
563 \chapter{New Features in 3.0.0}
564 \label{NewFeaturesChapter}
565 \index[general]{New Features}
566
567 This chapter presents the new features added to the development 2.5.x
568 versions to be released as Bacula version 3.0.0 sometime in April 2009.
569
570 \section{Accurate Backup}
571 \index[general]{Accurate Backup}
572
573 As with most other backup programs, by default Bacula decides what files to
574 backup for Incremental and Differental backup by comparing the change
575 (st\_ctime) and modification (st\_mtime) times of the file to the time the last
576 backup completed.  If one of those two times is later than the last backup
577 time, then the file will be backed up.  This does not, however, permit tracking
578 what files have been deleted and will miss any file with an old time that may
579 have been restored to or moved onto the client filesystem.
580
581 \subsection{Accurate = \lt{}yes\vb{}no\gt{}}
582 If the {\bf Accurate = \lt{}yes\vb{}no\gt{}} directive is enabled (default no) in
583 the Job resource, the job will be run as an Accurate Job. For a {\bf Full}
584 backup, there is no difference, but for {\bf Differential} and {\bf
585   Incremental} backups, the Director will send a list of all previous files
586 backed up, and the File daemon will use that list to determine if any new files
587 have been added or or moved and if any files have been deleted. This allows
588 Bacula to make an accurate backup of your system to that point in time so that
589 if you do a restore, it will restore your system exactly.  
590
591 One note of caution
592 about using Accurate backup is that it requires more resources (CPU and memory)
593 on both the Director and the Client machines to create the list of previous
594 files backed up, to send that list to the File daemon, for the File daemon to
595 keep the list (possibly very big) in memory, and for the File daemon to do
596 comparisons between every file in the FileSet and the list.  In particular,
597 if your client has lots of files (more than a few million), you will need
598 lots of memory on the client machine.
599
600 Accurate must not be enabled when backing up with a plugin that is not
601 specially designed to work with Accurate. If you enable it, your restores
602 will probably not work correctly.
603
604 This project was funded by Bacula Systems.
605                                        
606
607
608 \section{Copy Jobs}
609 \index[general]{Copy Jobs}
610
611 A new {\bf Copy} job type 'C' has been implemented. It is similar to the
612 existing Migration feature with the exception that the Job that is copied is
613 left unchanged.  This essentially creates two identical copies of the same
614 backup. However, the copy is treated as a copy rather than a backup job, and
615 hence is not directly available for restore.  The {\bf restore} command lists
616 copy jobs and allows selection of copies by using \texttt{jobid=}
617 option. If the keyword {\bf copies} is present on the command line, Bacula will
618 display the list of all copies for selected jobs.
619
620 \begin{verbatim}
621 * restore copies
622 [...]
623 These JobIds have copies as follows:
624 +-------+------------------------------------+-----------+------------------+
625 | JobId | Job                                | CopyJobId | MediaType        |
626 +-------+------------------------------------+-----------+------------------+
627 | 2     | CopyJobSave.2009-02-17_16.31.00.11 | 7         | DiskChangerMedia |
628 +-------+------------------------------------+-----------+------------------+
629 +-------+-------+----------+----------+---------------------+------------------+
630 | JobId | Level | JobFiles | JobBytes | StartTime           | VolumeName       |
631 +-------+-------+----------+----------+---------------------+------------------+
632 | 19    | F     | 6274     | 76565018 | 2009-02-17 16:30:45 | ChangerVolume002 |
633 | 2     | I     | 1        | 5        | 2009-02-17 16:30:51 | FileVolume001    |
634 +-------+-------+----------+----------+---------------------+------------------+
635 You have selected the following JobIds: 19,2
636
637 Building directory tree for JobId(s) 19,2 ...  ++++++++++++++++++++++++++++++++++++++++++++
638 5,611 files inserted into the tree.
639 ...
640 \end{verbatim}
641
642
643 The Copy Job runs without using the File daemon by copying the data from the
644 old backup Volume to a different Volume in a different Pool. See the Migration
645 documentation for additional details. For copy Jobs there is a new selection
646 directive named {\bf PoolUncopiedJobs} which selects all Jobs that were
647 not already copied to another Pool. 
648
649 As with Migration, the Client, Volume, Job, or SQL query, are
650 other possible ways of selecting the Jobs to be copied. Selection
651 types like SmallestVolume, OldestVolume, PoolOccupancy and PoolTime also
652 work, but are probably more suited for Migration Jobs. 
653
654 If Bacula finds a Copy of a job record that is purged (deleted) from the catalog,
655 it will promote the Copy to a \textsl{real} backup job and will make it available for
656 automatic restore. If more than one Copy is available, it will promote the copy
657 with the smallest JobId.
658
659 A nice solution which can be built with the new Copy feature is often
660 called disk-to-disk-to-tape backup (DTDTT). A sample config could
661 look something like the one below:
662
663 \begin{verbatim}
664 Pool {
665   Name = FullBackupsVirtualPool
666   Pool Type = Backup
667   Purge Oldest Volume = Yes
668   Storage = vtl
669   NextPool = FullBackupsTapePool
670 }
671
672 Pool {
673   Name = FullBackupsTapePool
674   Pool Type = Backup
675   Recycle = Yes
676   AutoPrune = Yes
677   Volume Retention = 365 days
678   Storage = superloader
679 }
680
681 #
682 # Fake fileset for copy jobs
683 #
684 Fileset {
685   Name = None
686   Include {
687     Options {
688       signature = MD5
689     }
690   }
691 }
692
693 #
694 # Fake client for copy jobs
695 #
696 Client {
697   Name = None
698   Address = localhost
699   Password = "NoNe"
700   Catalog = MyCatalog
701 }
702
703 #
704 # Default template for a CopyDiskToTape Job
705 #
706 JobDefs {
707   Name = CopyDiskToTape
708   Type = Copy
709   Messages = StandardCopy
710   Client = None
711   FileSet = None
712   Selection Type = PoolUncopiedJobs
713   Maximum Concurrent Jobs = 10
714   SpoolData = No
715   Allow Duplicate Jobs = Yes
716   Allow Higher Duplicates = No
717   Cancel Queued Duplicates = No
718   Cancel Running Duplicates = No
719   Priority = 13
720 }
721
722 Schedule {
723    Name = DaySchedule7:00
724    Run = Level=Full daily at 7:00
725 }
726
727 Job {
728   Name = CopyDiskToTapeFullBackups
729   Enabled = Yes
730   Schedule = DaySchedule7:00
731   Pool = FullBackupsVirtualPool
732   JobDefs = CopyDiskToTape
733 }
734 \end{verbatim}
735
736 The example above had 2 pool which are copied using the PoolUncopiedJobs
737 selection criteria. Normal Full backups go to the Virtual pool and are copied
738 to the Tape pool the next morning.
739
740 The command \texttt{list copies [jobid=x,y,z]} lists copies for a given
741 \textbf{jobid}.
742
743 \begin{verbatim}
744 *list copies
745 +-------+------------------------------------+-----------+------------------+
746 | JobId | Job                                | CopyJobId | MediaType        |
747 +-------+------------------------------------+-----------+------------------+
748 |     9 | CopyJobSave.2008-12-20_22.26.49.05 |        11 | DiskChangerMedia |
749 +-------+------------------------------------+-----------+------------------+
750 \end{verbatim}
751
752 \section{ACL Updates}
753 \index[general]{ACL Updates}
754 The whole ACL code had been overhauled and in this version each platforms has
755 different streams for each type of acl available on such an platform. As ACLs
756 between platforms tend to be not that portable (most implement POSIX acls but
757 some use an other draft or a completely different format) we currently only
758 allow certain platform specific ACL streams to be decoded and restored on the
759 same platform that they were created on.  The old code allowed to restore ACL
760 cross platform but the comments already mention that not being to wise. For
761 backward compatability the new code will accept the two old ACL streams and
762 handle those with the platform specific handler. But for all new backups it
763 will save the ACLs using the new streams.
764
765 Currently the following platforms support ACLs:
766
767 \begin{itemize}
768  \item {\bf AIX}
769  \item {\bf Darwin/OSX}
770  \item {\bf FreeBSD}
771  \item {\bf HPUX}
772  \item {\bf IRIX}
773  \item {\bf Linux}
774  \item {\bf Tru64}
775  \item {\bf Solaris}
776 \end{itemize}
777
778 Currently we support the following ACL types (these ACL streams use a reserved
779 part of the stream numbers):
780
781 \begin{itemize}
782 \item {\bf STREAM\_ACL\_AIX\_TEXT} 1000 AIX specific string representation from
783   acl\_get
784  \item {\bf STREAM\_ACL\_DARWIN\_ACCESS\_ACL} 1001 Darwin (OSX) specific acl\_t
785    string representation from acl\_to\_text (POSIX acl)
786   \item {\bf STREAM\_ACL\_FREEBSD\_DEFAULT\_ACL} 1002 FreeBSD specific acl\_t
787     string representation from acl\_to\_text (POSIX acl) for default acls.
788   \item {\bf STREAM\_ACL\_FREEBSD\_ACCESS\_ACL} 1003 FreeBSD specific acl\_t
789     string representation from acl\_to\_text (POSIX acl) for access acls.
790   \item {\bf STREAM\_ACL\_HPUX\_ACL\_ENTRY} 1004 HPUX specific acl\_entry
791     string representation from acltostr (POSIX acl)
792   \item {\bf STREAM\_ACL\_IRIX\_DEFAULT\_ACL} 1005 IRIX specific acl\_t string
793     representation from acl\_to\_text (POSIX acl) for default acls.
794   \item {\bf STREAM\_ACL\_IRIX\_ACCESS\_ACL} 1006 IRIX specific acl\_t string
795     representation from acl\_to\_text (POSIX acl) for access acls.
796   \item {\bf STREAM\_ACL\_LINUX\_DEFAULT\_ACL} 1007 Linux specific acl\_t
797     string representation from acl\_to\_text (POSIX acl) for default acls.
798   \item {\bf STREAM\_ACL\_LINUX\_ACCESS\_ACL} 1008 Linux specific acl\_t string
799     representation from acl\_to\_text (POSIX acl) for access acls.
800   \item {\bf STREAM\_ACL\_TRU64\_DEFAULT\_ACL} 1009 Tru64 specific acl\_t
801     string representation from acl\_to\_text (POSIX acl) for default acls.
802   \item {\bf STREAM\_ACL\_TRU64\_DEFAULT\_DIR\_ACL} 1010 Tru64 specific acl\_t
803     string representation from acl\_to\_text (POSIX acl) for default acls.
804   \item {\bf STREAM\_ACL\_TRU64\_ACCESS\_ACL} 1011 Tru64 specific acl\_t string
805     representation from acl\_to\_text (POSIX acl) for access acls.
806   \item {\bf STREAM\_ACL\_SOLARIS\_ACLENT} 1012 Solaris specific aclent\_t
807     string representation from acltotext or acl\_totext (POSIX acl)
808   \item {\bf STREAM\_ACL\_SOLARIS\_ACE} 1013 Solaris specific ace\_t string
809     representation from from acl\_totext (NFSv4 or ZFS acl)
810 \end{itemize}
811
812 In future versions we might support conversion functions from one type of acl
813 into an other for types that are either the same or easily convertable. For now
814 the streams are seperate and restoring them on a platform that doesn't
815 recognize them will give you a warning.
816
817 \section{Extended Attributes}
818 \index[general]{Extended Attributes}
819 Something that was on the project list for some time is now implemented for
820 platforms that support a similar kind of interface. Its the support for backup
821 and restore of so called extended attributes. As extended attributes are so
822 platform specific these attributes are saved in seperate streams for each
823 platform.  Restores of the extended attributes can only be performed on the
824 same platform the backup was done.  There is support for all types of extended
825 attributes, but restoring from one type of filesystem onto an other type of
826 filesystem on the same platform may lead to supprises.  As extended attributes
827 can contain any type of data they are stored as a series of so called
828 value-pairs.  This data must be seen as mostly binary and is stored as such.
829 As security labels from selinux are also extended attributes this option also
830 stores those labels and no specific code is enabled for handling selinux
831 security labels.
832
833 Currently the following platforms support extended attributes:
834 \begin{itemize}
835  \item {\bf Darwin/OSX}
836  \item {\bf FreeBSD}
837  \item {\bf Linux}
838  \item {\bf NetBSD}
839 \end{itemize}
840
841 On linux acls are also extended attributes, as such when you enable ACLs on a
842 Linux platform it will NOT save the same data twice e.g. it will save the ACLs
843 and not the same exteneded attribute.
844
845 To enable the backup of extended attributes please add the following to your
846 fileset definition.
847 \begin{verbatim}
848   FileSet {
849     Name = "MyFileSet"
850     Include {
851       Options {
852         signature = MD5
853         xattrsupport = yes
854       }
855       File = ...
856     }
857   }
858 \end{verbatim}
859
860 \section{Shared objects}
861 \index[general]{Shared objects}
862 A default build of Bacula will now create the libraries as shared objects
863 (.so) rather than static libraries as was previously the case.  
864 The shared libraries are built using {\bf libtool} so it should be quite
865 portable.
866
867 An important advantage of using shared objects is that on a machine with the
868 Directory, File daemon, the Storage daemon, and a console, you will have only
869 one copy of the code in memory rather than four copies.  Also the total size of
870 the binary release is smaller since the library code appears only once rather
871 than once for every program that uses it; this results in significant reduction
872 in the size of the binaries particularly for the utility tools.
873  
874 In order for the system loader to find the shared objects when loading the
875 Bacula binaries, the Bacula shared objects must either be in a shared object
876 directory known to the loader (typically /usr/lib) or they must be in the
877 directory that may be specified on the {\bf ./configure} line using the {\bf
878   {-}{-}libdir} option as:
879
880 \begin{verbatim}
881   ./configure --libdir=/full-path/dir
882 \end{verbatim}
883
884 the default is /usr/lib. If {-}{-}libdir is specified, there should be
885 no need to modify your loader configuration provided that
886 the shared objects are installed in that directory (Bacula
887 does this with the make install command). The shared objects
888 that Bacula references are:
889
890 \begin{verbatim}
891 libbaccfg.so
892 libbacfind.so
893 libbacpy.so
894 libbac.so
895 \end{verbatim}
896
897 These files are symbolically linked to the real shared object file,
898 which has a version number to permit running multiple versions of
899 the libraries if desired (not normally the case).
900
901 If you have problems with libtool or you wish to use the old
902 way of building static libraries, or you want to build a static
903 version of Bacula you may disable
904 libtool on the configure command line with:
905
906 \begin{verbatim}
907   ./configure --disable-libtool
908 \end{verbatim}
909
910
911 \section{Building Static versions of Bacula}
912 \index[general]{Static linking}
913 In order to build static versions of Bacula, in addition
914 to configuration options that were needed you now must
915 also add --disable-libtool.  Example
916
917 \begin{verbatim}
918   ./configure --enable-static-client-only --disable-libtool
919 \end{verbatim}
920
921
922 \section{Virtual Backup (Vbackup)}
923 \index[general]{Virtual Backup}
924 \index[general]{Vbackup}
925
926 Bacula's virtual backup feature is often called Synthetic Backup or
927 Consolidation in other backup products.  It permits you to consolidate the
928 previous Full backup plus the most recent Differential backup and any
929 subsequent Incremental backups into a new Full backup.  This new Full
930 backup will then be considered as the most recent Full for any future
931 Incremental or Differential backups.  The VirtualFull backup is
932 accomplished without contacting the client by reading the previous backup
933 data and writing it to a volume in a different pool.
934
935 In some respects the Vbackup feature works similar to a Migration job, in
936 that Bacula normally reads the data from the pool specified in the 
937 Job resource, and writes it to the {\bf Next Pool} specified in the 
938 Job resource. Note, this means that usually the output from the Virtual
939 Backup is written into a different pool from where your prior backups
940 are saved. Doing it this way guarantees that you will not get a deadlock
941 situation attempting to read and write to the same volume in the Storage
942 daemon. If you then want to do subsequent backups, you may need to
943 move the Virtual Full Volume back to your normal backup pool.
944 Alternatively, you can set your {\bf Next Pool} to point to the current
945 pool.  This will cause Bacula to read and write to Volumes in the
946 current pool. In general, this will work, because Bacula will
947 not allow reading and writing on the same Volume. In any case, once
948 a VirtualFull has been created, and a restore is done involving the
949 most current Full, it will read the Volume or Volumes by the VirtualFull 
950 regardless of in which Pool the Volume is found.
951
952 The Vbackup is enabled on a Job by Job in the Job resource by specifying
953 a level of {\bf VirtualFull}.
954
955 A typical Job resource definition might look like the following:
956
957 \begin{verbatim}
958 Job {
959   Name = "MyBackup"
960   Type = Backup
961   Client=localhost-fd
962   FileSet = "Full Set"
963   Storage = File
964   Messages = Standard
965   Pool = Default
966   SpoolData = yes
967 }
968
969 # Default pool definition
970 Pool {
971   Name = Default
972   Pool Type = Backup
973   Recycle = yes            # Automatically recycle Volumes
974   AutoPrune = yes          # Prune expired volumes
975   Volume Retention = 365d  # one year
976   NextPool = Full
977   Storage = File
978 }
979
980 Pool {
981   Name = Full
982   Pool Type = Backup
983   Recycle = yes            # Automatically recycle Volumes
984   AutoPrune = yes          # Prune expired volumes
985   Volume Retention = 365d  # one year
986   Storage = DiskChanger
987 }
988
989 # Definition of file storage device
990 Storage {
991   Name = File
992   Address = localhost
993   Password = "xxx"
994   Device = FileStorage
995   Media Type = File
996   Maximum Concurrent Jobs = 5
997 }
998
999 # Definition of DDS Virtual tape disk storage device
1000 Storage {
1001   Name = DiskChanger
1002   Address = localhost  # N.B. Use a fully qualified name here
1003   Password = "yyy"
1004   Device = DiskChanger
1005   Media Type = DiskChangerMedia
1006   Maximum Concurrent Jobs = 4
1007   Autochanger = yes
1008 }
1009 \end{verbatim}
1010
1011 Then in bconsole or via a Run schedule, you would run the job as:
1012
1013 \begin{verbatim}
1014 run job=MyBackup level=Full
1015 run job=MyBackup level=Incremental
1016 run job=MyBackup level=Differential
1017 run job=MyBackup level=Incremental
1018 run job=MyBackup level=Incremental
1019 \end{verbatim}
1020
1021 So providing there were changes between each of those jobs, you would end up
1022 with a Full backup, a Differential, which includes the first Incremental
1023 backup, then two Incremental backups.  All the above jobs would be written to
1024 the {\bf Default} pool.
1025
1026 To consolidate those backups into a new Full backup, you would run the
1027 following:
1028
1029 \begin{verbatim}
1030 run job=MyBackup level=VirtualFull
1031 \end{verbatim}
1032
1033 And it would produce a new Full backup without using the client, and the output
1034 would be written to the {\bf Full} Pool which uses the Diskchanger Storage.
1035
1036 If the Virtual Full is run, and there are no prior Jobs, the Virtual Full will
1037 fail with an error.
1038
1039 Note, the Start and End time of the Virtual Full backup is set to the
1040 values for the last job included in the Virtual Full (in the above example,
1041 it is an Increment). This is so that if another incremental is done, which
1042 will be based on the Virtual Full, it will backup all files from the
1043 last Job included in the Virtual Full rather than from the time the Virtual
1044 Full was actually run.
1045
1046
1047
1048 \section{Catalog Format}
1049 \index[general]{Catalog Format}
1050 Bacula 3.0 comes with some changes to the catalog format.  The upgrade
1051 operation will convert the FileId field of the File table from 32 bits (max 4
1052 billion table entries) to 64 bits (very large number of items).  The
1053 conversion process can take a bit of time and will likely DOUBLE THE SIZE of
1054 your catalog during the conversion.  Also you won't be able to run jobs during
1055 this conversion period.  For example, a 3 million file catalog will take 2
1056 minutes to upgrade on a normal machine.  Please don't forget to make a valid
1057 backup of your database before executing the upgrade script. See the 
1058 ReleaseNotes for additional details.
1059
1060 \section{64 bit Windows Client}
1061 \index[general]{Win64 Client}
1062 Unfortunately, Microsoft's implementation of Volume Shadown Copy (VSS) on
1063 their 64 bit OS versions is not compatible with a 32 bit Bacula Client.
1064 As a consequence, we are also releasing a 64 bit version of the Bacula 
1065 Windows Client (win64bacula-3.0.0.exe) that does work with VSS. 
1066 These binaries should only be installed on 64 bit Windows operating systems.
1067 What is important is not your hardware but whether or not you have
1068 a 64 bit version of the Windows OS.  
1069
1070 Compared to the Win32 Bacula Client, the 64 bit release contains a few differences:
1071 \begin{enumerate}
1072 \item Before installing the Win64 Bacula Client, you must totally
1073       deinstall any prior 2.4.x Client installation using the 
1074       Bacula deinstallation (see the menu item). You may want
1075       to save your .conf files first.
1076 \item Only the Client (File daemon) is ported to Win64, the Director
1077       and the Storage daemon are not in the 64 bit Windows installer.
1078 \item bwx-console is not yet ported.
1079 \item bconsole is ported but it has not been tested.
1080 \item The documentation is not included in the installer.
1081 \item Due to Vista security restrictions imposed on a default installation
1082       of Vista, before upgrading the Client, you must manually stop
1083       any prior version of Bacula from running, otherwise the install
1084       will fail.
1085 \item Due to Vista security restrictions imposed on a default installation
1086       of Vista, attempting to edit the conf files via the menu items
1087       will fail. You must directly edit the files with appropriate 
1088       permissions.  Generally double clicking on the appropriate .conf
1089       file will work providing you have sufficient permissions.
1090 \item All Bacula files are now installed in 
1091       {\bf C:/Program Files/Bacula} except the main menu items,
1092       which are installed as before. This vastly simplifies the installation.
1093 \item If you are running on a foreign language version of Windows, most
1094       likely {\bf C:/Program Files} does not exist, so you should use the
1095       Custom installation and enter an appropriate location to install
1096       the files.
1097 \item The 3.0.0 Win32 Client continues to install files in the locations used
1098       by prior versions. For the next version we will convert it to use
1099       the same installation conventions as the Win64 version.
1100 \end{enumerate}
1101
1102 This project was funded by Bacula Systems.
1103
1104
1105 \section{Duplicate Job Control}
1106 \index[general]{Duplicate Jobs}
1107 The new version of Bacula provides four new directives that
1108 give additional control over what Bacula does if duplicate jobs 
1109 are started.  A duplicate job in the sense we use it here means
1110 a second or subsequent job with the same name starts.  This
1111 happens most frequently when the first job runs longer than expected because no 
1112 tapes are available.
1113
1114 The four directives each take as an argument a {\bf yes} or {\bf no} value and
1115 are specified in the Job resource.
1116
1117 They are:
1118
1119 \subsection{Allow Duplicate Jobs = \lt{}yes\vb{}no\gt{}}
1120 \index[general]{Allow Duplicate Jobs}
1121   If this directive is enabled duplicate jobs will be run.  If
1122   the directive is set to {\bf no} (default) then only one job of a given name
1123   may run at one time, and the action that Bacula takes to ensure only
1124   one job runs is determined by the other directives (see below).
1125  
1126   If {\bf Allow Duplicate Jobs} is set to {\bf no} and two jobs
1127   are present and none of the three directives given below permit
1128   cancelling a job, then the current job (the second one started)
1129   will be cancelled.
1130
1131
1132 \subsection{Allow Higher Duplicates = \lt{}yes\vb{}no\gt{}}
1133 \index[general]{Allow Higher Duplicates}
1134   If this directive is set to {\bf yes} (default) the job with a higher
1135   priority (lower priority number) will be permitted to run, and
1136   the current job will be cancelled.  If the
1137   priorities of the two jobs are the same, the outcome is determined by
1138   other directives (see below).
1139
1140 \subsection{Cancel Queued Duplicates = \lt{}yes\vb{}no\gt{}}
1141 \index[general]{Cancel Queued Duplicates}
1142   If {\bf Allow Duplicate Jobs} is set to {\bf no} and
1143   if this directive is set to {\bf yes} any job that is
1144   already queued to run but not yet running will be canceled.
1145   The default is {\bf no}. 
1146
1147 \subsection{Cancel Running Duplicates = \lt{}yes\vb{}no\gt{}}
1148 \index[general]{Cancel Running Duplicates}
1149   If {\bf Allow Duplicate Jobs} is set to {\bf no} and
1150   if this directive is set to {\bf yes} any job that is already running
1151   will be canceled.  The default is {\bf no}.
1152
1153
1154 \section{TLS Authentication}
1155 \index[general]{TLS Authentication}
1156 In Bacula version 2.5.x and later, in addition to the normal Bacula
1157 CRAM-MD5 authentication that is used to authenticate each Bacula
1158 connection, you can specify that you want TLS Authentication as well,
1159 which will provide more secure authentication.
1160
1161 This new feature uses Bacula's existing TLS code (normally used for
1162 communications encryption) to do authentication.  To use it, you must
1163 specify all the TLS directives normally used to enable communications
1164 encryption (TLS Enable, TLS Verify Peer, TLS Certificate, ...) and
1165 a new directive:
1166
1167 \subsection{TLS Authenticate = yes}
1168 \begin{verbatim}
1169 TLS Authenticate = yes
1170 \end{verbatim}
1171
1172 in the main daemon configuration resource (Director for the Director,
1173 Client for the File daemon, and Storage for the Storage daemon).
1174
1175 When {\bf TLS Authenticate} is enabled, after doing the CRAM-MD5
1176 authentication, Bacula will also do TLS authentication, then TLS 
1177 encryption will be turned off, and the rest of the communication between
1178 the two Bacula daemons will be done without encryption.
1179
1180 If you want to encrypt communications data, use the normal TLS directives
1181 but do not turn on {\bf TLS Authenticate}.
1182
1183 \section{bextract non-portable Win32 data}
1184 \index[general]{bextract handles Win32 non-portable data}
1185 {\bf bextract} has been enhanced to be able to restore
1186 non-portable Win32 data to any OS.  Previous versions were 
1187 unable to restore non-portable Win32 data to machines that
1188 did not have the Win32 BackupRead and BackupWrite API calls.
1189
1190 \section{State File updated at Job Termination}
1191 \index[general]{State File}
1192 In previous versions of Bacula, the state file, which provides a
1193 summary of previous jobs run in the {\bf status} command output was
1194 updated only when Bacula terminated, thus if the daemon crashed, the
1195 state file might not contain all the run data.  This version of
1196 the Bacula daemons updates the state file on each job termination.
1197
1198 \section{MaxFullInterval = \lt{}time-interval\gt{}}
1199 \index[general]{MaxFullInterval}
1200 The new Job resource directive {\bf Max Full Interval = \lt{}time-interval\gt{}}
1201 can be used to specify the maximum time interval between {\bf Full} backup
1202 jobs. When a job starts, if the time since the last Full backup is
1203 greater than the specified interval, and the job would normally be an
1204 {\bf Incremental} or {\bf Differential}, it will be automatically
1205 upgraded to a {\bf Full} backup.
1206
1207 \section{MaxDiffInterval = \lt{}time-interval\gt{}}
1208 \index[general]{MaxDiffInterval}
1209 The new Job resource directive {\bf Max Diff Interval = \lt{}time-interval\gt{}}
1210 can be used to specify the maximum time interval between {\bf Differential} backup
1211 jobs. When a job starts, if the time since the last Differential backup is
1212 greater than the specified interval, and the job would normally be an
1213 {\bf Incremental}, it will be automatically
1214 upgraded to a {\bf Differential} backup.
1215
1216 \section{Honor No Dump Flag = \lt{}yes\vb{}no\gt{}}
1217 \index[general]{MaxDiffInterval}
1218 On FreeBSD systems, each file has a {\bf no dump flag} that can be set
1219 by the user, and when it is set it is an indication to backup programs
1220 to not backup that particular file.  This version of Bacula contains a
1221 new Options directive within a FileSet resource, which instructs Bacula to
1222 obey this flag.  The new directive is:
1223
1224 \begin{verbatim}
1225   Honor No Dump Flag = yes\vb{}no
1226 \end{verbatim}
1227
1228 The default value is {\bf no}.
1229
1230
1231 \section{Exclude Dir Containing = \lt{}filename-string\gt{}}
1232 \index[general]{IgnoreDir}
1233 The {\bf ExcludeDirContaining = \lt{}filename\gt{}} is a new directive that
1234 can be added to the Include section of the FileSet resource.  If the specified
1235 filename ({\bf filename-string}) is found on the Client in any directory to be
1236 backed up, the whole directory will be ignored (not backed up).  For example:
1237
1238 \begin{verbatim}
1239   # List of files to be backed up
1240   FileSet {
1241     Name = "MyFileSet"
1242     Include {
1243       Options {
1244         signature = MD5
1245       }
1246       File = /home
1247       Exclude Dir Containing = .excludeme
1248     }
1249   }
1250 \end{verbatim}
1251
1252 But in /home, there may be hundreds of directories of users and some
1253 people want to indicate that they don't want to have certain
1254 directories backed up. For example, with the above FileSet, if
1255 the user or sysadmin creates a file named {\bf .excludeme} in 
1256 specific directories, such as
1257
1258 \begin{verbatim}
1259    /home/user/www/cache/.excludeme
1260    /home/user/temp/.excludeme
1261 \end{verbatim}
1262
1263 then Bacula will not backup the two directories named:
1264
1265 \begin{verbatim}
1266    /home/user/www/cache
1267    /home/user/temp
1268 \end{verbatim}
1269
1270 NOTE: subdirectories will not be backed up.  That is, the directive
1271 applies to the two directories in question and any children (be they
1272 files, directories, etc).
1273
1274
1275 \section{Bacula Plugins}
1276 \index[general]{Plugin}
1277 Support for shared object plugins has been implemented in the Linux, Unix
1278 and Win32 File daemons. The API will be documented separately in
1279 the Developer's Guide or in a new document.  For the moment, there is
1280 a single plugin named {\bf bpipe} that allows an external program to
1281 get control to backup and restore a file.
1282
1283 Plugins are also planned (partially implemented) in the Director and the
1284 Storage daemon.  
1285
1286 \subsection{Plugin Directory}
1287 \index[general]{Plugin Directory}
1288 Each daemon (DIR, FD, SD) has a new {\bf Plugin Directory} directive that may
1289 be added to the daemon definition resource. The directory takes a quoted 
1290 string argument, which is the name of the directory in which the daemon can
1291 find the Bacula plugins. If this directive is not specified, Bacula will not
1292 load any plugins. Since each plugin has a distinctive name, all the daemons
1293 can share the same plugin directory. 
1294
1295 \subsection{Plugin Options}
1296 \index[general]{Plugin Options}
1297 The {\bf Plugin Options} directive takes a quoted string
1298 arguement (after the equal sign) and may be specified in the
1299 Job resource.  The options specified will be passed to all plugins
1300 when they are run.  This each plugin must know what it is looking
1301 for. The value defined in the Job resource can be modified
1302 by the user when he runs a Job via the {\bf bconsole} command line 
1303 prompts.
1304
1305 Note: this directive may be specified, and there is code to modify
1306 the string in the run command, but the plugin options are not yet passed to
1307 the plugin (i.e. not fully implemented).
1308
1309 \subsection{Plugin Options ACL}
1310 \index[general]{Plugin Options ACL}
1311 The {\bf Plugin Options ACL} directive may be specified in the
1312 Director's Console resource. It functions as all the other ACL commands
1313 do by permitting users running restricted consoles to specify a 
1314 {\bf Plugin Options} that overrides the one specified in the Job
1315 definition. Without this directive restricted consoles may not modify
1316 the Plugin Options.
1317
1318 \subsection{Plugin = \lt{}plugin-command-string\gt{}}
1319 \index[general]{Plugin}
1320 The {\bf Plugin} directive is specified in the Include section of
1321 a FileSet resource where you put your {\bf File = xxx} directives.
1322 For example:
1323
1324 \begin{verbatim}
1325   FileSet {
1326     Name = "MyFileSet"
1327     Include {
1328       Options {
1329         signature = MD5
1330       }
1331       File = /home
1332       Plugin = "bpipe:..."
1333     }
1334   }
1335 \end{verbatim}
1336
1337 In the above example, when the File daemon is processing the directives
1338 in the Include section, it will first backup all the files in {\bf /home}
1339 then it will load the plugin named {\bf bpipe} (actually bpipe-dir.so) from
1340 the Plugin Directory.  The syntax and semantics of the Plugin directive
1341 require the first part of the string up to the colon (:) to be the name
1342 of the plugin. Everything after the first colon is ignored by the File daemon but
1343 is passed to the plugin. Thus the plugin writer may define the meaning of the
1344 rest of the string as he wishes.
1345
1346 Please see the next section for information about the {\bf bpipe} Bacula
1347 plugin.
1348
1349 \section{The bpipe Plugin}
1350 \index[general]{The bpipe Plugin}
1351 The {\bf bpipe} plugin is provided in the directory src/plugins/fd/bpipe-fd.c of
1352 the Bacula source distribution. When the plugin is compiled and linking into
1353 the resulting dynamic shared object (DSO), it will have the name {\bf bpipe-fd.so}.
1354
1355 The purpose of the plugin is to provide an interface to any system program for
1356 backup and restore. As specified above the {\bf bpipe} plugin is specified in
1357 the Include section of your Job's FileSet resource.  The full syntax of the
1358 plugin directive as interpreted by the {\bf bpipe} plugin (each plugin is free
1359 to specify the sytax as it wishes) is:
1360
1361 \begin{verbatim}
1362   Plugin = "<field1>:<field2>:<field3>:<field4>"
1363 \end{verbatim}
1364
1365 where
1366 \begin{description}
1367 \item {\bf field1} is the name of the plugin with the trailing {\bf -fd.so}
1368 stripped off, so in this case, we would put {\bf bpipe} in this field.
1369
1370 \item {\bf field2} specifies the namespace, which for {\bf bpipe} is the
1371 pseudo path and filename under which the backup will be saved. This pseudo
1372 path and filename will be seen by the user in the restore file tree.
1373 For example, if the value is {\bf /MYSQL/regress.sql}, the data
1374 backed up by the plugin will be put under that "pseudo" path and filename.
1375 You must be careful to choose a naming convention that is unique to avoid
1376 a conflict with a path and filename that actually exists on your system.
1377
1378 \item {\bf field3} for the {\bf bpipe} plugin 
1379 specifies the "reader" program that is called by the plugin during
1380 backup to read the data. {\bf bpipe} will call this program by doing a
1381 {\bf popen} on it.
1382
1383 \item {\bf field4} for the {\bf bpipe} plugin
1384 specifies the "writer" program that is called by the plugin during
1385 restore to write the data back to the filesystem.  
1386 \end{description}
1387
1388 Putting it all together, the full plugin directive line might look
1389 like the following:
1390
1391 \begin{verbatim}
1392 Plugin = "bpipe:/MYSQL/regress.sql:mysqldump -f 
1393           --opt --databases bacula:mysql"
1394 \end{verbatim}
1395
1396 The directive has been split into two lines, but within the {\bf bacula-dir.conf} file
1397 would be written on a single line.
1398
1399 This causes the File daemon to call the {\bf bpipe} plugin, which will write
1400 its data into the "pseudo" file {\bf /MYSQL/regress.sql} by calling the 
1401 program {\bf mysqldump -f --opt --database bacula} to read the data during
1402 backup. The mysqldump command outputs all the data for the database named
1403 {\bf bacula}, which will be read by the plugin and stored in the backup.
1404 During restore, the data that was backed up will be sent to the program
1405 specified in the last field, which in this case is {\bf mysql}.  When
1406 {\bf mysql} is called, it will read the data sent to it by the plugn
1407 then write it back to the same database from which it came ({\bf bacula}
1408 in this case).
1409
1410 The {\bf bpipe} plugin is a generic pipe program, that simply transmits 
1411 the data from a specified program to Bacula for backup, and then from Bacula to 
1412 a specified program for restore.
1413
1414 By using different command lines to {\bf bpipe},
1415 you can backup any kind of data (ASCII or binary) depending
1416 on the program called.
1417
1418 \section{Microsoft Exchange Server 2003/2007 Plugin}
1419 \index[general]{Microsoft Exchange Server 2003/2007 Plugin}
1420 \subsection{Background}
1421 The Exchange plugin was made possible by a funded development project
1422 between Equiinet Ltd -- www.equiinet.com (many thanks) and Bacula Systems.
1423 The code for the plugin was written by James Harper, and the Bacula core
1424 code by Kern Sibbald.  All the code for this funded development has become
1425 part of the Bacula project.  Thanks to everyone who made it happen.
1426
1427 \subsection{Concepts}
1428 Although it is possible to backup Exchange using Bacula VSS the Exchange 
1429 plugin adds a good deal of functionality, because while Bacula VSS
1430 completes a full backup (snapshot) of Exchange, it does
1431 not support Incremental or Differential backups, restoring is more
1432 complicated, and a single database restore is not possible.
1433
1434 Microsoft Exchange organises its storage into Storage Groups with
1435 Databases inside them. A default installation of Exchange will have a
1436 single Storage Group called 'First Storage Group', with two Databases
1437 inside it, "Mailbox Store (SERVER NAME)" and 
1438 "Public Folder Store (SERVER NAME)", 
1439 which hold user email and public folders respectively.
1440
1441 In the default configuration, Exchange logs everything that happens to
1442 log files, such that if you have a backup, and all the log files since,
1443 you can restore to the present time. Each Storage Group has its own set
1444 of log files and operates independently of any other Storage Groups. At
1445 the Storage Group level, the logging can be turned off by enabling a
1446 function called "Enable circular logging". At this time the Exchange
1447 plugin will not function if this option is enabled.
1448
1449 The plugin allows backing up of entire storage groups, and the restoring
1450 of entire storage groups or individual databases. Backing up and
1451 restoring at the individual mailbox or email item is not supported but
1452 can be simulated by use of the "Recovery" Storage Group (see below).
1453
1454 \subsection{Installing}
1455 The Exchange plugin requires a DLL that is shipped with Microsoft
1456 Exchanger Server called {\bf esebcli2.dll}. Assuming Exchange is installed
1457 correctly the Exchange plugin should find this automatically and run
1458 without any additional installation.
1459
1460 If the DLL can not be found automatically it will need to be copied into
1461 the Bacula installation
1462 directory (eg C:\verb+\+Program Files\verb+\+Bacula\verb+\+bin). The Exchange API DLL is
1463 named esebcli2.dll and is found in C:\verb+\+Program Files\verb+\+Exchsrvr\verb+\+bin on a
1464 default Exchange installation.
1465
1466 \subsection{Backing Up}
1467 To back up an Exchange server the Fileset definition must contain at
1468 least {\bf Plugin = "exchange:/@EXCHANGE/Microsoft Information Store"} for
1469 the backup to work correctly. The 'exchange:' bit tells Bacula to look
1470 for the exchange plugin, the '@EXCHANGE' bit makes sure all the backed
1471 up files are prefixed with something that isn't going to share a name
1472 with something outside the plugin, and the 'Microsoft Information Store'
1473 bit is required also. It is also possible to add the name of a storage
1474 group to the "Plugin =" line, eg \\
1475 {\bf Plugin = "exchange:/@EXCHANGE/Microsoft Information Store/First Storage Group"} \\
1476 if you want only a single storage group backed up.
1477
1478 Additionally, you can suffix the 'Plugin =' directive with
1479 ":notrunconfull" which will tell the plugin not to truncate the Exchange
1480 database at the end of a full backup.
1481
1482 An Incremental or Differential backup will backup only the database logs
1483 for each Storage Group by inspecting the "modified date" on each
1484 physical log file. Because of the way the Exchange API works, the last
1485 logfile backed up on each backup will always be backed up by the next
1486 Incremental or Differential backup too. This adds 5MB to each
1487 Incremental or Differential backup size but otherwise does not cause any
1488 problems.
1489
1490 By default, a normal VSS fileset containing all the drive letters will
1491 also back up the Exchange databases using VSS. This will interfere with
1492 the plugin and Exchange's shared ideas of when the last full backup was
1493 done, and may also truncate log files incorrectly. It is important,
1494 therefore, that the Exchange database files be excluded from the backup,
1495 although the folders the files are in should be included, or they will
1496 have to be recreated manually if a baremetal restore is done.
1497
1498 \begin{verbatim}
1499 FileSet {
1500    Include {
1501       File = C:/Program Files/Exchsrvr/mdbdata
1502       Plugin = "exchange:..."
1503    }
1504    Exclude {
1505       File = C:/Program Files/Exchsrvr/mdbdata/E00.chk
1506       File = C:/Program Files/Exchsrvr/mdbdata/E00.log
1507       File = C:/Program Files/Exchsrvr/mdbdata/E000000F.log
1508       File = C:/Program Files/Exchsrvr/mdbdata/E0000010.log
1509       File = C:/Program Files/Exchsrvr/mdbdata/E0000011.log
1510       File = C:/Program Files/Exchsrvr/mdbdata/E00tmp.log
1511       File = C:/Program Files/Exchsrvr/mdbdata/priv1.edb
1512    }
1513 }
1514 \end{verbatim}
1515
1516 The advantage of excluding the above files is that you can significantly
1517 reduce the size of your backup since all the important Exchange files
1518 will be properly saved by the Plugin.
1519
1520
1521 \subsection{Restoring}
1522 The restore operation is much the same as a normal Bacula restore, with
1523 the following provisos:
1524
1525 \begin{itemize}
1526 \item  The {\bf Where} restore option must not be specified
1527 \item Each Database directory must be marked as a whole. You cannot just
1528      select (say) the .edb file and not the others.
1529 \item If a Storage Group is restored, the directory of the Storage Group
1530      must be marked too.
1531 \item  It is possible to restore only a subset of the available log files,
1532      but they {\bf must} be contiguous. Exchange will fail to restore correctly
1533      if a log file is missing from the sequence of log files
1534 \item Each database to be restored must be dismounted and marked as "Can be
1535     overwritten by restore"
1536 \item If an entire Storage Group is to be restored (eg all databases and
1537    logs in the Storage Group), then it is best to manually delete the
1538    database files from the server (eg C:\verb+\+Program Files\verb+\+Exchsrvr\verb+\+mdbdata\verb+\+*)
1539    as Exchange can get confused by stray log files lying around.
1540 \end{itemize}
1541
1542 \subsection{Restoring to the Recovery Storage Group}
1543 The concept of the Recovery Storage Group is well documented by
1544 Microsoft 
1545 \elink{http://support.microsoft.com/kb/824126}{http://support.microsoft.com/kb/824126}, 
1546 but to briefly summarize...
1547
1548 Microsoft Exchange allows the creation of an additional Storage Group
1549 called the Recovery Storage Group, which is used to restore an older
1550 copy of a database (e.g. before a mailbox was deleted) into without
1551 messing with the current live data. This is required as the Standard and
1552 Small Business Server versions of Exchange can not ordinarily have more
1553 than one Storage Group.
1554
1555 To create the Recovery Storage Group, drill down to the Server in Exchange
1556 System Manager, right click, and select
1557 {\bf "New -> Recovery Storage Group..."}.  Accept or change the file
1558 locations and click OK. On the Recovery Storage Group, right click and
1559 select {\bf "Add Database to Recover..."} and select the database you will
1560 be restoring.
1561
1562 Restore only the single database nominated as the database in the
1563 Recovery Storage Group. Exchange will redirect the restore to the
1564 Recovery Storage Group automatically.
1565 Then run the restore.
1566
1567 \subsection{Restoring on Microsoft Server 2007}
1568 Apparently the {\bf Exmerge} program no longer exists in Microsoft Server
1569 2007, and henc you use a new proceedure for recovering a single mail box.
1570 This procedure is ducomented by Microsoft at:
1571 \elink{http://technet.microsoft.com/en-us/library/aa997694.aspx}{http://technet.microsoft.com/en-us/library/aa997694.aspx},
1572 and involves using the {\bf Restore-Mailbox} and {\bf
1573 Get-MailboxStatistics} shell commands.
1574
1575 \subsection{Caveats}
1576 This plugin is still being developed, so you should consider it
1577 currently in BETA test, and thus use in a production environment
1578 should be done only after very careful testing.
1579
1580 When doing a full backup, the Exchange database logs are truncated by
1581 Exchange as soon as the plugin has completed the backup. If the data
1582 never makes it to the backup medium (eg because of spooling) then the
1583 logs will still be truncated, but they will also not have been backed
1584 up. A solution to this is being worked on. You will have to schedule a
1585 new Full backup to ensure that your next backups will be usable.
1586
1587 The "Enable Circular Logging" option cannot be enabled or the plugin
1588 will fail.
1589
1590 Exchange insists that a successful Full backup must have taken place if
1591 an Incremental or Differential backup is desired, and the plugin will
1592 fail if this is not the case. If a restore is done, Exchange will
1593 require that a Full backup be done before an Incremental or Differential
1594 backup is done.
1595
1596 The plugin will most likely not work well if another backup application
1597 (eg NTBACKUP) is backing up the Exchange database, especially if the
1598 other backup application is truncating the log files.
1599
1600 The Exchange plugin has not been tested with the {\bf Accurate} option, so
1601 we recommend either carefully testing or that you avoid this option for
1602 the current time.
1603
1604 The Exchange plugin is not called during processing the bconsole {\bf
1605 estimate} command, and so anything that would be backed up by the plugin
1606 will not be added to the estimate total that is displayed.
1607
1608
1609 \section{libdbi Framework}
1610 \index[general]{libdbi Framework}
1611 As a general guideline, Bacula has support for a few catalog database drivers
1612 (MySQL, PostgreSQL, SQLite)
1613 coded natively by the Bacula team.  With the libdbi implementation, which is a
1614 Bacula driver that uses libdbi to access the catalog, we have an open field to
1615 use many different kinds database engines following the needs of users.
1616
1617 The according to libdbi (http://libdbi.sourceforge.net/) project: libdbi
1618 implements a database-independent abstraction layer in C, similar to the
1619 DBI/DBD layer in Perl. Writing one generic set of code, programmers can
1620 leverage the power of multiple databases and multiple simultaneous database
1621 connections by using this framework.
1622
1623 Currently the libdbi driver in Bacula project only supports the same drivers
1624 natively coded in Bacula.  However the libdbi project has support for many
1625 others database engines. You can view the list at
1626 http://libdbi-drivers.sourceforge.net/. In the future all those drivers can be
1627 supported by Bacula, however, they must be tested properly by the Bacula team.
1628
1629 Some of benefits of using libdbi are:
1630 \begin{itemize}
1631 \item The possibility to use proprietary databases engines in which your
1632   proprietary licenses prevent the Bacula team from developing the driver.
1633  \item The possibility to use the drivers written for the libdbi project.
1634  \item The possibility to use other database engines without recompiling Bacula
1635    to use them.  Just change one line in bacula-dir.conf
1636  \item Abstract Database access, this is, unique point to code and profiling
1637    catalog database access.
1638  \end{itemize}
1639  
1640  The following drivers have been tested:
1641  \begin{itemize}
1642  \item PostgreSQL, with and without batch insert
1643  \item Mysql, with and without batch insert
1644  \item SQLite
1645  \item SQLite3
1646  \end{itemize}
1647
1648  In the future, we will test and approve to use others databases engines
1649  (proprietary or not) like DB2, Oracle, Microsoft SQL.
1650
1651  To compile Bacula to support libdbi we need to configure the code with the
1652  --with-dbi and --with-dbi-driver=[database] ./configure options, where
1653  [database] is the database engine to be used with Bacula (of course we can
1654  change the driver in file bacula-dir.conf, see below).  We must configure the
1655  access port of the database engine with the option --with-db-port, because the
1656  libdbi framework doesn't know the default access port of each database.
1657
1658 The next phase is checking (or configuring) the bacula-dir.conf, example:
1659 \begin{verbatim}
1660 Catalog {
1661   Name = MyCatalog
1662   dbdriver = dbi:mysql; dbaddress = 127.0.0.1; dbport = 3306
1663   dbname = regress; user = regress; password = ""
1664 }
1665 \end{verbatim}
1666
1667 The parameter {\bf dbdriver} indicates that we will use the driver dbi with a
1668 mysql database.  Currently the drivers supported by Bacula are: postgresql,
1669 mysql, sqlite, sqlite3; these are the names that may be added to string "dbi:".
1670
1671 The following limitations apply when Bacula is set to use the libdbi framework:
1672  - Not tested on the Win32 platform
1673  - A little performance is lost if comparing with native database driver. 
1674    The reason is bound with the database driver provided by libdbi and the 
1675    simple fact that one more layer of code was added.
1676
1677 It is important to remember, when compiling Bacula with libdbi, the
1678 following packages are needed:
1679  \begin{itemize}
1680   \item libdbi version 1.0.0, http://libdbi.sourceforge.net/
1681   \item libdbi-drivers 1.0.0, http://libdbi-drivers.sourceforge.net/
1682  \end{itemize}
1683  
1684  You can download them and compile them on your system or install the packages
1685  from your OS distribution.
1686
1687 \section{Console Command Additions and Enhancements}
1688 \index[general]{Console Additions}                                 
1689
1690 \subsection{Display Autochanger Content}
1691 \index[general]{StatusSlots}
1692
1693 The {\bf status slots storage=\lt{}storage-name\gt{}} command displays
1694 autochanger content.
1695
1696 \footnotesize
1697 \begin{verbatim}
1698  Slot |  Volume Name  |  Status  |  Media Type       |   Pool     |
1699 ------+---------------+----------+-------------------+------------|
1700     1 |         00001 |   Append |  DiskChangerMedia |    Default |
1701     2 |         00002 |   Append |  DiskChangerMedia |    Default |
1702     3*|         00003 |   Append |  DiskChangerMedia |    Scratch |
1703     4 |               |          |                   |            |
1704 \end{verbatim}
1705 \normalsize
1706
1707 If you an asterisk ({\bf *}) appears after the slot number, you must run an
1708 {\bf update slots} command to synchronize autochanger content with your
1709 catalog.
1710
1711 \subsection{list joblog job=xxx or jobid=nnn}
1712 \index[general]{list joblog}
1713 A new list command has been added that allows you to list the contents
1714 of the Job Log stored in the catalog for either a Job Name (fully qualified)
1715 or for a particular JobId.  The {\bf llist} command will include a line with
1716 the time and date of the entry.
1717
1718 Note for the catalog to have Job Log entries, you must have a directive 
1719 such as:
1720
1721 \begin{verbatim}
1722   catalog = all
1723 \end{verbatim}
1724
1725 In your Director's {\bf Messages} resource.
1726
1727 \subsection{Use separator for multiple commands}
1728 \index[general]{Command Separator}
1729   When using bconsole with readline, you can set the command separator with 
1730   \textbf{@separator} command to one
1731   of those characters to write commands who require multiple input in one line.
1732 \begin{verbatim}
1733   !$%&'()*+,-/:;<>?[]^`{|}~
1734 \end{verbatim}
1735
1736 \subsection{Deleting Volumes}
1737 The delete volume bconsole command has been modified to
1738 require an asterisk (*) in front of a MediaId otherwise the
1739 value you enter is a taken to be a Volume name. This is so that
1740 users may delete numeric Volume names. The previous Bacula versions
1741 assumed that all input that started with a number was a MediaId.
1742
1743 This new behavior is indicated in the prompt if you read it
1744 carefully.
1745
1746 \section{Bare Metal Recovery}
1747 The old bare metal recovery project is essentially dead. One
1748 of the main features of it was that it would build a recovery
1749 CD based on the kernel on your system. The problem was that
1750 every distribution has a different boot procedure and different 
1751 scripts, and worse yet, the boot procedures and scripts change
1752 from one distribution to another.  This meant that maintaining
1753 (keeping up with the changes) the rescue CD was too much work.
1754
1755 To replace it, a new bare metal recovery USB boot stick has been developed
1756 by Bacula Systems.  This technology involves remastering a Ubuntu LiveCD to
1757 boot from a USB key.  
1758
1759 Advantages: 
1760 \begin{enumerate} 
1761 \item Recovery can be done from within graphical environment.  
1762 \item Recovery can be done in a shell.  
1763 \item Ubuntu boots on a large number of Linux systems.  
1764 \item The process of updating the system and adding new
1765    packages is not too difficult. 
1766 \item The USB key can easily be upgraded to newer Ubuntu versions.
1767 \item The USB key has writable partitions for modifications to
1768    the OS and for modification to your home directory.
1769 \item You can add new files/directories to the USB key very easily.
1770 \item You can save the environment from multiple machines on
1771    one USB key.
1772 \item Bacula Systems is funding its ongoing development.
1773 \end{enumerate}
1774
1775 The disadvantages are:
1776 \begin{enumerate}
1777 \item The USB key is usable but currently under development.
1778 \item Not everyone may be familiar with Ubuntu (no worse
1779   than using Knoppix)
1780 \item Some older OSes cannot be booted from USB. This can
1781    be resolved by first booting a Ubuntu LiveCD then plugging
1782    in the USB key.
1783 \item Currently the documentation is sketchy and not yet added
1784    to the main manual. See below ...
1785 \end{enumerate}
1786
1787 The documentation and the code can be found in the {\bf rescue} package
1788 in the directory {\bf linux/usb}.
1789
1790 \section{Miscellaneous}
1791 \index[general]{Misc New Features}
1792
1793 \subsection{Allow Mixed Priority = \lt{}yes\vb{}no\gt{}}
1794 \index[general]{Allow Mixed Priority}
1795    This directive is only implemented in version 2.5 and later.  When
1796    set to {\bf yes} (default {\bf no}), this job may run even if lower
1797    priority jobs are already running.  This means a high priority job
1798    will not have to wait for other jobs to finish before starting.
1799    The scheduler will only mix priorities when all running jobs have
1800    this set to true.
1801
1802    Note that only higher priority jobs will start early.  Suppose the
1803    director will allow two concurrent jobs, and that two jobs with
1804    priority 10 are running, with two more in the queue.  If a job with
1805    priority 5 is added to the queue, it will be run as soon as one of
1806    the running jobs finishes.  However, new priority 10 jobs will not
1807    be run until the priority 5 job has finished.
1808
1809 \subsection{Bootstrap File Directive -- FileRegex}
1810 \index[general]{Bootstrap File Directive}
1811   {\bf FileRegex} is a new command that can be added to the bootstrap
1812   (.bsr) file.  The value is a regular expression.  When specified, only
1813   matching filenames will be restored.
1814
1815   During a restore, if all File records are pruned from the catalog
1816   for a Job, normally Bacula can restore only all files saved. That
1817   is there is no way using the catalog to select individual files.
1818   With this new feature, Bacula will ask if you want to specify a Regex
1819   expression for extracting only a part of the full backup.
1820
1821 \begin{verbatim}
1822   Building directory tree for JobId(s) 1,3 ...
1823   There were no files inserted into the tree, so file selection
1824   is not possible.Most likely your retention policy pruned the files
1825   
1826   Do you want to restore all the files? (yes\vb{}no): no
1827   
1828   Regexp matching files to restore? (empty to abort): /tmp/regress/(bin|tests)/
1829   Bootstrap records written to /tmp/regress/working/zog4-dir.restore.1.bsr
1830 \end{verbatim}
1831
1832 \subsection{Bootstrap File Optimization Changes}
1833 In order to permit proper seeking on disk files, we have extended the bootstrap
1834 file format to include a {\bf VolStartAddr} and {\bf VolEndAddr} records. Each
1835 takes a 64 bit unsigned integer range (i.e. nnn-mmm) which defines the start
1836 address range and end address range respectively.  These two directives replace
1837 the {\bf VolStartFile}, {\bf VolEndFile}, {\bf VolStartBlock} and {\bf
1838   VolEndBlock} directives.  Bootstrap files containing the old directives will
1839 still work, but will not properly take advantage of proper disk seeking, and
1840 may read completely to the end of a disk volume during a restore.  With the new
1841 format (automatically generated by the new Director), restores will seek
1842 properly and stop reading the volume when all the files have been restored.
1843
1844 \subsection{Solaris ZFS/NFSv4 ACLs}
1845 This is an upgrade of the previous Solaris ACL backup code
1846 to the new library format, which will backup both the old
1847 POSIX(UFS) ACLs as well as the ZFS ACLs.
1848
1849 The new code can also restore POSIX(UFS) ACLs to a ZFS filesystem
1850 (it will translate the POSIX(UFS)) ACL into a ZFS/NFSv4 one) it can also
1851 be used to transfer from UFS to ZFS filesystems.
1852
1853
1854 \subsection{Virtual Tape Emulation}
1855 \index[general]{Virtual Tape Emulation}
1856 We now have a Virtual Tape emulator that allows us to run though 99.9\% of
1857 the tape code but actually reading and writing to a disk file. Used with the
1858 \textbf{disk-changer} script, you can now emulate an autochanger with 10 drives
1859 and 700 slots. This feature is most useful in testing.  It is enabled
1860 by using {\bf Device Type = vtape} in the Storage daemon's Device
1861 directive. This feature is only implemented on Linux machines and should not be
1862 used for production.
1863
1864 \subsection{Bat Enhancements}
1865 \index[general]{Bat Enhancements}
1866 Bat (the Bacula Administration Tool) GUI program has been significantly
1867 enhanced and stabilized. In particular, there are new table based status 
1868 commands; it can now be easily localized using Qt4 Linguist.
1869
1870 The Bat communications protocol has been significantly enhanced to improve
1871 GUI handling. Note, you {\bf must} use a the bat that is distributed with
1872 the Director you are using otherwise the communications protocol will not
1873 work.
1874
1875 \subsection{RunScript Enhancements}
1876 \index[general]{RunScript Enhancements}
1877 The {\bf RunScript} resource has been enhanced to permit multiple
1878 commands per RunScript.  Simply specify multiple {\bf Command} directives
1879 in your RunScript.
1880
1881 \begin{verbatim}
1882 Job {
1883   Name = aJob
1884   RunScript {
1885     Command = "/bin/echo test"
1886     Command = "/bin/echo an other test"
1887     Command = "/bin/echo 3 commands in the same runscript"
1888     RunsWhen = Before
1889   }
1890  ...
1891 }
1892 \end{verbatim}
1893
1894 A new Client RunScript {\bf RunsWhen} keyword of {\bf AfterVSS} has been
1895 implemented, which runs the command after the Volume Shadow Copy has been made.
1896
1897 Console commands can be specified within a RunScript by using:
1898 {\bf Console = \lt{}command\gt{}}, however, this command has not been 
1899 carefully tested and debugged and is known to easily crash the Director.
1900 We would appreciate feedback.  Due to the recursive nature of this command, we
1901 may remove it before the final release.
1902
1903 \subsection{Status Enhancements}
1904 \index[general]{Status Enhancements}
1905 The bconsole {\bf status dir} output has been enhanced to indicate
1906 Storage daemon job spooling and despooling activity.
1907
1908 \subsection{Connect Timeout}
1909 \index[general]{Connect Timeout}
1910 The default connect timeout to the File
1911 daemon has been set to 3 minutes. Previously it was 30 minutes.
1912
1913 \subsection{ftruncate for NFS Volumes}
1914 \index[general]{ftruncate for NFS Volumes}
1915 If you write to a Volume mounted by NFS (say on a local file server),
1916 in previous Bacula versions, when the Volume was recycled, it was not
1917 properly truncated because NFS does not implement ftruncate (file 
1918 truncate). This is now corrected in the new version because we have
1919 written code (actually a kind user) that deletes and recreates the Volume,
1920 thus accomplishing the same thing as a truncate.
1921
1922 \subsection{Support for Ubuntu}
1923 The new version of Bacula now recognizes the Ubuntu (and Kubuntu)
1924 version of Linux, and thus now provides correct autostart routines.
1925 Since Ubuntu officially supports Bacula, you can also obtain any
1926 recent release of Bacula from the Ubuntu repositories.
1927
1928 \subsection{Recycle Pool = \lt{}pool-name\gt{}}
1929 \index[general]{Recycle Pool}
1930 The new \textbf{RecyclePool} directive defines to which pool the Volume will
1931 be placed (moved) when it is recycled. Without this directive, a Volume will
1932 remain in the same pool when it is recycled. With this directive, it can be
1933 moved automatically to any existing pool during a recycle. This directive is
1934 probably most useful when defined in the Scratch pool, so that volumes will
1935 be recycled back into the Scratch pool.
1936
1937 \subsection{FD Version}
1938 \index[general]{FD Version}
1939 The File daemon to Director protocol now includes a version 
1940 number, which although there is no visible change for users, 
1941 will help us in future versions automatically determine
1942 if a File daemon is not compatible.
1943
1944 \subsection{Max Run Sched Time = \lt{}time-period-in-seconds\gt{}}
1945 \index[general]{Max Run Sched Time}
1946 The time specifies the maximum allowed time that a job may run, counted from
1947 when the job was scheduled. This can be useful to prevent jobs from running
1948 during working hours. We can see it like \texttt{Max Start Delay + Max Run
1949   Time}.
1950
1951 \subsection{Max Wait Time = \lt{}time-period-in-seconds\gt{}}
1952 \index[general]{Max Wait Time}
1953 Previous \textbf{MaxWaitTime} directives aren't working as expected, instead
1954 of checking the maximum allowed time that a job may block for a resource,
1955 those directives worked like \textbf{MaxRunTime}. Some users are reporting to
1956 use \textbf{Incr/Diff/Full Max Wait Time} to control the maximum run time of
1957 their job depending on the level. Now, they have to use
1958 \textbf{Incr/Diff/Full Max Run Time}.  \textbf{Incr/Diff/Full Max Wait Time}
1959 directives are now deprecated.
1960
1961 \subsection{Incremental|Differential Max Wait Time = \lt{}time-period-in-seconds\gt{}} 
1962 \index[general]{Incremental Max Wait Time}
1963 \index[general]{Differential Max Wait Time}
1964
1965 These directives have been deprecated in favor of
1966 \texttt{Incremental|Differential Max Run Time}.
1967
1968 \subsection{Max Run Time directives}
1969 \index[general]{Max Run Time directives}
1970 Using \textbf{Full/Diff/Incr Max Run Time}, it's now possible to specify the
1971 maximum allowed time that a job can run depending on the level.
1972
1973 \addcontentsline{lof}{figure}{Job time control directives}
1974 \includegraphics{\idir different_time.eps}
1975
1976 \subsection{Statistics Enhancements}
1977 \index[general]{Statistics Enhancements}
1978 If you (or probably your boss) want to have statistics on your backups to
1979 provide some \textit{Service Level Agreement} indicators, you could use a few
1980 SQL queries on the Job table to report how many:
1981
1982 \begin{itemize}
1983 \item jobs have run
1984 \item jobs have been successful
1985 \item files have been backed up
1986 \item ...
1987 \end{itemize}
1988
1989 However, these statistics are accurate only if your job retention is greater
1990 than your statistics period. Ie, if jobs are purged from the catalog, you won't
1991 be able to use them. 
1992
1993 Now, you can use the \textbf{update stats [days=num]} console command to fill
1994 the JobHistory table with new Job records. If you want to be sure to take in
1995 account only \textbf{good jobs}, ie if one of your important job has failed but
1996 you have fixed the problem and restarted it on time, you probably want to
1997 delete the first \textit{bad} job record and keep only the successful one. For
1998 that simply let your staff do the job, and update JobHistory table after two or
1999 three days depending on your organization using the \textbf{[days=num]} option.
2000
2001 These statistics records aren't used for restoring, but mainly for
2002 capacity planning, billings, etc.
2003
2004 The Bweb interface provides a statistics module that can use this feature. You
2005 can also use tools like Talend or extract information by yourself.
2006
2007 The \textbf{Statistics Retention = \lt{}time\gt{}} director directive defines
2008 the length of time that Bacula will keep statistics job records in the Catalog
2009 database after the Job End time. (In \texttt{JobHistory} table) When this time
2010 period expires, and if user runs \texttt{prune stats} command, Bacula will
2011 prune (remove) Job records that are older than the specified period.
2012
2013 You can use the following Job resource in your nightly \textbf{BackupCatalog}
2014 job to maintain statistics.
2015 \begin{verbatim}
2016 Job {
2017   Name = BackupCatalog
2018   ...
2019   RunScript {
2020     Console = "update stats days=3"
2021     Console = "prune stats yes"
2022     RunsWhen = After
2023     RunsOnClient = no
2024   }
2025 }
2026 \end{verbatim}
2027
2028 \subsection{ScratchPool = \lt{}pool-resource-name\gt{}}
2029 \index[general]{ScratchPool}
2030 This directive permits to specify a specific \textsl{Scratch} pool for the
2031 current pool. This is useful when using multiple storage sharing the same
2032 mediatype or when you want to dedicate volumes to a particular set of pool.
2033
2034 \subsection{Enhanced Attribute Despooling}
2035 \index[general]{Attribute Despooling}
2036 If the storage daemon and the Director are on the same machine, the spool file
2037 that contains attributes is read directly by the Director instead of being
2038 transmitted across the network. That should reduce load and speedup insertion.
2039
2040 \subsection{SpoolSize = \lt{}size-specification-in-bytes\gt{}}
2041 \index[general]{SpoolSize}
2042 A new Job directive permits to specify the spool size per job. This is used
2043 in advanced job tunning. {\bf SpoolSize={\it bytes}}
2044
2045 \subsection{MaxConsoleConnections = \lt{}number\gt{}}
2046 \index[general]{MaxConsoleConnections}
2047 A new director directive permits to specify the maximum number of Console
2048 Connections that could run concurrently. The default is set to 20, but you may
2049 set it to a larger number.
2050
2051 \subsection{VerId = \lt{}string\gt{}}
2052 \index[general]{VerId}
2053 A new director directive permits to specify a personnal identifier that will be
2054 displayed in the \texttt{version} command.
2055
2056 \subsection{dbcheck enhancements}
2057 \index[general]{dbcheck enhancements}
2058 If you are using Mysql, dbcheck will now ask you if you want to create
2059 temporary indexes to speed up orphaned Path and Filename elimination. 
2060
2061 A new \texttt{-B} option allows you to print catalog information in a simple
2062 text based format. This is useful to backup it in a secure way.
2063
2064 \begin{verbatim}
2065  $ dbcheck -B 
2066  catalog=MyCatalog
2067  db_type=SQLite
2068  db_name=regress
2069  db_driver=
2070  db_user=regress
2071  db_password=
2072  db_address=
2073  db_port=0
2074  db_socket=
2075 \end{verbatim} %$
2076
2077 You can now specify the database connection port in the command line.
2078
2079 \subsection{{-}{-}docdir configure option}
2080 \index[general]{{-}{-}docdir configure option}
2081 You can use {-}{-}docdir= on the ./configure command to
2082 specify the directory where you want Bacula to install the
2083 LICENSE, ReleaseNotes, ChangeLog, ... files.   The default is 
2084 {\bf /usr/share/doc/bacula}.
2085       
2086 \subsection{{-}{-}htmldir configure option}
2087 \index[general]{{-}{-}htmldir configure option}
2088 You can use {-}{-}htmldir= on the ./configure command to
2089 specify the directory where you want Bacula to install the bat html help
2090 files. The default is {\bf /usr/share/doc/bacula/html}
2091
2092 \subsection{{-}{-}with-plugindir configure option}
2093 \index[general]{{-}{-}plugindir configure option}
2094 You can use {-}{-}plugindir= on the ./configure command to
2095 specify the directory where you want Bacula to install
2096 the plugins (currently only bpipe-fd). The default is
2097 /usr/lib.