]> git.sur5r.net Git - bacula/docs/blobdiff - docs/manuals/en/main/dirdconf.tex
Document new %D
[bacula/docs] / docs / manuals / en / main / dirdconf.tex
index 5200e80a7776c6292c29bb4b8d6ab911c3a6bbfb..32f4558b5e2f2151afb81781d663a80489ec0a39 100644 (file)
@@ -338,10 +338,9 @@ resource.
   where  \lt{}string\gt{} is an identifier which can be used for support purpose.
   This string is displayed using the \texttt{version} command.
 
-\item[MaxConsoleConnections = \lt{}number\gt{}] 
+\item[MaximumConsoleConnections = \lt{}number\gt{}] 
   \index[dir]{MaximumConsoleConnections}
-  \index[dir]{MaxConsoleConnections}
-  \index[dir]{Directive!MaxConsoleConnections}
+  \index[dir]{Directive!MaximumConsoleConnections}
   \index[dir]{Console}
    where \lt{}number\gt{}  is the maximum number of Console Connections that
    could run  concurrently. The default is set to 20, but you may set it to a 
@@ -679,9 +678,10 @@ For a {\bf Verify} Job, the Level may be one of the  following:
 \item [VolumeToCatalog]
 \index[dir]{VolumeToCatalog}
    This level causes Bacula to read the file attribute data written to the
-   Volume from the last Job.  The file attribute data are compared to the
+   Volume from the last backup Job for the job specified on the {\bf VerifyJob}
+   directive.  The file attribute data are compared to the
    values saved in the Catalog database and any differences are reported.
-   This is similar to the {\bf Catalog} level except that instead of
+   This is similar to the {\bf DiskToCatalog} level except that instead of
    comparing the disk file attributes to the catalog database, the
    attribute data written to the Volume is read and compared to the catalog
    database.  Although the attribute data including the signatures (MD5 or
@@ -698,7 +698,7 @@ For a {\bf Verify} Job, the Level may be one of the  following:
    This level causes Bacula to read the files as they currently are on
    disk, and to compare the current file attributes with the attributes
    saved in the catalog from the last backup for the job specified on the
-   {\bf VerifyJob} directive.  This level differs from the {\bf Catalog}
+   {\bf VerifyJob} directive.  This level differs from the {\bf VolumeToCatalog}
    level described above by the fact that it doesn't compare against a
    previous Verify job but against a previous backup.  When you run this
    level, you must supply the verify options on your Include statements.
@@ -724,7 +724,7 @@ For a {\bf Verify} Job, the Level may be one of the  following:
    and renamed directories are restored properly.
 
    In this mode, the File daemon must keep data concerning all files in
-   memory.  So you do not have sufficient memory, the restore may
+   memory.  So If you do not have sufficient memory, the backup may
    either be terribly slow or fail.
 
 %%   $$ memory = \sum_{i=1}^{n}(strlen(path_i + file_i) + sizeof(CurFile))$$
@@ -831,7 +831,7 @@ JobDefs {
 
 \item [FileSet = \lt{}FileSet-resource-name\gt{}]
 \index[dir]{FileSet}
-\index[dir]{FileSet}
+\index[dir]{Directive!FileSet}
    The FileSet directive specifies the FileSet that will be used in the
    current Job.  The FileSet specifies which directories (or files) are to
    be backed up, and what options to use (e.g.  compression, ...).  Only a
@@ -839,6 +839,13 @@ JobDefs {
    details, see the \ilink{FileSet Resource section}{FileSetResource} of
    this chapter.  This directive is required.
 
+\item [Base = \lt{}job-resource-name, ...\gt{}]
+\index[dir]{Base}
+\index[dir]{Directive!Base}
+The Base directive permits to specify the list of jobs that will be used during
+Full backup as base. This directive is optional. See the \ilink{Base Job
+chapter}{basejobs} for more information.
+
 \item [Messages = \lt{}messages-resource-name\gt{}]
 \index[dir]{Messages}
 \index[dir]{Directive!Messages}
@@ -925,7 +932,12 @@ JobDefs {
 \index[dir]{Directive!Max Run Time}
    The time specifies the maximum allowed time that a job may run, counted
    from when the job starts, ({\bf not} necessarily the same as when the
-   job was scheduled).
+   job was scheduled). 
+
+   By default, the the watchdog thread will kill any Job that has run more
+   than 6 days.  The maximum watchdog timeout is independent of MaxRunTime
+   and cannot be changed.
+
 
 \item [Incremental|Differential Max Wait Time = \lt{}time\gt{}]
 \index[dir]{Incremental Wait Run Time}
@@ -966,8 +978,19 @@ during working hours. We can see it like \texttt{Max Start Delay + Max Run
    when the job starts, ({\bf not} necessarily the same as when the job was
    scheduled). This directive works as expected since bacula 2.3.18.
 
-\addcontentsline{lof}{figure}{Job time control directives}
-\includegraphics{\idir different_time.eps}
+\begin{figure}[htbp]
+  \centering
+  \includegraphics[width=13cm]{\idir different_time.eps}
+  \caption{Job time control directives}
+  \label{fig:differenttime}
+\end{figure}
+
+\item [Maximum Bandwidth = \lt{}speed\gt{}]
+\index[dir]{Maximum Bandwidth}
+\index[dir]{Directive!Maximum Bandwidth}
+
+The speed parameter specifies the maximum allowed bandwidth that a job may
+use. The speed parameter should be specified in k/s, kb/s, m/s or mb/s.
 
 \item [Max Full Interval = \lt{}time\gt{}]
 \index[dir]{Max Full Interval}
@@ -1020,29 +1043,29 @@ during working hours. We can see it like \texttt{Max Start Delay + Max Run
 \item [Prune Jobs = \lt{}yes\vb{}no\gt{}]
 \index[dir]{Prune Jobs}
 \index[dir]{Directive!Prune Jobs}
-   Normally, pruning of Jobs from the Catalog is specified on a Client by
-   Client basis in the Client resource with the {\bf AutoPrune} directive.
+   Normally, pruning of Jobs from the Catalog is specified on a Pool by
+   Pool basis in the Pool resource with the {\bf AutoPrune} directive.
    If this directive is specified (not normally) and the value is {\bf
-   yes}, it will override the value specified in the Client resource.  The
+   yes}, it will override the value specified in the Pool resource.  The
    default is {\bf no}.
 
 
 \item [Prune Files = \lt{}yes\vb{}no\gt{}]
 \index[dir]{Prune Files}
 \index[dir]{Directive!Prune Files}
-   Normally, pruning of Files from the Catalog is specified on a Client by
-   Client basis in the Client resource with the {\bf AutoPrune} directive.
+   Normally, pruning of Files from the Catalog is specified on a Pool by
+   Pool basis in the Pool resource with the {\bf AutoPrune} directive.
    If this directive is specified (not normally) and the value is {\bf
-   yes}, it will override the value specified in the Client resource.  The
+   yes}, it will override the value specified in the Pool resource.  The
    default is {\bf no}.
 
 \item [Prune Volumes = \lt{}yes\vb{}no\gt{}]
 \index[dir]{Prune Volumes}
 \index[dir]{Directive!Prune Volumes}
-   Normally, pruning of Volumes from the Catalog is specified on a Client
-   by Client basis in the Client resource with the {\bf AutoPrune}
+   Normally, pruning of Volumes from the Catalog is specified on a Pool
+   by Pool basis in the Pool resource with the {\bf AutoPrune}
    directive.  If this directive is specified (not normally) and the value
-   is {\bf yes}, it will override the value specified in the Client
+   is {\bf yes}, it will override the value specified in the Pool
    resource.  The default is {\bf no}.
 
 \item [RunScript \{\lt{}body-of-runscript\gt{}\}]
@@ -1119,21 +1142,30 @@ Console          &       &          & Console command\\
 \footnotesize
 \begin{verbatim}
     %% = %
+    %b = Job Bytes
     %c = Client's name
-    %d = Director's name
+    %d = Daemon's name (Such as host-dir or host-fd)
+    %D = Director's name (Also valid on file daemon)
     %e = Job Exit Status
+    %f = Job FileSet (Only on director side)
+    %F = Job Files
+    %h = Client address
     %i = JobId
     %j = Unique Job id
     %l = Job Level
     %n = Job name
+    %p = Pool name (Only on director side)
     %s = Since time
     %t = Job type (Backup, ...)
     %v = Volume name (Only on director side)
+    %w = Storage name (Only on director side)
+    %x = Spooling enabled? ("yes" or "no")
  
 \end{verbatim}
 \normalsize
 
-The Job Exit Status code \%e edits the following values:
+Some character substitutions are not available in all situations. The Job Exit
+Status code \%e edits the following values:
 
 \index[dir]{Exit Status}
 \begin{itemize}
@@ -1653,6 +1685,13 @@ RunScript {
 \item [Allow Duplicate Jobs = \lt{}yes\vb{}no\gt{}]
 \index[general]{Allow Duplicate Jobs}
 
+\begin{figure}[htbp]
+  \centering
+  \includegraphics[width=13cm]{\idir duplicate-real.eps}
+  \caption{Allow Duplicate Jobs usage}
+  \label{fig:allowduplicatejobs}
+\end{figure}
+
 A duplicate job in the sense we use it here means a second or subsequent job
 with the same name starts.  This happens most frequently when the first job
 runs longer than expected because no tapes are available.
@@ -1669,11 +1708,20 @@ runs longer than expected because no tapes are available.
 
 \item [Allow Higher Duplicates = \lt{}yes\vb{}no\gt{}]
 \index[general]{Allow Higher Duplicates}
-  If this directive is set to {\bf yes} (default) the job with a higher
-  priority (lower priority number) will be permitted to run, and
-  the current job will be cancelled.  If the
-  priorities of the two jobs are the same, the outcome is determined by
-  other directives (see below).
+  This directive was implemented in version 5.0.0, but does not work
+  as expected. If used, it should always be set to no.  In later versions
+  of Bacula the directive is disabled (disregarded).
+
+
+\item [Cancel Lower Level Duplicates = \lt{}yes\vb{}no\gt{}]
+\index[general]{Cancel Lower Level Duplicates}
+  If \textbf{Allow Duplicates Jobs} is set to \textbf{no} and this
+  directive is set to \textbf{yes}, Bacula will choose between duplicated
+  jobs the one with the highest level.  For example, it will cancel a
+  previous Incremental to run a Full backup.  It works only for Backup
+  jobs.  The default is \texttt{no}. If the levels of the duplicated
+  jobs are the same, nothing is done and the other
+  Cancel XXX Duplicate directives will be examined.
 
 \item [Cancel Queued Duplicates = \lt{}yes\vb{}no\gt{}]
 \index[general]{Cancel Queued Duplicates}
@@ -1688,6 +1736,13 @@ runs longer than expected because no tapes are available.
   if this directive is set to {\bf yes} any job that is already running
   will be canceled.  The default is {\bf no}.
 
+
+%%\item[DuplicateJobProximity = \lt{}time-specification\gt{}]
+%%\index[general]{Duplicate Job Proximity}
+%%  This directive permits to determine if two jobs are really duplicated.
+%%  If the first one is running for long time, this is probably not a good
+%%  idea to cancel it.
+
 \item [Run = \lt{}job-name\gt{}]
    \index[dir]{Run}
    \index[dir]{Directive!Run}
@@ -2286,6 +2341,14 @@ console run command.  This directive is required.
    Storage resources will also apply in addition to  any limit specified here.
    The  default is set to 1, but you may set it to a larger number.
 
+\item [Maximum Bandwidth Per Job = \lt{}speed\gt{}]
+\index[dir]{Maximum Bandwidth Per Job}
+\index[dir]{Directive!Maximum Bandwidth Per Job}
+
+The speed parameter specifies the maximum allowed bandwidth that a job may use
+when started for this Client. The speed parameter should be specified in
+k/s, Kb/s, m/s or Mb/s.
+
 \item [Priority = \lt{}number\gt{}]
    \index[dir]{Priority}
    \index[dir]{Directive!Priority}