]> git.sur5r.net Git - bacula/bacula/blob - bacula/src/dird/ua_status.c
Fix truncated status msg, scroll only on writing text in Gnome2 console
[bacula/bacula] / bacula / src / dird / ua_status.c
1 /*
2  *
3  *   Bacula Director -- User Agent Status Command
4  *
5  *     Kern Sibbald, August MMI
6  *
7  *   Version $Id$
8  */
9
10 /*
11    Copyright (C) 2000-2003 Kern Sibbald and John Walker
12
13    This program is free software; you can redistribute it and/or
14    modify it under the terms of the GNU General Public License as
15    published by the Free Software Foundation; either version 2 of
16    the License, or (at your option) any later version.
17
18    This program is distributed in the hope that it will be useful,
19    but WITHOUT ANY WARRANTY; without even the implied warranty of
20    MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE. See the GNU
21    General Public License for more details.
22
23    You should have received a copy of the GNU General Public
24    License along with this program; if not, write to the Free
25    Software Foundation, Inc., 59 Temple Place - Suite 330, Boston,
26    MA 02111-1307, USA.
27
28  */
29
30 #include "bacula.h"
31 #include "dird.h"
32
33 extern char my_name[];
34 extern time_t daemon_start_time;
35 extern struct s_last_job last_job;
36
37 static void print_jobs_scheduled(UAContext *ua);
38 static void do_storage_status(UAContext *ua, STORE *store);
39 static void do_client_status(UAContext *ua, CLIENT *client);
40 static void do_director_status(UAContext *ua, char *cmd);
41 static void do_all_status(UAContext *ua, char *cmd);
42
43 /*
44  * status command
45  */
46 int status_cmd(UAContext *ua, char *cmd)
47 {
48    STORE *store;
49    CLIENT *client;
50    int item, i;
51
52    if (!open_db(ua)) {
53       return 1;
54    }
55    Dmsg1(20, "status:%s:\n", cmd);
56
57    for (i=1; i<ua->argc; i++) {
58       if (strcasecmp(ua->argk[i], _("all")) == 0) {
59          do_all_status(ua, cmd);
60          return 1;
61       } else if (strcasecmp(ua->argk[i], _("dir")) == 0 ||
62                  strcasecmp(ua->argk[i], _("director")) == 0) {
63          do_director_status(ua, cmd);
64          return 1;
65       } else if (strcasecmp(ua->argk[i], _("client")) == 0) {
66          client = get_client_resource(ua);
67          if (client) {
68             do_client_status(ua, client);
69          }
70          return 1;
71       } else {
72          store = get_storage_resource(ua, 0);
73          if (store) {
74             do_storage_status(ua, store);
75          }
76          return 1;
77       }
78    }
79    /* If no args, ask for status type */
80    if (ua->argc == 1) {                                    
81       start_prompt(ua, _("Status available for:\n"));
82       add_prompt(ua, _("Director"));
83       add_prompt(ua, _("Storage"));
84       add_prompt(ua, _("Client"));
85       add_prompt(ua, _("All"));
86       Dmsg0(20, "do_prompt: select daemon\n");
87       if ((item=do_prompt(ua, "",  _("Select daemon type for status"), cmd, MAX_NAME_LENGTH)) < 0) {
88          return 1;
89       }
90       Dmsg1(20, "item=%d\n", item);
91       switch (item) { 
92       case 0:                         /* Director */
93          do_director_status(ua, cmd);
94          break;
95       case 1:
96          store = select_storage_resource(ua);
97          if (store) {
98             do_storage_status(ua, store);
99          }
100          break;
101       case 2:
102          client = select_client_resource(ua);
103          if (client) {
104             do_client_status(ua, client);
105          }
106          break;
107       case 3:
108          do_all_status(ua, cmd);
109          break;
110       default:
111          break;
112       }
113    }
114    return 1;
115 }
116
117 static void do_all_status(UAContext *ua, char *cmd)
118 {
119    STORE *store, **unique_store;
120    CLIENT *client, **unique_client;
121    int i, j, found;
122
123    do_director_status(ua, cmd);
124
125    /* Count Storage items */
126    LockRes();
127    store = NULL;
128    for (i=0; (store = (STORE *)GetNextRes(R_STORAGE, (RES *)store)); i++)
129       { }
130    unique_store = (STORE **) malloc(i * sizeof(STORE));
131    /* Find Unique Storage address/port */         
132    store = (STORE *)GetNextRes(R_STORAGE, NULL);
133    i = 0;
134    unique_store[i++] = store;
135    while ((store = (STORE *)GetNextRes(R_STORAGE, (RES *)store))) {
136       found = 0;
137       for (j=0; j<i; j++) {
138          if (strcmp(unique_store[j]->address, store->address) == 0 &&
139              unique_store[j]->SDport == store->SDport) {
140             found = 1;
141             break;
142          }
143       }
144       if (!found) {
145          unique_store[i++] = store;
146          Dmsg2(40, "Stuffing: %s:%d\n", store->address, store->SDport);
147       }
148    }
149    UnlockRes();
150
151    /* Call each unique Storage daemon */
152    for (j=0; j<i; j++) {
153       do_storage_status(ua, unique_store[j]);
154    }
155    free(unique_store);
156
157    /* Count Client items */
158    LockRes();
159    client = NULL;
160    for (i=0; (client = (CLIENT *)GetNextRes(R_CLIENT, (RES *)client)); i++)
161       { }
162    unique_client = (CLIENT **)malloc(i * sizeof(CLIENT));
163    /* Find Unique Client address/port */         
164    client = (CLIENT *)GetNextRes(R_CLIENT, NULL);
165    i = 0;
166    unique_client[i++] = client;
167    while ((client = (CLIENT *)GetNextRes(R_CLIENT, (RES *)client))) {
168       found = 0;
169       for (j=0; j<i; j++) {
170          if (strcmp(unique_client[j]->address, client->address) == 0 &&
171              unique_client[j]->FDport == client->FDport) {
172             found = 1;
173             break;
174          }
175       }
176       if (!found) {
177          unique_client[i++] = client;
178          Dmsg2(40, "Stuffing: %s:%d\n", client->address, client->FDport);
179       }
180    }
181    UnlockRes();
182
183    /* Call each unique File daemon */
184    for (j=0; j<i; j++) {
185       do_client_status(ua, unique_client[j]);
186    }
187    free(unique_client);
188    
189 }
190
191 static void do_director_status(UAContext *ua, char *cmd)
192 {
193    JCR *jcr;
194    int njobs = 0;
195    char *msg;
196    char dt[MAX_TIME_LENGTH], b1[30], b2[30];
197    int pool_mem = FALSE;
198
199    bsendmsg(ua, "%s Version: " VERSION " (" BDATE ") %s %s %s\n", my_name,
200             HOST_OS, DISTNAME, DISTVER);
201    bstrftime(dt, sizeof(dt), daemon_start_time);
202    bsendmsg(ua, _("Daemon started %s, %d Job%s run.\n"), dt, last_job.NumJobs,
203         last_job.NumJobs == 1 ? "" : "s");
204    if (last_job.NumJobs > 0) {
205       char termstat[50];
206
207       bstrftime(dt, sizeof(dt), last_job.end_time);
208       bsendmsg(ua, _("Last Job %s finished at %s\n"), last_job.Job, dt);
209       jobstatus_to_ascii(last_job.JobStatus, termstat, sizeof(termstat));
210            
211       bsendmsg(ua, _("  Files=%s Bytes=%s Termination Status=%s\n"), 
212            edit_uint64_with_commas(last_job.JobFiles, b1),
213            edit_uint64_with_commas(last_job.JobBytes, b2),
214            termstat);
215    }
216    lock_jcr_chain();
217    for (jcr=NULL; (jcr=get_next_jcr(jcr)); njobs++) {
218       if (jcr->JobId == 0) {      /* this is us */
219          bstrftime(dt, sizeof(dt), jcr->start_time);
220          bsendmsg(ua, _("Console connected at %s\n"), dt);
221          free_locked_jcr(jcr);
222          njobs--;
223          continue;
224       }
225       switch (jcr->JobStatus) {
226       case JS_Created:
227          msg = _("is waiting execution");
228          break;
229       case JS_Running:
230          msg = _("is running");
231          break;
232       case JS_Blocked:
233          msg = _("is blocked");
234          break;
235       case JS_Terminated:
236          msg = _("has terminated");
237          break;
238       case JS_ErrorTerminated:
239          msg = _("has erred");
240          break;
241       case JS_Error:
242          msg = _("has errors");
243          break;
244       case JS_FatalError:
245          msg = _("has a fatal error");
246          break;
247       case JS_Differences:
248          msg = _("has verify differences");
249          break;
250       case JS_Canceled:
251          msg = _("has been canceled");
252          break;
253       case JS_WaitFD:
254          msg = (char *) get_pool_memory(PM_FNAME);
255          Mmsg(&msg, _("is waiting on Client %s"), jcr->client->hdr.name);
256          pool_mem = TRUE;
257          break;
258       case JS_WaitSD:
259          msg = (char *) get_pool_memory(PM_FNAME);
260          Mmsg(&msg, _("is waiting on Storage %s"), jcr->store->hdr.name);
261          pool_mem = TRUE;
262          break;
263       case JS_WaitStoreRes:
264          msg = _("is waiting on max Storage jobs");
265          break;
266       case JS_WaitClientRes:
267          msg = _("is waiting on max Client jobs");
268          break;
269       case JS_WaitJobRes:
270          msg = _("is waiting on max Job jobs");
271          break;
272       case JS_WaitMaxJobs:
273          msg = _("is waiting on max total jobs");
274          break;
275       case JS_WaitStartTime:
276          msg = _("is waiting for its start time");
277          break;
278       case JS_WaitPriority:
279          msg = _("is waiting for higher priority jobs to finish");
280          break;
281
282       default:
283          msg = (char *) get_pool_memory(PM_FNAME);
284          Mmsg(&msg, _("is in unknown state %c"), jcr->JobStatus);
285          pool_mem = TRUE;
286          break;
287       }
288       /* 
289        * Now report Storage daemon status code 
290        */
291       switch (jcr->SDJobStatus) {
292       case JS_WaitMount:
293          if (pool_mem) {
294             free_pool_memory(msg);
295             pool_mem = FALSE;
296          }
297          msg = _("is waiting for a mount request");
298          break;
299       case JS_WaitMedia:
300          if (pool_mem) {
301             free_pool_memory(msg);
302             pool_mem = FALSE;
303          }
304          msg = _("is waiting for an appendable Volume");
305          break;
306       case JS_WaitFD:
307          if (!pool_mem) {
308             msg = (char *) get_pool_memory(PM_FNAME);
309             pool_mem = TRUE;
310          }
311          Mmsg(&msg, _("is waiting for Client %s to connect to Storage %s"),
312               jcr->client->hdr.name, jcr->store->hdr.name);
313          break;
314       }
315       bsendmsg(ua, _("JobId %d Job %s %s.\n"), jcr->JobId, jcr->Job, msg);
316       if (pool_mem) {
317          free_pool_memory(msg);
318          pool_mem = FALSE;
319       }
320       free_locked_jcr(jcr);
321    }
322    unlock_jcr_chain();
323
324    if (njobs == 0) {
325       bsendmsg(ua, _("No jobs are running.\n"));
326    }
327    print_jobs_scheduled(ua);
328    bsendmsg(ua, "====\n");
329 }
330
331 static void do_storage_status(UAContext *ua, STORE *store)
332 {
333    BSOCK *sd;
334
335    ua->jcr->store = store;
336    /* Try connecting for up to 15 seconds */
337    bsendmsg(ua, _("Connecting to Storage daemon %s at %s:%d\n"), 
338       store->hdr.name, store->address, store->SDport);
339    if (!connect_to_storage_daemon(ua->jcr, 1, 15, 0)) {
340       bsendmsg(ua, _("\nFailed to connect to Storage daemon %s.\n====\n"),
341          store->hdr.name);
342       if (ua->jcr->store_bsock) {
343          bnet_close(ua->jcr->store_bsock);
344          ua->jcr->store_bsock = NULL;
345       }         
346       return;
347    }
348    Dmsg0(20, _("Connected to storage daemon\n"));
349    sd = ua->jcr->store_bsock;
350    bnet_fsend(sd, "status");
351    while (bnet_recv(sd) >= 0) {
352       bsendmsg(ua, "%s", sd->msg);
353    }
354    bnet_sig(sd, BNET_TERMINATE);
355    bnet_close(sd);
356    ua->jcr->store_bsock = NULL;
357    return;  
358 }
359    
360 static void do_client_status(UAContext *ua, CLIENT *client)
361 {
362    BSOCK *fd;
363
364    /* Connect to File daemon */
365
366    ua->jcr->client = client;
367    /* Release any old dummy key */
368    if (ua->jcr->sd_auth_key) {
369       free(ua->jcr->sd_auth_key);
370    }
371    /* Create a new dummy SD auth key */
372    ua->jcr->sd_auth_key = bstrdup("dummy");
373
374    /* Try to connect for 15 seconds */
375    bsendmsg(ua, _("Connecting to Client %s at %s:%d\n"), 
376       client->hdr.name, client->address, client->FDport);
377    if (!connect_to_file_daemon(ua->jcr, 1, 15, 0)) {
378       bsendmsg(ua, _("Failed to connect to Client %s.\n====\n"),
379          client->hdr.name);
380       if (ua->jcr->file_bsock) {
381          bnet_close(ua->jcr->file_bsock);
382          ua->jcr->file_bsock = NULL;
383       }         
384       return;
385    }
386    Dmsg0(20, _("Connected to file daemon\n"));
387    fd = ua->jcr->file_bsock;
388    bnet_fsend(fd, "status");
389    while (bnet_recv(fd) >= 0) {
390       bsendmsg(ua, "%s", fd->msg);
391    }
392    bnet_sig(fd, BNET_TERMINATE);
393    bnet_close(fd);
394    ua->jcr->file_bsock = NULL;
395
396    return;  
397 }
398
399 static void prt_runhdr(UAContext *ua)
400 {
401    bsendmsg(ua, _("\nScheduled Jobs:\n"));
402    bsendmsg(ua, _("Level          Type     Scheduled          Name               Volume\n"));
403    bsendmsg(ua, _("===============================================================================\n"));
404 }
405
406 static void prt_runtime(UAContext *ua, JOB *job, int level, time_t runtime, POOL *pool)
407 {
408    char dt[MAX_TIME_LENGTH];       
409    bool ok = false;
410    bool close_db = false;
411    JCR *jcr = ua->jcr;
412    MEDIA_DBR mr;
413    memset(&mr, 0, sizeof(mr));
414    if (job->JobType == JT_BACKUP) {
415       jcr->db = NULL;
416       ok = complete_jcr_for_job(jcr, job, pool);
417       if (jcr->db) {
418          close_db = true;             /* new db opened, remember to close it */
419       }
420       if (ok) {
421          ok = find_next_volume_for_append(jcr, &mr, 0);
422       }
423       if (!ok) {
424          bstrncpy(mr.VolumeName, "*unknown*", sizeof(mr.VolumeName));
425       }
426    }
427    bstrftime(dt, sizeof(dt), runtime);
428    bsendmsg(ua, _("%-14s %-8s %-18s %-18s %s\n"), 
429       level_to_str(level), job_type_to_str(job->JobType), dt, job->hdr.name,
430       mr.VolumeName);
431    if (close_db) {
432       db_close_database(jcr, jcr->db);
433    }
434    jcr->db = ua->db;                  /* restore ua db to jcr */
435
436 }
437
438 /*          
439  * Find all jobs to be run this hour
440  * and the next hour.
441  */
442 static void print_jobs_scheduled(UAContext *ua)
443 {
444    time_t runtime;
445    RUN *run;
446    JOB *job;
447    bool hdr_printed = false;
448    int level;
449
450    Dmsg0(200, "enter find_runs()\n");
451
452    /* Loop through all jobs */
453    LockRes();
454    for (job=NULL; (job=(JOB *)GetNextRes(R_JOB, (RES *)job)); ) {
455       for (run=NULL; (run = find_next_run(run, job, runtime)); ) {
456          level = job->level;   
457          if (run->level) {
458             level = run->level;
459          }
460          if (!hdr_printed) {
461             hdr_printed = true;
462             prt_runhdr(ua);
463          }
464          prt_runtime(ua, job, level, runtime, run->pool);
465       }
466
467    } /* end for loop over resources */
468    UnlockRes();
469    Dmsg0(200, "Leave find_runs()\n");
470 }