Imported Upstream version 3.10
[debian/elilo] / ia64 / gzip.c
1 /*
2  *  Copyright (C) 2001-2003 Hewlett-Packard Co.
3  *      Contributed by Stephane Eranian <eranian@hpl.hp.com>
4  *
5  *  Copyright (C) 2001 Silicon Graphics, Inc.
6  *      Contributed by Brent Casavant <bcasavan@sgi.com>
7  *
8  * This file is part of the ELILO, the EFI Linux boot loader.
9  *
10  *  ELILO is free software; you can redistribute it and/or modify
11  *  it under the terms of the GNU General Public License as published by
12  *  the Free Software Foundation; either version 2, or (at your option)
13  *  any later version.
14  *
15  *  ELILO is distributed in the hope that it will be useful,
16  *  but WITHOUT ANY WARRANTY; without even the implied warranty of
17  *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
18  *  GNU General Public License for more details.
19  *
20  *  You should have received a copy of the GNU General Public License
21  *  along with ELILO; see the file COPYING.  If not, write to the Free
22  *  Software Foundation, 59 Temple Place - Suite 330, Boston, MA
23  *  02111-1307, USA.
24  *
25  * Please check out the elilo.txt for complete documentation on how
26  * to use this program.
27  */
28
29 #include <efi.h>
30 #include <efilib.h>
31
32 #include "elf.h"
33 #include "elilo.h"
34
35 #include "gzip.h"
36
37 #include "private.h"
38 #include "setjmp.h"
39
40 #define LD_NAME L"gzip_ia64"
41
42 #define memzero(s, n)   Memset((VOID *)(s), 0, (n))
43 #define memcpy(a,b,n)   Memcpy((VOID *)(a),(b),(n))
44
45 /* size of output buffer */
46 #define WSIZE 0x8000            /* Window size must be at least 32k, */
47                                 /* and a power of two */
48 /* size of input buffer */
49 #define INBUFSIZE 0x8000
50
51 /*
52  * gzip declarations
53  */
54
55 #define OF(args)  args
56 #define FUNC_STATIC static
57
58 typedef unsigned char  uch;
59 typedef unsigned short ush;
60 typedef unsigned long  ulg;
61
62
63 typedef struct segment {
64         unsigned long addr;     /* start address */
65         unsigned long offset;   /* file offset   */
66         unsigned long size;     /* file size     */
67         unsigned long bss_sz;   /* BSS size      */
68         UINT8   flags;  /* indicates whether to load or not */
69 } segment_t;
70
71 #define CHUNK_FL_VALID          0x1
72 #define CHUNK_FL_LOAD           0x2
73 #define CHUNK_FL_X              0x4
74
75 #define CHUNK_CAN_LOAD(n)       chunks[(n)].flags |= CHUNK_FL_LOAD
76 #define CHUNK_NO_LOAD(n)        chunks[(n)].flags &= ~CHUNK_FL_LOAD
77 #define CHUNK_IS_LOAD(n)        (chunks[(n)].flags & CHUNK_FL_LOAD)
78
79 #define CHUNK_VALIDATE(n)       chunks[(n)].flags |= CHUNK_FL_VALID
80 #define CHUNK_INVALIDATE(n)     chunks[(n)].flags = 0
81 #define CHUNK_IS_VALID(n)       (chunks[(n)].flags & CHUNK_FL_VALID)
82
83 /*
84  * static parameters to gzip helper functions
85  * we cannot use paramters because API was not
86  * designed that way
87  */
88 static segment_t *chunks;       /* holds the list of segments */
89 static segment_t *cur_chunk;
90 static UINTN nchunks;
91 static UINTN chunk;                 /* current segment */
92 static UINTN input_fd;
93 static VOID *kernel_entry, *kernel_base, *kernel_end;
94
95 static uch *inbuf;              /* input buffer (compressed data) */
96 static uch *window;             /* output buffer (uncompressed data) */
97 static unsigned long file_offset;       /* position in the file */
98
99 static unsigned insize = 0;  /* valid bytes in inbuf */
100 static unsigned inptr  = 0;   /* index of next byte to be processed in inbuf */
101 static unsigned outcnt = 0;  /* bytes in output buffer */
102
103 /* gzip flag byte */
104 #define ASCII_FLAG   0x01 /* bit 0 set: file probably ASCII text */
105 #define CONTINUATION 0x02 /* bit 1 set: continuation of multi-part gzip file */
106 #define EXTRA_FIELD  0x04 /* bit 2 set: extra field present */
107 #define ORIG_NAME    0x08 /* bit 3 set: original file name present */
108 #define COMMENT      0x10 /* bit 4 set: file comment present */
109 #define ENCRYPTED    0x20 /* bit 5 set: file is encrypted */
110 #define RESERVED     0xC0 /* bit 6,7:   reserved */
111
112 #define get_byte()  (inptr < insize ? inbuf[inptr++] : fill_inbuf())
113
114 /* Diagnostic functions */
115 #ifdef INFLATE_DEBUG
116 #  define Assert(cond,msg) {if(!(cond)) error(msg);}
117 int stderr;
118 #  define Trace(x) Print(L"line %d:\n", __LINE__);
119 #  define Tracev(x) {if (verbose) Print(L"line %d:\n", __LINE__) ;}
120 #  define Tracevv(x) {if (verbose>1) Print(L"line %d:\n", __LINE__)  ;}
121 #  define Tracec(c,x) {if (verbose && (c))  Print(L"line %d:\n", __LINE__) ;}
122 #  define Tracecv(c,x) {if (verbose>1 && (c))  Print(L"line %d:\n", __LINE__) ;}
123 #else
124 #  define Assert(cond,msg)
125 #  define Trace(x)
126 #  define Tracev(x)
127 #  define Tracevv(x)
128 #  define Tracec(c,x)
129 #  define Tracecv(c,x)
130 #endif
131
132 static int  fill_inbuf(void);
133 static void flush_window(void);
134 static void error(char *m);
135 static long bytes_out;
136
137 static void error(char *m);
138
139 static jmp_buf jbuf;
140 static int error_return;
141 static UINTN elf_is_big_endian; /* true if ELF file is big endian */
142
143 static void *
144 gzip_malloc(int size)
145 {
146         return (void *)alloc(size, 0);
147 }
148
149 static void
150 gzip_free(void *where)
151 {       
152         return free(where);
153 }
154
155 #include "inflate.c"
156
157 /*
158  * Fill the input buffer and return the first byte in it. This is called
159  * only when the buffer is empty and at least one byte is really needed.
160  */
161 int
162 fill_inbuf(void)
163 {
164         UINTN expected, nread;
165         EFI_STATUS status;
166
167         expected = nread = INBUFSIZE;
168
169         status = fops_read(input_fd, inbuf, &nread);
170         if (EFI_ERROR(status)) {
171                 error("elilo: Read failed");
172         }
173         DBG_PRT((L"%s : read %d bytes of %d bytes\n", LD_NAME, nread, expected));
174
175         insize = nread;
176         inptr = 1;
177
178         return inbuf[0];
179 }
180
181 /* ===========================================================================
182  * Write the output window window[0..outcnt-1] and update crc and bytes_out.
183  * (Used for the decompressed data only.)
184  */
185
186 /*
187  * Run a set of bytes through the crc shift register.  If s is a NULL
188  * pointer, then initialize the crc shift register contents instead.
189  * Return the current crc in either case.
190  *
191  * Input:
192  *      S       pointer to bytes to pump through.
193  *      N       number of bytes in S[].
194  */
195 unsigned long
196 updcrc(unsigned char *s, unsigned n)
197 {
198         register unsigned long c;
199         /* crc is defined in inflate.c */
200
201         if (!s) {
202                 c = 0xffffffffL;
203         } else {
204                 c = crc;
205                 while (n--) {
206                         c = crc_32_tab[((int)c ^ (*s++)) & 0xff] ^ (c >> 8);
207                 }
208         }
209         crc = c;
210         return c ^ 0xffffffffUL;       /* (instead of ~c for 64-bit machines) */
211 }
212
213
214 /*
215  * Clear input and output buffers
216  */
217 void
218 clear_bufs(void)
219 {
220         outcnt = 0;
221         inptr = 0;
222         chunk = 0;
223         cur_chunk = NULL;
224         file_offset = 0;
225 }
226
227
228 static inline UINT64 
229 bswap64(UINT64 v)
230 {
231         if(elf_is_big_endian) v = __ia64_swab64(v);
232         return v;
233 }
234
235 static inline UINT32
236 bswap32(UINT32 v)
237 {
238         if(elf_is_big_endian) v = __ia64_swab32(v);
239         return v;
240 }
241
242 static inline UINT16
243 bswap16(UINT16 v)
244 {
245         if(elf_is_big_endian) v = __ia64_swab16(v);
246         return v;
247 }
248
249 static INTN
250 is_valid_header(Elf64_Ehdr *ehdr)
251 {
252         UINT16 type, machine;
253
254         if (ehdr->e_ident[EI_DATA] == ELFDATA2MSB) {
255                 type    = __ia64_swab16(ehdr->e_type);
256                 machine = __ia64_swab16(ehdr->e_machine);
257         } else {
258                 type    = ehdr->e_type;
259                 machine = ehdr->e_machine;
260         }
261         VERB_PRT(3, Print(L"class=%d type=%d data=%d machine=%d\n", 
262                 ehdr->e_ident[EI_CLASS],
263                 type,
264                 ehdr->e_ident[EI_DATA],
265                 machine));
266
267         return    ehdr->e_ident[EI_MAG0]  == 0x7f 
268                && ehdr->e_ident[EI_MAG1]  == 'E'
269                && ehdr->e_ident[EI_MAG2]  == 'L'
270                && ehdr->e_ident[EI_MAG3]  == 'F'
271                && ehdr->e_ident[EI_CLASS] == ELFCLASS64 
272                && type                    == ET_EXEC    /* must be executable */
273                && machine                 == EM_IA_64 ? 0 : -1;
274 }
275
276 /*
277  * will invalidate loadble segments which overlap with others
278  */ 
279 void
280 check_overlap(int i)
281 {
282         int j;
283         unsigned long iend = chunks[i].addr + chunks[i].size;
284
285         for(j=0; j < nchunks; j++) {
286                 if (j ==i) continue;
287                 if (chunks[i].addr >= chunks[j].addr && iend < (chunks[j].addr + chunks[j].size)) {
288                         DBG_PRT((L"%s : segment %d fully included in segment %d\n", LD_NAME, i, j));
289                         CHUNK_INVALIDATE(i); /* nullyify segment */
290                         break;
291                 }
292         }
293 }
294
295 void
296 analyze_chunks(void)
297 {
298         INTN i;
299
300         for(i=0; i < nchunks; i++) {
301                 if (CHUNK_IS_VALID(i) && !CHUNK_IS_LOAD(i)) check_overlap(i);
302         }
303 }
304
305
306 /*
307  * The decompression code calls this function after decompressing the
308  * first block of the object file.  The first block must contain all
309  * the relevant header information.
310  */
311 int
312 first_block (const unsigned char *buf, long blocksize)
313 {
314         Elf64_Ehdr *elf;
315         Elf64_Phdr *phdrs;
316         UINTN total_size, pages;
317         UINTN low_addr, max_addr;
318         UINTN load_offset = 0;
319         UINTN offs = 0;
320         UINT16 phnum;
321         UINTN paddr, memsz;
322         INTN i;
323
324         elf  = (Elf64_Ehdr *)buf;
325         
326         if (is_valid_header(elf) == -1) return -1;
327
328         /* determine file endianess */
329         elf_is_big_endian = elf->e_ident[EI_DATA] == ELFDATA2MSB ? 1 : 0;
330
331         
332         offs  = bswap64(elf->e_phoff);
333         phnum = bswap16(elf->e_phnum);
334
335         VERB_PRT(3, { 
336                         Print(L"ELF file is %s\n", elf_is_big_endian ? L"big endian" : L"little endian");
337                         Print(L"Entry point 0x%lx\n", bswap64(elf->e_entry));
338                         Print(L"%d program headers\n", phnum);
339                         Print(L"%d segment headers\n", bswap16(elf->e_shnum));
340                    });
341
342
343         /* XXX: need to check on this */
344         if (offs + phnum * sizeof(*phdrs) > (unsigned) blocksize) {
345                 ERR_PRT((L"%s : ELF program headers not in first block (%ld)\n", LD_NAME, offs));
346                 return -1;
347         }
348
349         kernel_entry = (void *)bswap64(elf->e_entry);
350
351         if (((UINTN)kernel_entry >> 61) != 0) {
352                 ERR_PRT((L"%s:  <<ERROR>> entry point is a virtual address 0x%lx : not supported anymore\n", LD_NAME, kernel_entry));
353         }
354
355         phdrs = (Elf64_Phdr *) (buf + offs);
356
357         low_addr = ~0;
358         max_addr = 0;
359
360         /*
361          * allocate chunk table
362          * Convention: a segment that does not need loading will
363          * have chunk[].addr = 0.
364          */
365         chunks = (void *)alloc(sizeof(struct segment)*phnum, 0);
366         if (chunks == NULL) {
367                 ERR_PRT((L"%s : failed alloc chunks %r\n", LD_NAME));
368                 return -1;
369         }
370         nchunks = phnum;
371         /*
372          * find lowest and higest virtual addresses
373          * don't assume FULLY sorted !
374          */
375         for (i = 0; i < phnum; ++i) {
376
377                 /* 
378                  * record chunk no matter what because no load may happen
379                  * anywhere in archive, not just as the last segment
380                  */
381                 paddr = bswap64(phdrs[i].p_paddr);
382                 memsz = bswap64(phdrs[i].p_memsz),
383
384                 chunks[i].addr   = paddr;
385                 chunks[i].offset = bswap64(phdrs[i].p_offset);
386                 chunks[i].size   = bswap64(phdrs[i].p_filesz);
387                 chunks[i].bss_sz = bswap64(phdrs[i].p_memsz) - bswap64(phdrs[i].p_filesz);
388
389                 CHUNK_VALIDATE(i);
390
391                 if (bswap32(phdrs[i].p_type) != PT_LOAD) {
392                         CHUNK_NO_LOAD(i); /* mark no load chunk */
393                         DBG_PRT((L"%s : skipping segment %ld\n", LD_NAME, i));
394                         continue;
395                 }
396
397                 if (bswap32(phdrs[i].p_flags) & PF_X)
398                         chunks[i].flags |= CHUNK_FL_X;
399
400                 CHUNK_CAN_LOAD(i); /* mark no load chunk */
401
402                 VERB_PRT(3, 
403                 Print(L"\n%s : segment %ld vaddr [0x%lx-0x%lx] offset %ld filesz %ld memsz=%ld bss_sz=%ld\n",
404                                 LD_NAME,
405                                 1+i, 
406                                 chunks[i].addr, 
407                                 chunks[i].addr+bswap64(phdrs[i].p_filesz), 
408                                 chunks[i].offset, 
409                                 chunks[i].size,
410                                 memsz,
411                                 chunks[i].bss_sz));
412                 
413                 if (paddr < low_addr) low_addr = paddr;
414
415                 if (paddr + memsz > max_addr) max_addr = paddr + memsz;
416         }
417
418         if (low_addr & (EFI_PAGE_SIZE - 1)) {
419                 ERR_PRT((L"%s : low_addr not page aligned 0x%lx\n", LD_NAME, low_addr));
420                 goto error;
421         }
422
423         analyze_chunks();
424
425         DBG_PRT((L"%s : %d program headers entry=0x%lx\nlowest_addr=0x%lx highest_addr=0x%lx\n", 
426                         LD_NAME,
427                         phnum, kernel_entry, low_addr, max_addr));
428
429         total_size = (UINTN)max_addr - (UINTN)low_addr;
430         pages = EFI_SIZE_TO_PAGES(total_size);
431
432         /*
433          * Record end of kernel for initrd
434          */
435         kernel_base = (void *)low_addr;
436         kernel_end  = (void *)(low_addr + (pages << EFI_PAGE_SHIFT));
437
438         /* allocate memory for the kernel */
439         if (alloc_kmem((void *)low_addr, pages) == -1) {
440                 VOID *new_addr;
441
442                 VERB_PRT(1, Print(L"%s : AllocatePages(%d, 0x%lx) for kernel failed\n", LD_NAME, pages, low_addr));
443
444                 if (ia64_can_relocate() == 0) {
445                         ERR_PRT((L"relocation is disabled, cannot load kernel"));
446                         goto error;
447                 }
448
449                 /*
450                  * could not allocate at requested spot, try to find a
451                  * suitable location to relocate the kernel
452                  *
453                  * The maximum sized Itanium TLB translation entry is 256 MB.
454                  * If we relocate the kernel by this amount we know for sure
455                  * that alignment constraints will be satisified, regardless
456                  * of the kernel used.
457                  */
458                 VERB_PRT(1, Print(L"Attempting to relocate kernel.\n"));
459
460                 if (find_kernel_memory((VOID*) low_addr, (VOID*) max_addr, 256*MB, &new_addr) == -1) {
461                         ERR_PRT((L"%s : find_kernel_memory(0x%lx, 0x%lx, 0x%lx, 0x%lx) failed\n", LD_NAME, low_addr, max_addr, 256*MB, &load_offset));
462                         goto error;
463                 }
464                 /* unsigned arithmetic */
465                 load_offset = (UINTN) (new_addr - ROUNDDOWN((UINTN) low_addr,256*MB));
466
467                 VERB_PRT(1, Print(L"low_addr=0x%lx new_addr=0x%lx offset=0x%lx", low_addr, new_addr, load_offset));
468
469                 /*
470                  * correct various addresses for non-zero load_offset
471                  */
472                 kernel_base = (void *) ((UINTN) kernel_base + load_offset);
473                 kernel_end  = (void *) ((UINTN) kernel_end + load_offset);
474                 kernel_entry = (void*) ((UINTN) kernel_entry + load_offset);
475
476                 for (i = 0; i < phnum; ++i) {
477                         chunks[i].addr += load_offset;
478                         phdrs[i].p_paddr = (Elf64_Addr) ((UINT64) phdrs[i].p_paddr + load_offset);
479                 }
480
481                 /*
482                  * try one last time to get memory for the kernel
483                  */
484                 if (alloc_kmem((void *)low_addr+load_offset, pages) == -1) {
485                         ERR_PRT((L"%s : AllocatePages(%d, 0x%lx) for kernel failed\n", LD_NAME, pages, low_addr+load_offset));
486                         ERR_PRT((L"Relocation by 0x%lx bytes failed.\n", load_offset));
487                         goto error;
488                 }
489         }
490         return 0;
491 error:
492         if (chunks) free(chunks);
493         return -1;
494 }
495
496 /*
497  * Determine which chunk in the Elf file will be coming out of the expand
498  * code next.
499  */
500 static void
501 nextchunk(void)
502 {
503         int i;
504         segment_t *cp;
505
506         cp = NULL;
507         for(i=0; i < nchunks; i++) {
508
509                 if (!CHUNK_IS_VALID(i) || !CHUNK_IS_LOAD(i)) continue;
510
511                 if (file_offset > chunks[i].offset) continue;
512
513                 if (cp == NULL || chunks[i].offset < cp->offset) cp = &chunks[i];
514         }
515         cur_chunk = cp;
516 }
517
518
519 /*
520  * Write the output window window[0..outcnt-1] holding uncompressed
521  * data and update crc.
522  */
523 void
524 flush_window(void)
525 {
526         static const CHAR8 helicopter[4] = { '|' , '/' , '-' , '\\' };
527         static UINTN heli_count;
528         struct segment *cp;
529         unsigned char   *src, *dst;
530         long    cnt;
531
532         if (!outcnt) return;
533
534         DBG_PRT((L"%s : flush_window outnct=%d file_offset=%ld\n", LD_NAME, outcnt, file_offset));
535
536         Print(L"%c\b",helicopter[heli_count++%4]);
537
538         updcrc(window, outcnt);
539
540         /*
541          * first time, we extract the headers
542          */
543         if (!bytes_out) {
544                 if (first_block(window, outcnt) < 0) error("invalid exec header"); 
545                 nextchunk();
546         }
547
548         bytes_out += outcnt;
549         src = window;
550 tail:
551         /* check if user wants to abort */
552         if (check_abort() == EFI_SUCCESS) goto load_abort;
553
554         cp = cur_chunk;
555         if (cp == NULL || file_offset + outcnt <= cp->offset) {
556                 file_offset += outcnt;
557                 return;
558         }
559
560         // Does this window begin before the current chunk?
561         if (file_offset < cp->offset) {
562                 unsigned long skip = cp->offset - file_offset;
563
564                 src         += skip;
565                 file_offset += skip;
566                 outcnt      -= skip;
567         }
568         dst = (unsigned char *)cp->addr + (file_offset - cp->offset);
569
570         cnt = cp->offset + cp->size - file_offset;
571
572         if (cnt > outcnt) cnt = outcnt;
573
574         Memcpy(dst, src, cnt);
575         if (cp->flags & CHUNK_FL_X)
576                 flush_dcache (dst, cnt);
577
578         file_offset += cnt;
579         outcnt      -= cnt;
580         src         += cnt;
581
582         /* See if we are at the end of this chunk */
583         if (file_offset == cp->offset + cp->size) {
584                 if (cp->bss_sz) {
585                         dst = (unsigned char *)cp->addr + cp->size;
586                         Memset(dst, 0, cp->bss_sz);
587                 }
588                 nextchunk();
589                 /* handle remaining bytes */
590                 if (outcnt) goto tail; 
591         }
592         return;
593 load_abort:
594         free_kmem();
595         error_return = ELILO_LOAD_ABORTED;
596         longjmp(jbuf, 1);
597 }
598
599 static void
600 error(char *x)
601 {
602         ERR_PRT((L"%s : %a", LD_NAME, x));
603         /* will eventually exit with error from gunzip() */
604         longjmp(jbuf,1);
605 }
606
607 INT32
608 decompress_kernel(VOID)
609 {
610         INT32 ret;
611
612         clear_bufs();
613         makecrc();
614         Print(L"Uncompressing Linux... ");
615         ret = gunzip();
616         if (ret == 0) Print(L"done\n");
617         return ret == 0 ? 0 : -1;
618 }
619
620 int
621 gunzip_kernel(fops_fd_t fd, kdesc_t *kd)
622 {
623         int ret = -1;
624
625         error_return = ELILO_LOAD_ERROR;
626         
627         window = (void *)alloc(WSIZE, 0);
628         if (window == NULL) {
629                 ERR_PRT((L"%s : allocate output window failed\n", LD_NAME));
630                 return -1;
631         }
632
633         inbuf = (void *)alloc(INBUFSIZE, 0);
634         if (inbuf == NULL) {
635                 ERR_PRT((L"%s : allocate input window failedr\n", LD_NAME));
636                 goto error;
637         }
638
639         input_fd   = fd;
640         insize     = 0;
641         bytes_out  = 0;
642
643         if (setjmp(jbuf) == 1) goto error;
644
645
646         ret = decompress_kernel();
647
648 error:
649         if (window) free(window);
650         if (inbuf) free(inbuf);
651
652         if (ret == 0) {
653                 kd->kentry = kernel_entry;
654                 kd->kend   = kernel_end;
655                 kd->kstart = kernel_base;
656                 error_return = ELILO_LOAD_SUCCESS;
657         }
658         return error_return;
659 }