]> git.ipfire.org Git - thirdparty/grsecurity-scrape.git/blobdiff - test/2.6.32.56/grsecurity-2.2.2-2.6.32.56-201202111424.patch
Move patches to per-kernel directories.
[thirdparty/grsecurity-scrape.git] / test / 2.6.32.56 / grsecurity-2.2.2-2.6.32.56-201202111424.patch
diff --git a/test/2.6.32.56/grsecurity-2.2.2-2.6.32.56-201202111424.patch b/test/2.6.32.56/grsecurity-2.2.2-2.6.32.56-201202111424.patch
new file mode 100644 (file)
index 0000000..c1b2667
--- /dev/null
@@ -0,0 +1,87922 @@
+diff --git a/Documentation/dontdiff b/Documentation/dontdiff
+index e1efc40..47f0daf 100644
+--- a/Documentation/dontdiff
++++ b/Documentation/dontdiff
+@@ -1,15 +1,19 @@
+ *.a
+ *.aux
+ *.bin
++*.cis
+ *.cpio
+ *.csp
++*.dbg
+ *.dsp
+ *.dvi
+ *.elf
+ *.eps
+ *.fw
++*.gcno
+ *.gen.S
+ *.gif
++*.gmo
+ *.grep
+ *.grp
+ *.gz
+@@ -38,8 +42,10 @@
+ *.tab.h
+ *.tex
+ *.ver
++*.vim
+ *.xml
+ *_MODULES
++*_reg_safe.h
+ *_vga16.c
+ *~
+ *.9
+@@ -49,11 +55,16 @@
+ 53c700_d.h
+ CVS
+ ChangeSet
++GPATH
++GRTAGS
++GSYMS
++GTAGS
+ Image
+ Kerntypes
+ Module.markers
+ Module.symvers
+ PENDING
++PERF*
+ SCCS
+ System.map*
+ TAGS
+@@ -76,7 +87,11 @@ btfixupprep
+ build
+ bvmlinux
+ bzImage*
++capability_names.h
++capflags.c
+ classlist.h*
++clut_vga16.c
++common-cmds.h
+ comp*.log
+ compile.h*
+ conf
+@@ -84,6 +99,8 @@ config
+ config-*
+ config_data.h*
+ config_data.gz*
++config.c
++config.tmp
+ conmakehash
+ consolemap_deftbl.c*
+ cpustr.h
+@@ -97,19 +114,23 @@ elfconfig.h*
+ fixdep
+ fore200e_mkfirm
+ fore200e_pca_fw.c*
++gate.lds
+ gconf
+ gen-devlist
+ gen_crc32table
+ gen_init_cpio
+ genksyms
+ *_gray256.c
++hash
++hid-example
+ ihex2fw
+ ikconfig.h*
+ initramfs_data.cpio
++initramfs_data.cpio.bz2
+ initramfs_data.cpio.gz
+ initramfs_list
+ kallsyms
+-kconfig
++kern_constants.h
+ keywords.c
+ ksym.c*
+ ksym.h*
+@@ -127,13 +148,16 @@ machtypes.h
+ map
+ maui_boot.h
+ mconf
++mdp
+ miboot*
+ mk_elfconfig
+ mkboot
+ mkbugboot
+ mkcpustr
+ mkdep
++mkpiggy
+ mkprep
++mkregtable
+ mktables
+ mktree
+ modpost
+@@ -149,6 +173,7 @@ patches*
+ pca200e.bin
+ pca200e_ecd.bin2
+ piggy.gz
++piggy.S
+ piggyback
+ pnmtologo
+ ppc_defs.h*
+@@ -157,12 +182,15 @@ qconf
+ raid6altivec*.c
+ raid6int*.c
+ raid6tables.c
++regdb.c
+ relocs
++rlim_names.h
+ series
+ setup
+ setup.bin
+ setup.elf
+ sImage
++slabinfo
+ sm_tbl*
+ split-include
+ syscalltab.h
+@@ -171,6 +199,7 @@ tftpboot.img
+ timeconst.h
+ times.h*
+ trix_boot.h
++user_constants.h
+ utsrelease.h*
+ vdso-syms.lds
+ vdso.lds
+@@ -186,14 +215,20 @@ version.h*
+ vmlinux
+ vmlinux-*
+ vmlinux.aout
++vmlinux.bin.all
++vmlinux.bin.bz2
+ vmlinux.lds
++vmlinux.relocs
++voffset.h
+ vsyscall.lds
+ vsyscall_32.lds
+ wanxlfw.inc
+ uImage
+ unifdef
++utsrelease.h
+ wakeup.bin
+ wakeup.elf
+ wakeup.lds
+ zImage*
+ zconf.hash.c
++zoffset.h
+diff --git a/Documentation/kernel-parameters.txt b/Documentation/kernel-parameters.txt
+index c840e7d..f4c451c 100644
+--- a/Documentation/kernel-parameters.txt
++++ b/Documentation/kernel-parameters.txt
+@@ -1837,6 +1837,13 @@ and is between 256 and 4096 characters. It is defined in the file
+                       the specified number of seconds.  This is to be used if
+                       your oopses keep scrolling off the screen.
++      pax_nouderef    [X86] disables UDEREF.  Most likely needed under certain
++                      virtualization environments that don't cope well with the
++                      expand down segment used by UDEREF on X86-32 or the frequent
++                      page table updates on X86-64.
++
++      pax_softmode=   0/1 to disable/enable PaX softmode on boot already.
++
+       pcbit=          [HW,ISDN]
+       pcd.            [PARIDE]
+diff --git a/Makefile b/Makefile
+index 81ad738..cbdaeb0 100644
+--- a/Makefile
++++ b/Makefile
+@@ -221,8 +221,9 @@ CONFIG_SHELL := $(shell if [ -x "$$BASH" ]; then echo $$BASH; \
+ HOSTCC       = gcc
+ HOSTCXX      = g++
+-HOSTCFLAGS   = -Wall -Wmissing-prototypes -Wstrict-prototypes -O2 -fomit-frame-pointer
+-HOSTCXXFLAGS = -O2
++HOSTCFLAGS   = -Wall -W -Wmissing-prototypes -Wstrict-prototypes -Wno-unused-parameter -Wno-missing-field-initializers -O2 -fomit-frame-pointer -fno-delete-null-pointer-checks
++HOSTCFLAGS  += $(call cc-option, -Wno-empty-body)
++HOSTCXXFLAGS = -O2 -Wall -W -fno-delete-null-pointer-checks
+ # Decide whether to build built-in, modular, or both.
+ # Normally, just do built-in.
+@@ -376,8 +377,8 @@ export RCS_TAR_IGNORE := --exclude SCCS --exclude BitKeeper --exclude .svn --exc
+ # Rules shared between *config targets and build targets
+ # Basic helpers built in scripts/
+-PHONY += scripts_basic
+-scripts_basic:
++PHONY += scripts_basic gcc-plugins
++scripts_basic: gcc-plugins
+       $(Q)$(MAKE) $(build)=scripts/basic
+ # To avoid any implicit rule to kick in, define an empty command.
+@@ -403,7 +404,7 @@ endif
+ # of make so .config is not included in this case either (for *config).
+ no-dot-config-targets := clean mrproper distclean \
+-                       cscope TAGS tags help %docs check% \
++                       cscope gtags TAGS tags help %docs check% \
+                        include/linux/version.h headers_% \
+                        kernelrelease kernelversion
+@@ -526,6 +527,46 @@ else
+ KBUILD_CFLAGS += -O2
+ endif
++ifndef DISABLE_PAX_PLUGINS
++ifeq ($(shell $(CONFIG_SHELL) $(srctree)/scripts/gcc-plugin.sh "$(HOSTCC)" "$(CC)"), y)
++ifndef DISABLE_PAX_CONSTIFY_PLUGIN
++CONSTIFY_PLUGIN := -fplugin=$(objtree)/tools/gcc/constify_plugin.so -DCONSTIFY_PLUGIN
++endif
++ifdef CONFIG_PAX_MEMORY_STACKLEAK
++STACKLEAK_PLUGIN := -fplugin=$(objtree)/tools/gcc/stackleak_plugin.so -DSTACKLEAK_PLUGIN
++STACKLEAK_PLUGIN += -fplugin-arg-stackleak_plugin-track-lowest-sp=100
++endif
++ifdef CONFIG_KALLOCSTAT_PLUGIN
++KALLOCSTAT_PLUGIN := -fplugin=$(objtree)/tools/gcc/kallocstat_plugin.so
++endif
++ifdef CONFIG_PAX_KERNEXEC_PLUGIN
++KERNEXEC_PLUGIN := -fplugin=$(objtree)/tools/gcc/kernexec_plugin.so
++KERNEXEC_PLUGIN += -fplugin-arg-kernexec_plugin-method=$(CONFIG_PAX_KERNEXEC_PLUGIN_METHOD)
++endif
++ifdef CONFIG_CHECKER_PLUGIN
++ifeq ($(call cc-ifversion, -ge, 0406, y), y)
++CHECKER_PLUGIN := -fplugin=$(objtree)/tools/gcc/checker_plugin.so -DCHECKER_PLUGIN
++endif
++endif
++GCC_PLUGINS := $(CONSTIFY_PLUGIN) $(STACKLEAK_PLUGIN) $(KALLOCSTAT_PLUGIN) $(KERNEXEC_PLUGIN) $(CHECKER_PLUGIN)
++export CONSTIFY_PLUGIN STACKLEAK_PLUGIN KERNEXEC_PLUGIN CHECKER_PLUGIN
++ifeq ($(KBUILD_EXTMOD),)
++gcc-plugins:
++      $(Q)$(MAKE) $(build)=tools/gcc
++else
++gcc-plugins: ;
++endif
++else
++gcc-plugins:
++ifeq ($(call cc-ifversion, -ge, 0405, y), y)
++      $(error Your gcc installation does not support plugins.  If the necessary headers for plugin support are missing, they should be installed.  On Debian, apt-get install gcc-<ver>-plugin-dev.  If you choose to ignore this error and lessen the improvements provided by this patch, re-run make with the DISABLE_PAX_PLUGINS=y argument.))
++else
++      $(Q)echo "warning, your gcc version does not support plugins, you should upgrade it to gcc 4.5 at least"
++endif
++      $(Q)echo "PAX_MEMORY_STACKLEAK and constification will be less secure"
++endif
++endif
++
+ include $(srctree)/arch/$(SRCARCH)/Makefile
+ ifneq ($(CONFIG_FRAME_WARN),0)
+@@ -647,7 +688,7 @@ export mod_strip_cmd
+ ifeq ($(KBUILD_EXTMOD),)
+-core-y                += kernel/ mm/ fs/ ipc/ security/ crypto/ block/
++core-y                += kernel/ mm/ fs/ ipc/ security/ crypto/ block/ grsecurity/
+ vmlinux-dirs  := $(patsubst %/,%,$(filter %/, $(init-y) $(init-m) \
+                    $(core-y) $(core-m) $(drivers-y) $(drivers-m) \
+@@ -868,6 +909,7 @@ vmlinux.o: $(modpost-init) $(vmlinux-main) FORCE
+ # The actual objects are generated when descending, 
+ # make sure no implicit rule kicks in
++$(sort $(vmlinux-init) $(vmlinux-main)) $(vmlinux-lds): KBUILD_CFLAGS += $(GCC_PLUGINS)
+ $(sort $(vmlinux-init) $(vmlinux-main)) $(vmlinux-lds): $(vmlinux-dirs) ;
+ # Handle descending into subdirectories listed in $(vmlinux-dirs)
+@@ -877,7 +919,7 @@ $(sort $(vmlinux-init) $(vmlinux-main)) $(vmlinux-lds): $(vmlinux-dirs) ;
+ # Error messages still appears in the original language
+ PHONY += $(vmlinux-dirs)
+-$(vmlinux-dirs): prepare scripts
++$(vmlinux-dirs): gcc-plugins prepare scripts
+       $(Q)$(MAKE) $(build)=$@
+ # Build the kernel release string
+@@ -986,6 +1028,7 @@ prepare0: archprepare FORCE
+       $(Q)$(MAKE) $(build)=. missing-syscalls
+ # All the preparing..
++prepare: KBUILD_CFLAGS := $(filter-out $(GCC_PLUGINS),$(KBUILD_CFLAGS))
+ prepare: prepare0
+ # The asm symlink changes when $(ARCH) changes.
+@@ -1127,6 +1170,7 @@ all: modules
+ #     using awk while concatenating to the final file.
+ PHONY += modules
++modules: KBUILD_CFLAGS += $(GCC_PLUGINS)
+ modules: $(vmlinux-dirs) $(if $(KBUILD_BUILTIN),vmlinux)
+       $(Q)$(AWK) '!x[$$0]++' $(vmlinux-dirs:%=$(objtree)/%/modules.order) > $(objtree)/modules.order
+       @$(kecho) '  Building modules, stage 2.';
+@@ -1136,7 +1180,7 @@ modules: $(vmlinux-dirs) $(if $(KBUILD_BUILTIN),vmlinux)
+ # Target to prepare building external modules
+ PHONY += modules_prepare
+-modules_prepare: prepare scripts
++modules_prepare: gcc-plugins prepare scripts
+ # Target to install modules
+ PHONY += modules_install
+@@ -1201,7 +1245,7 @@ MRPROPER_FILES += .config .config.old include/asm .version .old_version \
+                   include/linux/autoconf.h include/linux/version.h      \
+                   include/linux/utsrelease.h                            \
+                   include/linux/bounds.h include/asm*/asm-offsets.h     \
+-                Module.symvers Module.markers tags TAGS cscope*
++                Module.symvers Module.markers tags TAGS cscope* GPATH GTAGS GRTAGS GSYMS
+ # clean - Delete most, but leave enough to build external modules
+ #
+@@ -1245,7 +1289,7 @@ distclean: mrproper
+       @find $(srctree) $(RCS_FIND_IGNORE) \
+               \( -name '*.orig' -o -name '*.rej' -o -name '*~' \
+               -o -name '*.bak' -o -name '#*#' -o -name '.*.orig' \
+-              -o -name '.*.rej' -o -size 0 \
++              -o -name '.*.rej' -o -name '*.so' -o -size 0 \
+               -o -name '*%' -o -name '.*.cmd' -o -name 'core' \) \
+               -type f -print | xargs rm -f
+@@ -1292,6 +1336,7 @@ help:
+       @echo  '  modules_prepare - Set up for building external modules'
+       @echo  '  tags/TAGS       - Generate tags file for editors'
+       @echo  '  cscope          - Generate cscope index'
++      @echo  '  gtags           - Generate GNU GLOBAL index'
+       @echo  '  kernelrelease   - Output the release version string'
+       @echo  '  kernelversion   - Output the version stored in Makefile'
+       @echo  '  headers_install - Install sanitised kernel headers to INSTALL_HDR_PATH'; \
+@@ -1393,6 +1438,7 @@ PHONY += $(module-dirs) modules
+ $(module-dirs): crmodverdir $(objtree)/Module.symvers
+       $(Q)$(MAKE) $(build)=$(patsubst _module_%,%,$@)
++modules: KBUILD_CFLAGS += $(GCC_PLUGINS)
+ modules: $(module-dirs)
+       @$(kecho) '  Building modules, stage 2.';
+       $(Q)$(MAKE) -f $(srctree)/scripts/Makefile.modpost
+@@ -1448,7 +1494,7 @@ endif # KBUILD_EXTMOD
+ quiet_cmd_tags = GEN     $@
+       cmd_tags = $(CONFIG_SHELL) $(srctree)/scripts/tags.sh $@
+-tags TAGS cscope: FORCE
++tags TAGS cscope gtags: FORCE
+       $(call cmd,tags)
+ # Scripts to check various things for consistency
+@@ -1513,17 +1559,19 @@ else
+         target-dir = $(if $(KBUILD_EXTMOD),$(dir $<),$(dir $@))
+ endif
+-%.s: %.c prepare scripts FORCE
++%.s: KBUILD_CFLAGS += $(GCC_PLUGINS)
++%.s: %.c gcc-plugins prepare scripts FORCE
+       $(Q)$(MAKE) $(build)=$(build-dir) $(target-dir)$(notdir $@)
+ %.i: %.c prepare scripts FORCE
+       $(Q)$(MAKE) $(build)=$(build-dir) $(target-dir)$(notdir $@)
+-%.o: %.c prepare scripts FORCE
++%.o: KBUILD_CFLAGS += $(GCC_PLUGINS)
++%.o: %.c gcc-plugins prepare scripts FORCE
+       $(Q)$(MAKE) $(build)=$(build-dir) $(target-dir)$(notdir $@)
+ %.lst: %.c prepare scripts FORCE
+       $(Q)$(MAKE) $(build)=$(build-dir) $(target-dir)$(notdir $@)
+-%.s: %.S prepare scripts FORCE
++%.s: %.S gcc-plugins prepare scripts FORCE
+       $(Q)$(MAKE) $(build)=$(build-dir) $(target-dir)$(notdir $@)
+-%.o: %.S prepare scripts FORCE
++%.o: %.S gcc-plugins prepare scripts FORCE
+       $(Q)$(MAKE) $(build)=$(build-dir) $(target-dir)$(notdir $@)
+ %.symtypes: %.c prepare scripts FORCE
+       $(Q)$(MAKE) $(build)=$(build-dir) $(target-dir)$(notdir $@)
+@@ -1533,11 +1581,13 @@ endif
+       $(cmd_crmodverdir)
+       $(Q)$(MAKE) KBUILD_MODULES=$(if $(CONFIG_MODULES),1) \
+       $(build)=$(build-dir)
+-%/: prepare scripts FORCE
++%/: KBUILD_CFLAGS += $(GCC_PLUGINS)
++%/: gcc-plugins prepare scripts FORCE
+       $(cmd_crmodverdir)
+       $(Q)$(MAKE) KBUILD_MODULES=$(if $(CONFIG_MODULES),1) \
+       $(build)=$(build-dir)
+-%.ko: prepare scripts FORCE
++%.ko: KBUILD_CFLAGS += $(GCC_PLUGINS)
++%.ko: gcc-plugins prepare scripts FORCE
+       $(cmd_crmodverdir)
+       $(Q)$(MAKE) KBUILD_MODULES=$(if $(CONFIG_MODULES),1)   \
+       $(build)=$(build-dir) $(@:.ko=.o)
+diff --git a/arch/alpha/include/asm/elf.h b/arch/alpha/include/asm/elf.h
+index 5c75c1b..c82f878 100644
+--- a/arch/alpha/include/asm/elf.h
++++ b/arch/alpha/include/asm/elf.h
+@@ -91,6 +91,13 @@ typedef elf_fpreg_t elf_fpregset_t[ELF_NFPREG];
+ #define ELF_ET_DYN_BASE               (TASK_UNMAPPED_BASE + 0x1000000)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (current->personality & ADDR_LIMIT_32BIT ? 0x10000 : 0x120000000UL)
++
++#define PAX_DELTA_MMAP_LEN    (current->personality & ADDR_LIMIT_32BIT ? 14 : 28)
++#define PAX_DELTA_STACK_LEN   (current->personality & ADDR_LIMIT_32BIT ? 14 : 19)
++#endif
++
+ /* $0 is set by ld.so to a pointer to a function which might be 
+    registered using atexit.  This provides a mean for the dynamic
+    linker to call DT_FINI functions for shared libraries that have
+diff --git a/arch/alpha/include/asm/pgtable.h b/arch/alpha/include/asm/pgtable.h
+index 3f0c59f..cf1e100 100644
+--- a/arch/alpha/include/asm/pgtable.h
++++ b/arch/alpha/include/asm/pgtable.h
+@@ -101,6 +101,17 @@ struct vm_area_struct;
+ #define PAGE_SHARED   __pgprot(_PAGE_VALID | __ACCESS_BITS)
+ #define PAGE_COPY     __pgprot(_PAGE_VALID | __ACCESS_BITS | _PAGE_FOW)
+ #define PAGE_READONLY __pgprot(_PAGE_VALID | __ACCESS_BITS | _PAGE_FOW)
++
++#ifdef CONFIG_PAX_PAGEEXEC
++# define PAGE_SHARED_NOEXEC   __pgprot(_PAGE_VALID | __ACCESS_BITS | _PAGE_FOE)
++# define PAGE_COPY_NOEXEC     __pgprot(_PAGE_VALID | __ACCESS_BITS | _PAGE_FOW | _PAGE_FOE)
++# define PAGE_READONLY_NOEXEC __pgprot(_PAGE_VALID | __ACCESS_BITS | _PAGE_FOW | _PAGE_FOE)
++#else
++# define PAGE_SHARED_NOEXEC   PAGE_SHARED
++# define PAGE_COPY_NOEXEC     PAGE_COPY
++# define PAGE_READONLY_NOEXEC PAGE_READONLY
++#endif
++
+ #define PAGE_KERNEL   __pgprot(_PAGE_VALID | _PAGE_ASM | _PAGE_KRE | _PAGE_KWE)
+ #define _PAGE_NORMAL(x) __pgprot(_PAGE_VALID | __ACCESS_BITS | (x))
+diff --git a/arch/alpha/kernel/module.c b/arch/alpha/kernel/module.c
+index ebc3c89..20cfa63 100644
+--- a/arch/alpha/kernel/module.c
++++ b/arch/alpha/kernel/module.c
+@@ -182,7 +182,7 @@ apply_relocate_add(Elf64_Shdr *sechdrs, const char *strtab,
+       /* The small sections were sorted to the end of the segment.
+          The following should definitely cover them.  */
+-      gp = (u64)me->module_core + me->core_size - 0x8000;
++      gp = (u64)me->module_core_rw + me->core_size_rw - 0x8000;
+       got = sechdrs[me->arch.gotsecindex].sh_addr;
+       for (i = 0; i < n; i++) {
+diff --git a/arch/alpha/kernel/osf_sys.c b/arch/alpha/kernel/osf_sys.c
+index a94e49c..d71dd44 100644
+--- a/arch/alpha/kernel/osf_sys.c
++++ b/arch/alpha/kernel/osf_sys.c
+@@ -1172,7 +1172,7 @@ arch_get_unmapped_area_1(unsigned long addr, unsigned long len,
+               /* At this point:  (!vma || addr < vma->vm_end). */
+               if (limit - len < addr)
+                       return -ENOMEM;
+-              if (!vma || addr + len <= vma->vm_start)
++              if (check_heap_stack_gap(vma, addr, len))
+                       return addr;
+               addr = vma->vm_end;
+               vma = vma->vm_next;
+@@ -1208,6 +1208,10 @@ arch_get_unmapped_area(struct file *filp, unsigned long addr,
+          merely specific addresses, but regions of memory -- perhaps
+          this feature should be incorporated into all ports?  */
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(current->mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       if (addr) {
+               addr = arch_get_unmapped_area_1 (PAGE_ALIGN(addr), len, limit);
+               if (addr != (unsigned long) -ENOMEM)
+@@ -1215,8 +1219,8 @@ arch_get_unmapped_area(struct file *filp, unsigned long addr,
+       }
+       /* Next, try allocating at TASK_UNMAPPED_BASE.  */
+-      addr = arch_get_unmapped_area_1 (PAGE_ALIGN(TASK_UNMAPPED_BASE),
+-                                       len, limit);
++      addr = arch_get_unmapped_area_1 (PAGE_ALIGN(current->mm->mmap_base), len, limit);
++
+       if (addr != (unsigned long) -ENOMEM)
+               return addr;
+diff --git a/arch/alpha/mm/fault.c b/arch/alpha/mm/fault.c
+index 00a31de..2ded0f2 100644
+--- a/arch/alpha/mm/fault.c
++++ b/arch/alpha/mm/fault.c
+@@ -54,6 +54,124 @@ __load_new_mm_context(struct mm_struct *next_mm)
+       __reload_thread(pcb);
+ }
++#ifdef CONFIG_PAX_PAGEEXEC
++/*
++ * PaX: decide what to do with offenders (regs->pc = fault address)
++ *
++ * returns 1 when task should be killed
++ *         2 when patched PLT trampoline was detected
++ *         3 when unpatched PLT trampoline was detected
++ */
++static int pax_handle_fetch_fault(struct pt_regs *regs)
++{
++
++#ifdef CONFIG_PAX_EMUPLT
++      int err;
++
++      do { /* PaX: patched PLT emulation #1 */
++              unsigned int ldah, ldq, jmp;
++
++              err = get_user(ldah, (unsigned int *)regs->pc);
++              err |= get_user(ldq, (unsigned int *)(regs->pc+4));
++              err |= get_user(jmp, (unsigned int *)(regs->pc+8));
++
++              if (err)
++                      break;
++
++              if ((ldah & 0xFFFF0000U) == 0x277B0000U &&
++                  (ldq & 0xFFFF0000U) == 0xA77B0000U &&
++                  jmp == 0x6BFB0000U)
++              {
++                      unsigned long r27, addr;
++                      unsigned long addrh = (ldah | 0xFFFFFFFFFFFF0000UL) << 16;
++                      unsigned long addrl = ldq | 0xFFFFFFFFFFFF0000UL;
++
++                      addr = regs->r27 + ((addrh ^ 0x80000000UL) + 0x80000000UL) + ((addrl ^ 0x8000UL) + 0x8000UL);
++                      err = get_user(r27, (unsigned long *)addr);
++                      if (err)
++                              break;
++
++                      regs->r27 = r27;
++                      regs->pc = r27;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: patched PLT emulation #2 */
++              unsigned int ldah, lda, br;
++
++              err = get_user(ldah, (unsigned int *)regs->pc);
++              err |= get_user(lda, (unsigned int *)(regs->pc+4));
++              err |= get_user(br, (unsigned int *)(regs->pc+8));
++
++              if (err)
++                      break;
++
++              if ((ldah & 0xFFFF0000U) == 0x277B0000U &&
++                  (lda & 0xFFFF0000U) == 0xA77B0000U &&
++                  (br & 0xFFE00000U) == 0xC3E00000U)
++              {
++                      unsigned long addr = br | 0xFFFFFFFFFFE00000UL;
++                      unsigned long addrh = (ldah | 0xFFFFFFFFFFFF0000UL) << 16;
++                      unsigned long addrl = lda | 0xFFFFFFFFFFFF0000UL;
++
++                      regs->r27 += ((addrh ^ 0x80000000UL) + 0x80000000UL) + ((addrl ^ 0x8000UL) + 0x8000UL);
++                      regs->pc += 12 + (((addr ^ 0x00100000UL) + 0x00100000UL) << 2);
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: unpatched PLT emulation */
++              unsigned int br;
++
++              err = get_user(br, (unsigned int *)regs->pc);
++
++              if (!err && (br & 0xFFE00000U) == 0xC3800000U) {
++                      unsigned int br2, ldq, nop, jmp;
++                      unsigned long addr = br | 0xFFFFFFFFFFE00000UL, resolver;
++
++                      addr = regs->pc + 4 + (((addr ^ 0x00100000UL) + 0x00100000UL) << 2);
++                      err = get_user(br2, (unsigned int *)addr);
++                      err |= get_user(ldq, (unsigned int *)(addr+4));
++                      err |= get_user(nop, (unsigned int *)(addr+8));
++                      err |= get_user(jmp, (unsigned int *)(addr+12));
++                      err |= get_user(resolver, (unsigned long *)(addr+16));
++
++                      if (err)
++                              break;
++
++                      if (br2 == 0xC3600000U &&
++                          ldq == 0xA77B000CU &&
++                          nop == 0x47FF041FU &&
++                          jmp == 0x6B7B0000U)
++                      {
++                              regs->r28 = regs->pc+4;
++                              regs->r27 = addr+16;
++                              regs->pc = resolver;
++                              return 3;
++                      }
++              }
++      } while (0);
++#endif
++
++      return 1;
++}
++
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 5; i++) {
++              unsigned int c;
++              if (get_user(c, (unsigned int *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08x ", c);
++      }
++      printk("\n");
++}
++#endif
+ /*
+  * This routine handles page faults.  It determines the address,
+@@ -131,8 +249,29 @@ do_page_fault(unsigned long address, unsigned long mmcsr,
+  good_area:
+       si_code = SEGV_ACCERR;
+       if (cause < 0) {
+-              if (!(vma->vm_flags & VM_EXEC))
++              if (!(vma->vm_flags & VM_EXEC)) {
++
++#ifdef CONFIG_PAX_PAGEEXEC
++                      if (!(mm->pax_flags & MF_PAX_PAGEEXEC) || address != regs->pc)
++                              goto bad_area;
++
++                      up_read(&mm->mmap_sem);
++                      switch (pax_handle_fetch_fault(regs)) {
++
++#ifdef CONFIG_PAX_EMUPLT
++                      case 2:
++                      case 3:
++                              return;
++#endif
++
++                      }
++                      pax_report_fault(regs, (void *)regs->pc, (void *)rdusp());
++                      do_group_exit(SIGKILL);
++#else
+                       goto bad_area;
++#endif
++
++              }
+       } else if (!cause) {
+               /* Allow reads even for write-only mappings */
+               if (!(vma->vm_flags & (VM_READ | VM_WRITE)))
+diff --git a/arch/arm/include/asm/elf.h b/arch/arm/include/asm/elf.h
+index 6aac3f5..265536b 100644
+--- a/arch/arm/include/asm/elf.h
++++ b/arch/arm/include/asm/elf.h
+@@ -109,7 +109,14 @@ int dump_task_regs(struct task_struct *t, elf_gregset_t *elfregs);
+    the loader.  We need to make sure that it is out of the way of the program
+    that it will "exec", and that there is sufficient room for the brk.  */
+-#define ELF_ET_DYN_BASE       (2 * TASK_SIZE / 3)
++#define ELF_ET_DYN_BASE               (TASK_SIZE / 3 * 2)
++
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   0x00008000UL
++
++#define PAX_DELTA_MMAP_LEN    ((current->personality == PER_LINUX_32BIT) ? 16 : 10)
++#define PAX_DELTA_STACK_LEN   ((current->personality == PER_LINUX_32BIT) ? 16 : 10)
++#endif
+ /* When the program starts, a1 contains a pointer to a function to be 
+    registered with atexit, as per the SVR4 ABI.  A value of 0 means we 
+diff --git a/arch/arm/include/asm/kmap_types.h b/arch/arm/include/asm/kmap_types.h
+index c019949..388fdd1 100644
+--- a/arch/arm/include/asm/kmap_types.h
++++ b/arch/arm/include/asm/kmap_types.h
+@@ -19,6 +19,7 @@ enum km_type {
+       KM_SOFTIRQ0,
+       KM_SOFTIRQ1,
+       KM_L2_CACHE,
++      KM_CLEARPAGE,
+       KM_TYPE_NR
+ };
+diff --git a/arch/arm/include/asm/uaccess.h b/arch/arm/include/asm/uaccess.h
+index 1d6bd40..fba0cb9 100644
+--- a/arch/arm/include/asm/uaccess.h
++++ b/arch/arm/include/asm/uaccess.h
+@@ -22,6 +22,8 @@
+ #define VERIFY_READ 0
+ #define VERIFY_WRITE 1
++extern void check_object_size(const void *ptr, unsigned long n, bool to);
++
+ /*
+  * The exception table consists of pairs of addresses: the first is the
+  * address of an instruction that is allowed to fault, and the second is
+@@ -387,8 +389,23 @@ do {                                                                      \
+ #ifdef CONFIG_MMU
+-extern unsigned long __must_check __copy_from_user(void *to, const void __user *from, unsigned long n);
+-extern unsigned long __must_check __copy_to_user(void __user *to, const void *from, unsigned long n);
++extern unsigned long __must_check ___copy_from_user(void *to, const void __user *from, unsigned long n);
++extern unsigned long __must_check ___copy_to_user(void __user *to, const void *from, unsigned long n);
++
++static inline unsigned long __must_check __copy_from_user(void *to, const void __user *from, unsigned long n)
++{
++      if (!__builtin_constant_p(n))
++              check_object_size(to, n, false);
++      return ___copy_from_user(to, from, n);
++}
++
++static inline unsigned long __must_check __copy_to_user(void __user *to, const void *from, unsigned long n)
++{
++      if (!__builtin_constant_p(n))
++              check_object_size(from, n, true);
++      return ___copy_to_user(to, from, n);
++}
++
+ extern unsigned long __must_check __copy_to_user_std(void __user *to, const void *from, unsigned long n);
+ extern unsigned long __must_check __clear_user(void __user *addr, unsigned long n);
+ extern unsigned long __must_check __clear_user_std(void __user *addr, unsigned long n);
+@@ -403,6 +420,9 @@ extern unsigned long __must_check __strnlen_user(const char __user *s, long n);
+ static inline unsigned long __must_check copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
+       if (access_ok(VERIFY_READ, from, n))
+               n = __copy_from_user(to, from, n);
+       else /* security hole - plug it */
+@@ -412,6 +432,9 @@ static inline unsigned long __must_check copy_from_user(void *to, const void __u
+ static inline unsigned long __must_check copy_to_user(void __user *to, const void *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
+       if (access_ok(VERIFY_WRITE, to, n))
+               n = __copy_to_user(to, from, n);
+       return n;
+diff --git a/arch/arm/kernel/armksyms.c b/arch/arm/kernel/armksyms.c
+index 0e62770..e2c2cd6 100644
+--- a/arch/arm/kernel/armksyms.c
++++ b/arch/arm/kernel/armksyms.c
+@@ -118,8 +118,8 @@ EXPORT_SYMBOL(__strncpy_from_user);
+ #ifdef CONFIG_MMU
+ EXPORT_SYMBOL(copy_page);
+-EXPORT_SYMBOL(__copy_from_user);
+-EXPORT_SYMBOL(__copy_to_user);
++EXPORT_SYMBOL(___copy_from_user);
++EXPORT_SYMBOL(___copy_to_user);
+ EXPORT_SYMBOL(__clear_user);
+ EXPORT_SYMBOL(__get_user_1);
+diff --git a/arch/arm/kernel/kgdb.c b/arch/arm/kernel/kgdb.c
+index ba8ccfe..2dc34dc 100644
+--- a/arch/arm/kernel/kgdb.c
++++ b/arch/arm/kernel/kgdb.c
+@@ -190,7 +190,7 @@ void kgdb_arch_exit(void)
+  * and we handle the normal undef case within the do_undefinstr
+  * handler.
+  */
+-struct kgdb_arch arch_kgdb_ops = {
++const struct kgdb_arch arch_kgdb_ops = {
+ #ifndef __ARMEB__
+       .gdb_bpt_instr          = {0xfe, 0xde, 0xff, 0xe7}
+ #else /* ! __ARMEB__ */
+diff --git a/arch/arm/kernel/traps.c b/arch/arm/kernel/traps.c
+index 3f361a7..6e806e1 100644
+--- a/arch/arm/kernel/traps.c
++++ b/arch/arm/kernel/traps.c
+@@ -247,6 +247,8 @@ static void __die(const char *str, int err, struct thread_info *thread, struct p
+ DEFINE_SPINLOCK(die_lock);
++extern void gr_handle_kernel_exploit(void);
++
+ /*
+  * This function is protected against re-entrancy.
+  */
+@@ -271,6 +273,8 @@ NORET_TYPE void die(const char *str, struct pt_regs *regs, int err)
+       if (panic_on_oops)
+               panic("Fatal exception");
++      gr_handle_kernel_exploit();
++
+       do_exit(SIGSEGV);
+ }
+diff --git a/arch/arm/lib/copy_from_user.S b/arch/arm/lib/copy_from_user.S
+index e4fe124..0fc246b 100644
+--- a/arch/arm/lib/copy_from_user.S
++++ b/arch/arm/lib/copy_from_user.S
+@@ -16,7 +16,7 @@
+ /*
+  * Prototype:
+  *
+- *    size_t __copy_from_user(void *to, const void *from, size_t n)
++ *    size_t ___copy_from_user(void *to, const void *from, size_t n)
+  *
+  * Purpose:
+  *
+@@ -84,11 +84,11 @@
+       .text
+-ENTRY(__copy_from_user)
++ENTRY(___copy_from_user)
+ #include "copy_template.S"
+-ENDPROC(__copy_from_user)
++ENDPROC(___copy_from_user)
+       .section .fixup,"ax"
+       .align 0
+diff --git a/arch/arm/lib/copy_to_user.S b/arch/arm/lib/copy_to_user.S
+index 1a71e15..ac7b258 100644
+--- a/arch/arm/lib/copy_to_user.S
++++ b/arch/arm/lib/copy_to_user.S
+@@ -16,7 +16,7 @@
+ /*
+  * Prototype:
+  *
+- *    size_t __copy_to_user(void *to, const void *from, size_t n)
++ *    size_t ___copy_to_user(void *to, const void *from, size_t n)
+  *
+  * Purpose:
+  *
+@@ -88,11 +88,11 @@
+       .text
+ ENTRY(__copy_to_user_std)
+-WEAK(__copy_to_user)
++WEAK(___copy_to_user)
+ #include "copy_template.S"
+-ENDPROC(__copy_to_user)
++ENDPROC(___copy_to_user)
+       .section .fixup,"ax"
+       .align 0
+diff --git a/arch/arm/lib/uaccess.S b/arch/arm/lib/uaccess.S
+index ffdd274..91017b6 100644
+--- a/arch/arm/lib/uaccess.S
++++ b/arch/arm/lib/uaccess.S
+@@ -19,7 +19,7 @@
+ #define PAGE_SHIFT 12
+-/* Prototype: int __copy_to_user(void *to, const char *from, size_t n)
++/* Prototype: int ___copy_to_user(void *to, const char *from, size_t n)
+  * Purpose  : copy a block to user memory from kernel memory
+  * Params   : to   - user memory
+  *          : from - kernel memory
+@@ -39,7 +39,7 @@ USER(                strgtbt r3, [r0], #1)                   @ May fault
+               sub     r2, r2, ip
+               b       .Lc2u_dest_aligned
+-ENTRY(__copy_to_user)
++ENTRY(___copy_to_user)
+               stmfd   sp!, {r2, r4 - r7, lr}
+               cmp     r2, #4
+               blt     .Lc2u_not_enough
+@@ -277,14 +277,14 @@ USER(            strgebt r3, [r0], #1)                   @ May fault
+               ldrgtb  r3, [r1], #0
+ USER(         strgtbt r3, [r0], #1)                   @ May fault
+               b       .Lc2u_finished
+-ENDPROC(__copy_to_user)
++ENDPROC(___copy_to_user)
+               .section .fixup,"ax"
+               .align  0
+ 9001:         ldmfd   sp!, {r0, r4 - r7, pc}
+               .previous
+-/* Prototype: unsigned long __copy_from_user(void *to,const void *from,unsigned long n);
++/* Prototype: unsigned long ___copy_from_user(void *to,const void *from,unsigned long n);
+  * Purpose  : copy a block from user memory to kernel memory
+  * Params   : to   - kernel memory
+  *          : from - user memory
+@@ -303,7 +303,7 @@ USER(              ldrgtbt r3, [r1], #1)                   @ May fault
+               sub     r2, r2, ip
+               b       .Lcfu_dest_aligned
+-ENTRY(__copy_from_user)
++ENTRY(___copy_from_user)
+               stmfd   sp!, {r0, r2, r4 - r7, lr}
+               cmp     r2, #4
+               blt     .Lcfu_not_enough
+@@ -543,7 +543,7 @@ USER(              ldrgebt r3, [r1], #1)                   @ May fault
+ USER(         ldrgtbt r3, [r1], #1)                   @ May fault
+               strgtb  r3, [r0], #1
+               b       .Lcfu_finished
+-ENDPROC(__copy_from_user)
++ENDPROC(___copy_from_user)
+               .section .fixup,"ax"
+               .align  0
+diff --git a/arch/arm/lib/uaccess_with_memcpy.c b/arch/arm/lib/uaccess_with_memcpy.c
+index 6b967ff..67d5b2b 100644
+--- a/arch/arm/lib/uaccess_with_memcpy.c
++++ b/arch/arm/lib/uaccess_with_memcpy.c
+@@ -97,7 +97,7 @@ out:
+ }
+ unsigned long
+-__copy_to_user(void __user *to, const void *from, unsigned long n)
++___copy_to_user(void __user *to, const void *from, unsigned long n)
+ {
+       /*
+        * This test is stubbed out of the main function above to keep
+diff --git a/arch/arm/mach-at91/pm.c b/arch/arm/mach-at91/pm.c
+index 4028724..beec230 100644
+--- a/arch/arm/mach-at91/pm.c
++++ b/arch/arm/mach-at91/pm.c
+@@ -348,7 +348,7 @@ static void at91_pm_end(void)
+ }
+-static struct platform_suspend_ops at91_pm_ops ={
++static const struct platform_suspend_ops at91_pm_ops ={
+       .valid  = at91_pm_valid_state,
+       .begin  = at91_pm_begin,
+       .enter  = at91_pm_enter,
+diff --git a/arch/arm/mach-omap1/pm.c b/arch/arm/mach-omap1/pm.c
+index 5218943..0a34552 100644
+--- a/arch/arm/mach-omap1/pm.c
++++ b/arch/arm/mach-omap1/pm.c
+@@ -647,7 +647,7 @@ static struct irqaction omap_wakeup_irq = {
+-static struct platform_suspend_ops omap_pm_ops ={
++static const struct platform_suspend_ops omap_pm_ops ={
+       .prepare        = omap_pm_prepare,
+       .enter          = omap_pm_enter,
+       .finish         = omap_pm_finish,
+diff --git a/arch/arm/mach-omap2/pm24xx.c b/arch/arm/mach-omap2/pm24xx.c
+index bff5c4e..d4c649b 100644
+--- a/arch/arm/mach-omap2/pm24xx.c
++++ b/arch/arm/mach-omap2/pm24xx.c
+@@ -326,7 +326,7 @@ static void omap2_pm_finish(void)
+       enable_hlt();
+ }
+-static struct platform_suspend_ops omap_pm_ops = {
++static const struct platform_suspend_ops omap_pm_ops = {
+       .prepare        = omap2_pm_prepare,
+       .enter          = omap2_pm_enter,
+       .finish         = omap2_pm_finish,
+diff --git a/arch/arm/mach-omap2/pm34xx.c b/arch/arm/mach-omap2/pm34xx.c
+index 8946319..7d3e661 100644
+--- a/arch/arm/mach-omap2/pm34xx.c
++++ b/arch/arm/mach-omap2/pm34xx.c
+@@ -401,7 +401,7 @@ static void omap3_pm_end(void)
+       return;
+ }
+-static struct platform_suspend_ops omap_pm_ops = {
++static const struct platform_suspend_ops omap_pm_ops = {
+       .begin          = omap3_pm_begin,
+       .end            = omap3_pm_end,
+       .prepare        = omap3_pm_prepare,
+diff --git a/arch/arm/mach-pnx4008/pm.c b/arch/arm/mach-pnx4008/pm.c
+index b3d8d53..6e68ebc 100644
+--- a/arch/arm/mach-pnx4008/pm.c
++++ b/arch/arm/mach-pnx4008/pm.c
+@@ -116,7 +116,7 @@ static int pnx4008_pm_valid(suspend_state_t state)
+              (state == PM_SUSPEND_MEM);
+ }
+-static struct platform_suspend_ops pnx4008_pm_ops = {
++static const struct platform_suspend_ops pnx4008_pm_ops = {
+       .enter = pnx4008_pm_enter,
+       .valid = pnx4008_pm_valid,
+ };
+diff --git a/arch/arm/mach-pxa/pm.c b/arch/arm/mach-pxa/pm.c
+index 7693355..9beb00a 100644
+--- a/arch/arm/mach-pxa/pm.c
++++ b/arch/arm/mach-pxa/pm.c
+@@ -95,7 +95,7 @@ void pxa_pm_finish(void)
+               pxa_cpu_pm_fns->finish();
+ }
+-static struct platform_suspend_ops pxa_pm_ops = {
++static const struct platform_suspend_ops pxa_pm_ops = {
+       .valid          = pxa_pm_valid,
+       .enter          = pxa_pm_enter,
+       .prepare        = pxa_pm_prepare,
+diff --git a/arch/arm/mach-pxa/sharpsl_pm.c b/arch/arm/mach-pxa/sharpsl_pm.c
+index 629e05d..06be589 100644
+--- a/arch/arm/mach-pxa/sharpsl_pm.c
++++ b/arch/arm/mach-pxa/sharpsl_pm.c
+@@ -891,7 +891,7 @@ static void sharpsl_apm_get_power_status(struct apm_power_info *info)
+ }
+ #ifdef CONFIG_PM
+-static struct platform_suspend_ops sharpsl_pm_ops = {
++static const struct platform_suspend_ops sharpsl_pm_ops = {
+       .prepare        = pxa_pm_prepare,
+       .finish         = pxa_pm_finish,
+       .enter          = corgi_pxa_pm_enter,
+diff --git a/arch/arm/mach-sa1100/pm.c b/arch/arm/mach-sa1100/pm.c
+index c83fdc8..ab9fc44 100644
+--- a/arch/arm/mach-sa1100/pm.c
++++ b/arch/arm/mach-sa1100/pm.c
+@@ -120,7 +120,7 @@ unsigned long sleep_phys_sp(void *sp)
+       return virt_to_phys(sp);
+ }
+-static struct platform_suspend_ops sa11x0_pm_ops = {
++static const struct platform_suspend_ops sa11x0_pm_ops = {
+       .enter          = sa11x0_pm_enter,
+       .valid          = suspend_valid_only_mem,
+ };
+diff --git a/arch/arm/mm/fault.c b/arch/arm/mm/fault.c
+index 3191cd6..c0739db 100644
+--- a/arch/arm/mm/fault.c
++++ b/arch/arm/mm/fault.c
+@@ -166,6 +166,13 @@ __do_user_fault(struct task_struct *tsk, unsigned long addr,
+       }
+ #endif
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (fsr & FSR_LNX_PF) {
++              pax_report_fault(regs, (void *)regs->ARM_pc, (void *)regs->ARM_sp);
++              do_group_exit(SIGKILL);
++      }
++#endif
++
+       tsk->thread.address = addr;
+       tsk->thread.error_code = fsr;
+       tsk->thread.trap_no = 14;
+@@ -357,6 +364,33 @@ do_page_fault(unsigned long addr, unsigned int fsr, struct pt_regs *regs)
+ }
+ #endif                                        /* CONFIG_MMU */
++#ifdef CONFIG_PAX_PAGEEXEC
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 20; i++) {
++              unsigned char c;
++              if (get_user(c, (__force unsigned char __user *)pc+i))
++                      printk(KERN_CONT "?? ");
++              else
++                      printk(KERN_CONT "%02x ", c);
++      }
++      printk("\n");
++
++      printk(KERN_ERR "PAX: bytes at SP-4: ");
++      for (i = -1; i < 20; i++) {
++              unsigned long c;
++              if (get_user(c, (__force unsigned long __user *)sp+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08lx ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ /*
+  * First Level Translation Fault Handler
+  *
+diff --git a/arch/arm/mm/mmap.c b/arch/arm/mm/mmap.c
+index f5abc51..7ec524c 100644
+--- a/arch/arm/mm/mmap.c
++++ b/arch/arm/mm/mmap.c
+@@ -63,6 +63,10 @@ arch_get_unmapped_area(struct file *filp, unsigned long addr,
+       if (len > TASK_SIZE)
+               return -ENOMEM;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       if (addr) {
+               if (do_align)
+                       addr = COLOUR_ALIGN(addr, pgoff);
+@@ -70,15 +74,14 @@ arch_get_unmapped_area(struct file *filp, unsigned long addr,
+                       addr = PAGE_ALIGN(addr);
+               vma = find_vma(mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (TASK_SIZE - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+       if (len > mm->cached_hole_size) {
+-              start_addr = addr = mm->free_area_cache;
++              start_addr = addr = mm->free_area_cache;
+       } else {
+-              start_addr = addr = TASK_UNMAPPED_BASE;
+-              mm->cached_hole_size = 0;
++              start_addr = addr = mm->mmap_base;
++              mm->cached_hole_size = 0;
+       }
+ full_search:
+@@ -94,14 +97,14 @@ full_search:
+                        * Start a new search - just in case we missed
+                        * some holes.
+                        */
+-                      if (start_addr != TASK_UNMAPPED_BASE) {
+-                              start_addr = addr = TASK_UNMAPPED_BASE;
++                      if (start_addr != mm->mmap_base) {
++                              start_addr = addr = mm->mmap_base;
+                               mm->cached_hole_size = 0;
+                               goto full_search;
+                       }
+                       return -ENOMEM;
+               }
+-              if (!vma || addr + len <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr, len)) {
+                       /*
+                        * Remember the place where we stopped the search:
+                        */
+diff --git a/arch/arm/plat-s3c/pm.c b/arch/arm/plat-s3c/pm.c
+index 8d97db2..b66cfa5 100644
+--- a/arch/arm/plat-s3c/pm.c
++++ b/arch/arm/plat-s3c/pm.c
+@@ -355,7 +355,7 @@ static void s3c_pm_finish(void)
+       s3c_pm_check_cleanup();
+ }
+-static struct platform_suspend_ops s3c_pm_ops = {
++static const struct platform_suspend_ops s3c_pm_ops = {
+       .enter          = s3c_pm_enter,
+       .prepare        = s3c_pm_prepare,
+       .finish         = s3c_pm_finish,
+diff --git a/arch/avr32/include/asm/elf.h b/arch/avr32/include/asm/elf.h
+index d5d1d41..856e2ed 100644
+--- a/arch/avr32/include/asm/elf.h
++++ b/arch/avr32/include/asm/elf.h
+@@ -85,8 +85,14 @@ typedef struct user_fpu_struct elf_fpregset_t;
+    the loader.  We need to make sure that it is out of the way of the program
+    that it will "exec", and that there is sufficient room for the brk.  */
+-#define ELF_ET_DYN_BASE         (2 * TASK_SIZE / 3)
++#define ELF_ET_DYN_BASE               (TASK_SIZE / 3 * 2)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   0x00001000UL
++
++#define PAX_DELTA_MMAP_LEN    15
++#define PAX_DELTA_STACK_LEN   15
++#endif
+ /* This yields a mask that user programs can use to figure out what
+    instruction set this CPU supports.  This could be done in user space,
+diff --git a/arch/avr32/include/asm/kmap_types.h b/arch/avr32/include/asm/kmap_types.h
+index b7f5c68..556135c 100644
+--- a/arch/avr32/include/asm/kmap_types.h
++++ b/arch/avr32/include/asm/kmap_types.h
+@@ -22,7 +22,8 @@ D(10)        KM_IRQ0,
+ D(11) KM_IRQ1,
+ D(12) KM_SOFTIRQ0,
+ D(13) KM_SOFTIRQ1,
+-D(14) KM_TYPE_NR
++D(14) KM_CLEARPAGE,
++D(15) KM_TYPE_NR
+ };
+ #undef D
+diff --git a/arch/avr32/mach-at32ap/pm.c b/arch/avr32/mach-at32ap/pm.c
+index f021edf..32d680e 100644
+--- a/arch/avr32/mach-at32ap/pm.c
++++ b/arch/avr32/mach-at32ap/pm.c
+@@ -176,7 +176,7 @@ out:
+       return 0;
+ }
+-static struct platform_suspend_ops avr32_pm_ops = {
++static const struct platform_suspend_ops avr32_pm_ops = {
+       .valid  = avr32_pm_valid_state,
+       .enter  = avr32_pm_enter,
+ };
+diff --git a/arch/avr32/mm/fault.c b/arch/avr32/mm/fault.c
+index b61d86d..e292c7f 100644
+--- a/arch/avr32/mm/fault.c
++++ b/arch/avr32/mm/fault.c
+@@ -41,6 +41,23 @@ static inline int notify_page_fault(struct pt_regs *regs, int trap)
+ int exception_trace = 1;
++#ifdef CONFIG_PAX_PAGEEXEC
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 20; i++) {
++              unsigned char c;
++              if (get_user(c, (unsigned char *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%02x ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ /*
+  * This routine handles page faults. It determines the address and the
+  * problem, and then passes it off to one of the appropriate routines.
+@@ -157,6 +174,16 @@ bad_area:
+       up_read(&mm->mmap_sem);
+       if (user_mode(regs)) {
++
++#ifdef CONFIG_PAX_PAGEEXEC
++              if (mm->pax_flags & MF_PAX_PAGEEXEC) {
++                      if (ecr == ECR_PROTECTION_X || ecr == ECR_TLB_MISS_X) {
++                              pax_report_fault(regs, (void *)regs->pc, (void *)regs->sp);
++                              do_group_exit(SIGKILL);
++                      }
++              }
++#endif
++
+               if (exception_trace && printk_ratelimit())
+                       printk("%s%s[%d]: segfault at %08lx pc %08lx "
+                              "sp %08lx ecr %lu\n",
+diff --git a/arch/blackfin/kernel/kgdb.c b/arch/blackfin/kernel/kgdb.c
+index cce79d0..c406c85 100644
+--- a/arch/blackfin/kernel/kgdb.c
++++ b/arch/blackfin/kernel/kgdb.c
+@@ -428,7 +428,7 @@ int kgdb_arch_handle_exception(int vector, int signo,
+       return -1;              /* this means that we do not want to exit from the handler */
+ }
+-struct kgdb_arch arch_kgdb_ops = {
++const struct kgdb_arch arch_kgdb_ops = {
+       .gdb_bpt_instr = {0xa1},
+ #ifdef CONFIG_SMP
+       .flags = KGDB_HW_BREAKPOINT|KGDB_THR_PROC_SWAP,
+diff --git a/arch/blackfin/mach-common/pm.c b/arch/blackfin/mach-common/pm.c
+index 8837be4..b2fb413 100644
+--- a/arch/blackfin/mach-common/pm.c
++++ b/arch/blackfin/mach-common/pm.c
+@@ -255,7 +255,7 @@ static int bfin_pm_enter(suspend_state_t state)
+       return 0;
+ }
+-struct platform_suspend_ops bfin_pm_ops = {
++const struct platform_suspend_ops bfin_pm_ops = {
+       .enter = bfin_pm_enter,
+       .valid  = bfin_pm_valid,
+ };
+diff --git a/arch/frv/include/asm/kmap_types.h b/arch/frv/include/asm/kmap_types.h
+index f8e16b2..c73ff79 100644
+--- a/arch/frv/include/asm/kmap_types.h
++++ b/arch/frv/include/asm/kmap_types.h
+@@ -23,6 +23,7 @@ enum km_type {
+       KM_IRQ1,
+       KM_SOFTIRQ0,
+       KM_SOFTIRQ1,
++      KM_CLEARPAGE,
+       KM_TYPE_NR
+ };
+diff --git a/arch/frv/mm/elf-fdpic.c b/arch/frv/mm/elf-fdpic.c
+index 385fd30..6c3d97e 100644
+--- a/arch/frv/mm/elf-fdpic.c
++++ b/arch/frv/mm/elf-fdpic.c
+@@ -73,8 +73,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+       if (addr) {
+               addr = PAGE_ALIGN(addr);
+               vma = find_vma(current->mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (TASK_SIZE - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       goto success;
+       }
+@@ -89,7 +88,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+                       for (; vma; vma = vma->vm_next) {
+                               if (addr > limit)
+                                       break;
+-                              if (addr + len <= vma->vm_start)
++                              if (check_heap_stack_gap(vma, addr, len))
+                                       goto success;
+                               addr = vma->vm_end;
+                       }
+@@ -104,7 +103,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+               for (; vma; vma = vma->vm_next) {
+                       if (addr > limit)
+                               break;
+-                      if (addr + len <= vma->vm_start)
++                      if (check_heap_stack_gap(vma, addr, len))
+                               goto success;
+                       addr = vma->vm_end;
+               }
+diff --git a/arch/ia64/hp/common/hwsw_iommu.c b/arch/ia64/hp/common/hwsw_iommu.c
+index e4a80d8..11a7ea1 100644
+--- a/arch/ia64/hp/common/hwsw_iommu.c
++++ b/arch/ia64/hp/common/hwsw_iommu.c
+@@ -17,7 +17,7 @@
+ #include <linux/swiotlb.h>
+ #include <asm/machvec.h>
+-extern struct dma_map_ops sba_dma_ops, swiotlb_dma_ops;
++extern const struct dma_map_ops sba_dma_ops, swiotlb_dma_ops;
+ /* swiotlb declarations & definitions: */
+ extern int swiotlb_late_init_with_default_size (size_t size);
+@@ -33,7 +33,7 @@ static inline int use_swiotlb(struct device *dev)
+               !sba_dma_ops.dma_supported(dev, *dev->dma_mask);
+ }
+-struct dma_map_ops *hwsw_dma_get_ops(struct device *dev)
++const struct dma_map_ops *hwsw_dma_get_ops(struct device *dev)
+ {
+       if (use_swiotlb(dev))
+               return &swiotlb_dma_ops;
+diff --git a/arch/ia64/hp/common/sba_iommu.c b/arch/ia64/hp/common/sba_iommu.c
+index 01ae69b..35752fd 100644
+--- a/arch/ia64/hp/common/sba_iommu.c
++++ b/arch/ia64/hp/common/sba_iommu.c
+@@ -2097,7 +2097,7 @@ static struct acpi_driver acpi_sba_ioc_driver = {
+       },
+ };
+-extern struct dma_map_ops swiotlb_dma_ops;
++extern const struct dma_map_ops swiotlb_dma_ops;
+ static int __init
+ sba_init(void)
+@@ -2211,7 +2211,7 @@ sba_page_override(char *str)
+ __setup("sbapagesize=",sba_page_override);
+-struct dma_map_ops sba_dma_ops = {
++const struct dma_map_ops sba_dma_ops = {
+       .alloc_coherent         = sba_alloc_coherent,
+       .free_coherent          = sba_free_coherent,
+       .map_page               = sba_map_page,
+diff --git a/arch/ia64/ia32/binfmt_elf32.c b/arch/ia64/ia32/binfmt_elf32.c
+index c69552b..c7122f4 100644
+--- a/arch/ia64/ia32/binfmt_elf32.c
++++ b/arch/ia64/ia32/binfmt_elf32.c
+@@ -45,6 +45,13 @@ randomize_stack_top(unsigned long stack_top);
+ #define elf_read_implies_exec(ex, have_pt_gnu_stack)  (!(have_pt_gnu_stack))
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (current->personality == PER_LINUX32 ? 0x08048000UL : 0x4000000000000000UL)
++
++#define PAX_DELTA_MMAP_LEN    (current->personality == PER_LINUX32 ? 16 : 3*PAGE_SHIFT - 13)
++#define PAX_DELTA_STACK_LEN   (current->personality == PER_LINUX32 ? 16 : 3*PAGE_SHIFT - 13)
++#endif
++
+ /* Ugly but avoids duplication */
+ #include "../../../fs/binfmt_elf.c"
+diff --git a/arch/ia64/ia32/ia32priv.h b/arch/ia64/ia32/ia32priv.h
+index 0f15349..26b3429 100644
+--- a/arch/ia64/ia32/ia32priv.h
++++ b/arch/ia64/ia32/ia32priv.h
+@@ -296,7 +296,14 @@ typedef struct compat_siginfo {
+ #define ELF_DATA      ELFDATA2LSB
+ #define ELF_ARCH      EM_386
+-#define IA32_STACK_TOP                IA32_PAGE_OFFSET
++#ifdef CONFIG_PAX_RANDUSTACK
++#define __IA32_DELTA_STACK    (current->mm->delta_stack)
++#else
++#define __IA32_DELTA_STACK    0UL
++#endif
++
++#define IA32_STACK_TOP                (IA32_PAGE_OFFSET - __IA32_DELTA_STACK)
++
+ #define IA32_GATE_OFFSET      IA32_PAGE_OFFSET
+ #define IA32_GATE_END         IA32_PAGE_OFFSET + PAGE_SIZE
+diff --git a/arch/ia64/include/asm/dma-mapping.h b/arch/ia64/include/asm/dma-mapping.h
+index 8d3c79c..71b3af6 100644
+--- a/arch/ia64/include/asm/dma-mapping.h
++++ b/arch/ia64/include/asm/dma-mapping.h
+@@ -12,7 +12,7 @@
+ #define ARCH_HAS_DMA_GET_REQUIRED_MASK
+-extern struct dma_map_ops *dma_ops;
++extern const struct dma_map_ops *dma_ops;
+ extern struct ia64_machine_vector ia64_mv;
+ extern void set_iommu_machvec(void);
+@@ -24,7 +24,7 @@ extern void machvec_dma_sync_sg(struct device *, struct scatterlist *, int,
+ static inline void *dma_alloc_coherent(struct device *dev, size_t size,
+                                      dma_addr_t *daddr, gfp_t gfp)
+ {
+-      struct dma_map_ops *ops = platform_dma_get_ops(dev);
++      const struct dma_map_ops *ops = platform_dma_get_ops(dev);
+       void *caddr;
+       caddr = ops->alloc_coherent(dev, size, daddr, gfp);
+@@ -35,7 +35,7 @@ static inline void *dma_alloc_coherent(struct device *dev, size_t size,
+ static inline void dma_free_coherent(struct device *dev, size_t size,
+                                    void *caddr, dma_addr_t daddr)
+ {
+-      struct dma_map_ops *ops = platform_dma_get_ops(dev);
++      const struct dma_map_ops *ops = platform_dma_get_ops(dev);
+       debug_dma_free_coherent(dev, size, caddr, daddr);
+       ops->free_coherent(dev, size, caddr, daddr);
+ }
+@@ -49,13 +49,13 @@ static inline void dma_free_coherent(struct device *dev, size_t size,
+ static inline int dma_mapping_error(struct device *dev, dma_addr_t daddr)
+ {
+-      struct dma_map_ops *ops = platform_dma_get_ops(dev);
++      const struct dma_map_ops *ops = platform_dma_get_ops(dev);
+       return ops->mapping_error(dev, daddr);
+ }
+ static inline int dma_supported(struct device *dev, u64 mask)
+ {
+-      struct dma_map_ops *ops = platform_dma_get_ops(dev);
++      const struct dma_map_ops *ops = platform_dma_get_ops(dev);
+       return ops->dma_supported(dev, mask);
+ }
+diff --git a/arch/ia64/include/asm/elf.h b/arch/ia64/include/asm/elf.h
+index 86eddee..b116bb4 100644
+--- a/arch/ia64/include/asm/elf.h
++++ b/arch/ia64/include/asm/elf.h
+@@ -43,6 +43,13 @@
+  */
+ #define ELF_ET_DYN_BASE               (TASK_UNMAPPED_BASE + 0x800000000UL)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (current->personality == PER_LINUX32 ? 0x08048000UL : 0x4000000000000000UL)
++
++#define PAX_DELTA_MMAP_LEN    (current->personality == PER_LINUX32 ? 16 : 3*PAGE_SHIFT - 13)
++#define PAX_DELTA_STACK_LEN   (current->personality == PER_LINUX32 ? 16 : 3*PAGE_SHIFT - 13)
++#endif
++
+ #define PT_IA_64_UNWIND               0x70000001
+ /* IA-64 relocations: */
+diff --git a/arch/ia64/include/asm/machvec.h b/arch/ia64/include/asm/machvec.h
+index 367d299..9ad4279 100644
+--- a/arch/ia64/include/asm/machvec.h
++++ b/arch/ia64/include/asm/machvec.h
+@@ -45,7 +45,7 @@ typedef void ia64_mv_kernel_launch_event_t(void);
+ /* DMA-mapping interface: */
+ typedef void ia64_mv_dma_init (void);
+ typedef u64 ia64_mv_dma_get_required_mask (struct device *);
+-typedef struct dma_map_ops *ia64_mv_dma_get_ops(struct device *);
++typedef const struct dma_map_ops *ia64_mv_dma_get_ops(struct device *);
+ /*
+  * WARNING: The legacy I/O space is _architected_.  Platforms are
+@@ -251,7 +251,7 @@ extern void machvec_init_from_cmdline(const char *cmdline);
+ # endif /* CONFIG_IA64_GENERIC */
+ extern void swiotlb_dma_init(void);
+-extern struct dma_map_ops *dma_get_ops(struct device *);
++extern const struct dma_map_ops *dma_get_ops(struct device *);
+ /*
+  * Define default versions so we can extend machvec for new platforms without having
+diff --git a/arch/ia64/include/asm/pgtable.h b/arch/ia64/include/asm/pgtable.h
+index 8840a69..cdb63d9 100644
+--- a/arch/ia64/include/asm/pgtable.h
++++ b/arch/ia64/include/asm/pgtable.h
+@@ -12,7 +12,7 @@
+  *    David Mosberger-Tang <davidm@hpl.hp.com>
+  */
+-
++#include <linux/const.h>
+ #include <asm/mman.h>
+ #include <asm/page.h>
+ #include <asm/processor.h>
+@@ -143,6 +143,17 @@
+ #define PAGE_READONLY __pgprot(__ACCESS_BITS | _PAGE_PL_3 | _PAGE_AR_R)
+ #define PAGE_COPY     __pgprot(__ACCESS_BITS | _PAGE_PL_3 | _PAGE_AR_R)
+ #define PAGE_COPY_EXEC        __pgprot(__ACCESS_BITS | _PAGE_PL_3 | _PAGE_AR_RX)
++
++#ifdef CONFIG_PAX_PAGEEXEC
++# define PAGE_SHARED_NOEXEC   __pgprot(__ACCESS_BITS | _PAGE_PL_3 | _PAGE_AR_RW)
++# define PAGE_READONLY_NOEXEC __pgprot(__ACCESS_BITS | _PAGE_PL_3 | _PAGE_AR_R)
++# define PAGE_COPY_NOEXEC     __pgprot(__ACCESS_BITS | _PAGE_PL_3 | _PAGE_AR_R)
++#else
++# define PAGE_SHARED_NOEXEC   PAGE_SHARED
++# define PAGE_READONLY_NOEXEC PAGE_READONLY
++# define PAGE_COPY_NOEXEC     PAGE_COPY
++#endif
++
+ #define PAGE_GATE     __pgprot(__ACCESS_BITS | _PAGE_PL_0 | _PAGE_AR_X_RX)
+ #define PAGE_KERNEL   __pgprot(__DIRTY_BITS  | _PAGE_PL_0 | _PAGE_AR_RWX)
+ #define PAGE_KERNELRX __pgprot(__ACCESS_BITS | _PAGE_PL_0 | _PAGE_AR_RX)
+diff --git a/arch/ia64/include/asm/spinlock.h b/arch/ia64/include/asm/spinlock.h
+index 239ecdc..f94170e 100644
+--- a/arch/ia64/include/asm/spinlock.h
++++ b/arch/ia64/include/asm/spinlock.h
+@@ -72,7 +72,7 @@ static __always_inline void __ticket_spin_unlock(raw_spinlock_t *lock)
+       unsigned short  *p = (unsigned short *)&lock->lock + 1, tmp;
+       asm volatile ("ld2.bias %0=[%1]" : "=r"(tmp) : "r"(p));
+-      ACCESS_ONCE(*p) = (tmp + 2) & ~1;
++      ACCESS_ONCE_RW(*p) = (tmp + 2) & ~1;
+ }
+ static __always_inline void __ticket_spin_unlock_wait(raw_spinlock_t *lock)
+diff --git a/arch/ia64/include/asm/uaccess.h b/arch/ia64/include/asm/uaccess.h
+index 449c8c0..432a3d2 100644
+--- a/arch/ia64/include/asm/uaccess.h
++++ b/arch/ia64/include/asm/uaccess.h
+@@ -257,7 +257,7 @@ __copy_from_user (void *to, const void __user *from, unsigned long count)
+       const void *__cu_from = (from);                                                 \
+       long __cu_len = (n);                                                            \
+                                                                                       \
+-      if (__access_ok(__cu_to, __cu_len, get_fs()))                                   \
++      if (__cu_len > 0  && __cu_len <= INT_MAX && __access_ok(__cu_to, __cu_len, get_fs()))                   \
+               __cu_len = __copy_user(__cu_to, (__force void __user *) __cu_from, __cu_len);   \
+       __cu_len;                                                                       \
+ })
+@@ -269,7 +269,7 @@ __copy_from_user (void *to, const void __user *from, unsigned long count)
+       long __cu_len = (n);                                                            \
+                                                                                       \
+       __chk_user_ptr(__cu_from);                                                      \
+-      if (__access_ok(__cu_from, __cu_len, get_fs()))                                 \
++      if (__cu_len > 0 && __cu_len <= INT_MAX  && __access_ok(__cu_from, __cu_len, get_fs()))                 \
+               __cu_len = __copy_user((__force void __user *) __cu_to, __cu_from, __cu_len);   \
+       __cu_len;                                                                       \
+ })
+diff --git a/arch/ia64/kernel/dma-mapping.c b/arch/ia64/kernel/dma-mapping.c
+index f2c1600..969398a 100644
+--- a/arch/ia64/kernel/dma-mapping.c
++++ b/arch/ia64/kernel/dma-mapping.c
+@@ -3,7 +3,7 @@
+ /* Set this to 1 if there is a HW IOMMU in the system */
+ int iommu_detected __read_mostly;
+-struct dma_map_ops *dma_ops;
++const struct dma_map_ops *dma_ops;
+ EXPORT_SYMBOL(dma_ops);
+ #define PREALLOC_DMA_DEBUG_ENTRIES (1 << 16)
+@@ -16,7 +16,7 @@ static int __init dma_init(void)
+ }
+ fs_initcall(dma_init);
+-struct dma_map_ops *dma_get_ops(struct device *dev)
++const struct dma_map_ops *dma_get_ops(struct device *dev)
+ {
+       return dma_ops;
+ }
+diff --git a/arch/ia64/kernel/module.c b/arch/ia64/kernel/module.c
+index 1481b0a..e7d38ff 100644
+--- a/arch/ia64/kernel/module.c
++++ b/arch/ia64/kernel/module.c
+@@ -315,8 +315,7 @@ module_alloc (unsigned long size)
+ void
+ module_free (struct module *mod, void *module_region)
+ {
+-      if (mod && mod->arch.init_unw_table &&
+-          module_region == mod->module_init) {
++      if (mod && mod->arch.init_unw_table && module_region == mod->module_init_rx) {
+               unw_remove_unwind_table(mod->arch.init_unw_table);
+               mod->arch.init_unw_table = NULL;
+       }
+@@ -502,15 +501,39 @@ module_frob_arch_sections (Elf_Ehdr *ehdr, Elf_Shdr *sechdrs, char *secstrings,
+ }
+ static inline int
++in_init_rx (const struct module *mod, uint64_t addr)
++{
++      return addr - (uint64_t) mod->module_init_rx < mod->init_size_rx;
++}
++
++static inline int
++in_init_rw (const struct module *mod, uint64_t addr)
++{
++      return addr - (uint64_t) mod->module_init_rw < mod->init_size_rw;
++}
++
++static inline int
+ in_init (const struct module *mod, uint64_t addr)
+ {
+-      return addr - (uint64_t) mod->module_init < mod->init_size;
++      return in_init_rx(mod, addr) || in_init_rw(mod, addr);
++}
++
++static inline int
++in_core_rx (const struct module *mod, uint64_t addr)
++{
++      return addr - (uint64_t) mod->module_core_rx < mod->core_size_rx;
++}
++
++static inline int
++in_core_rw (const struct module *mod, uint64_t addr)
++{
++      return addr - (uint64_t) mod->module_core_rw < mod->core_size_rw;
+ }
+ static inline int
+ in_core (const struct module *mod, uint64_t addr)
+ {
+-      return addr - (uint64_t) mod->module_core < mod->core_size;
++      return in_core_rx(mod, addr) || in_core_rw(mod, addr);
+ }
+ static inline int
+@@ -693,7 +716,14 @@ do_reloc (struct module *mod, uint8_t r_type, Elf64_Sym *sym, uint64_t addend,
+               break;
+             case RV_BDREL:
+-              val -= (uint64_t) (in_init(mod, val) ? mod->module_init : mod->module_core);
++              if (in_init_rx(mod, val))
++                      val -= (uint64_t) mod->module_init_rx;
++              else if (in_init_rw(mod, val))
++                      val -= (uint64_t) mod->module_init_rw;
++              else if (in_core_rx(mod, val))
++                      val -= (uint64_t) mod->module_core_rx;
++              else if (in_core_rw(mod, val))
++                      val -= (uint64_t) mod->module_core_rw;
+               break;
+             case RV_LTV:
+@@ -828,15 +858,15 @@ apply_relocate_add (Elf64_Shdr *sechdrs, const char *strtab, unsigned int symind
+                *     addresses have been selected...
+                */
+               uint64_t gp;
+-              if (mod->core_size > MAX_LTOFF)
++              if (mod->core_size_rx + mod->core_size_rw > MAX_LTOFF)
+                       /*
+                        * This takes advantage of fact that SHF_ARCH_SMALL gets allocated
+                        * at the end of the module.
+                        */
+-                      gp = mod->core_size - MAX_LTOFF / 2;
++                      gp = mod->core_size_rx + mod->core_size_rw - MAX_LTOFF / 2;
+               else
+-                      gp = mod->core_size / 2;
+-              gp = (uint64_t) mod->module_core + ((gp + 7) & -8);
++                      gp = (mod->core_size_rx + mod->core_size_rw) / 2;
++              gp = (uint64_t) mod->module_core_rx + ((gp + 7) & -8);
+               mod->arch.gp = gp;
+               DEBUGP("%s: placing gp at 0x%lx\n", __func__, gp);
+       }
+diff --git a/arch/ia64/kernel/pci-dma.c b/arch/ia64/kernel/pci-dma.c
+index f6b1ff0..de773fb 100644
+--- a/arch/ia64/kernel/pci-dma.c
++++ b/arch/ia64/kernel/pci-dma.c
+@@ -43,7 +43,7 @@ struct device fallback_dev = {
+       .dma_mask = &fallback_dev.coherent_dma_mask,
+ };
+-extern struct dma_map_ops intel_dma_ops;
++extern const struct dma_map_ops intel_dma_ops;
+ static int __init pci_iommu_init(void)
+ {
+@@ -96,15 +96,34 @@ int iommu_dma_supported(struct device *dev, u64 mask)
+ }
+ EXPORT_SYMBOL(iommu_dma_supported);
++extern void *intel_alloc_coherent(struct device *hwdev, size_t size, dma_addr_t *dma_handle, gfp_t flags);
++extern void intel_free_coherent(struct device *hwdev, size_t size, void *vaddr, dma_addr_t dma_handle);
++extern int intel_map_sg(struct device *hwdev, struct scatterlist *sglist, int nelems, enum dma_data_direction dir, struct dma_attrs *attrs);
++extern void intel_unmap_sg(struct device *hwdev, struct scatterlist *sglist, int nelems, enum dma_data_direction dir, struct dma_attrs *attrs);
++extern dma_addr_t intel_map_page(struct device *dev, struct page *page, unsigned long offset, size_t size, enum dma_data_direction dir, struct dma_attrs *attrs);
++extern void intel_unmap_page(struct device *dev, dma_addr_t dev_addr, size_t size, enum dma_data_direction dir, struct dma_attrs *attrs);
++extern int intel_mapping_error(struct device *dev, dma_addr_t dma_addr);
++
++static const struct dma_map_ops intel_iommu_dma_ops = {
++      /* from drivers/pci/intel-iommu.c:intel_dma_ops */
++      .alloc_coherent = intel_alloc_coherent,
++      .free_coherent = intel_free_coherent,
++      .map_sg = intel_map_sg,
++      .unmap_sg = intel_unmap_sg,
++      .map_page = intel_map_page,
++      .unmap_page = intel_unmap_page,
++      .mapping_error = intel_mapping_error,
++
++      .sync_single_for_cpu = machvec_dma_sync_single,
++      .sync_sg_for_cpu = machvec_dma_sync_sg,
++      .sync_single_for_device = machvec_dma_sync_single,
++      .sync_sg_for_device = machvec_dma_sync_sg,
++      .dma_supported = iommu_dma_supported,
++};
++
+ void __init pci_iommu_alloc(void)
+ {
+-      dma_ops = &intel_dma_ops;
+-
+-      dma_ops->sync_single_for_cpu = machvec_dma_sync_single;
+-      dma_ops->sync_sg_for_cpu = machvec_dma_sync_sg;
+-      dma_ops->sync_single_for_device = machvec_dma_sync_single;
+-      dma_ops->sync_sg_for_device = machvec_dma_sync_sg;
+-      dma_ops->dma_supported = iommu_dma_supported;
++      dma_ops = &intel_iommu_dma_ops;
+       /*
+        * The order of these functions is important for
+diff --git a/arch/ia64/kernel/pci-swiotlb.c b/arch/ia64/kernel/pci-swiotlb.c
+index 285aae8..61dbab6 100644
+--- a/arch/ia64/kernel/pci-swiotlb.c
++++ b/arch/ia64/kernel/pci-swiotlb.c
+@@ -21,7 +21,7 @@ static void *ia64_swiotlb_alloc_coherent(struct device *dev, size_t size,
+       return swiotlb_alloc_coherent(dev, size, dma_handle, gfp);
+ }
+-struct dma_map_ops swiotlb_dma_ops = {
++const struct dma_map_ops swiotlb_dma_ops = {
+       .alloc_coherent = ia64_swiotlb_alloc_coherent,
+       .free_coherent = swiotlb_free_coherent,
+       .map_page = swiotlb_map_page,
+diff --git a/arch/ia64/kernel/sys_ia64.c b/arch/ia64/kernel/sys_ia64.c
+index 609d500..7dde2a8 100644
+--- a/arch/ia64/kernel/sys_ia64.c
++++ b/arch/ia64/kernel/sys_ia64.c
+@@ -43,6 +43,13 @@ arch_get_unmapped_area (struct file *filp, unsigned long addr, unsigned long len
+       if (REGION_NUMBER(addr) == RGN_HPAGE)
+               addr = 0;
+ #endif
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (mm->pax_flags & MF_PAX_RANDMMAP)
++              addr = mm->free_area_cache;
++      else
++#endif
++
+       if (!addr)
+               addr = mm->free_area_cache;
+@@ -61,14 +68,14 @@ arch_get_unmapped_area (struct file *filp, unsigned long addr, unsigned long len
+       for (vma = find_vma(mm, addr); ; vma = vma->vm_next) {
+               /* At this point:  (!vma || addr < vma->vm_end). */
+               if (TASK_SIZE - len < addr || RGN_MAP_LIMIT - len < REGION_OFFSET(addr)) {
+-                      if (start_addr != TASK_UNMAPPED_BASE) {
++                      if (start_addr != mm->mmap_base) {
+                               /* Start a new search --- just in case we missed some holes.  */
+-                              addr = TASK_UNMAPPED_BASE;
++                              addr = mm->mmap_base;
+                               goto full_search;
+                       }
+                       return -ENOMEM;
+               }
+-              if (!vma || addr + len <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr, len)) {
+                       /* Remember the address where we stopped this search:  */
+                       mm->free_area_cache = addr + len;
+                       return addr;
+diff --git a/arch/ia64/kernel/topology.c b/arch/ia64/kernel/topology.c
+index 8f06035..b3a5818 100644
+--- a/arch/ia64/kernel/topology.c
++++ b/arch/ia64/kernel/topology.c
+@@ -282,7 +282,7 @@ static ssize_t cache_show(struct kobject * kobj, struct attribute * attr, char *
+       return ret;
+ }
+-static struct sysfs_ops cache_sysfs_ops = {
++static const struct sysfs_ops cache_sysfs_ops = {
+       .show   = cache_show
+ };
+diff --git a/arch/ia64/kernel/vmlinux.lds.S b/arch/ia64/kernel/vmlinux.lds.S
+index 0a0c77b..8e55a81 100644
+--- a/arch/ia64/kernel/vmlinux.lds.S
++++ b/arch/ia64/kernel/vmlinux.lds.S
+@@ -190,7 +190,7 @@ SECTIONS
+   /* Per-cpu data: */
+   . = ALIGN(PERCPU_PAGE_SIZE);
+   PERCPU_VADDR(PERCPU_ADDR, :percpu)
+-  __phys_per_cpu_start = __per_cpu_load;
++  __phys_per_cpu_start = per_cpu_load;
+   . = __phys_per_cpu_start + PERCPU_PAGE_SIZE;        /* ensure percpu data fits
+                                                * into percpu page size
+                                                */
+diff --git a/arch/ia64/mm/fault.c b/arch/ia64/mm/fault.c
+index 19261a9..1611b7a 100644
+--- a/arch/ia64/mm/fault.c
++++ b/arch/ia64/mm/fault.c
+@@ -72,6 +72,23 @@ mapped_kernel_page_is_present (unsigned long address)
+       return pte_present(pte);
+ }
++#ifdef CONFIG_PAX_PAGEEXEC
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 8; i++) {
++              unsigned int c;
++              if (get_user(c, (unsigned int *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08x ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ void __kprobes
+ ia64_do_page_fault (unsigned long address, unsigned long isr, struct pt_regs *regs)
+ {
+@@ -145,9 +162,23 @@ ia64_do_page_fault (unsigned long address, unsigned long isr, struct pt_regs *re
+       mask = (  (((isr >> IA64_ISR_X_BIT) & 1UL) << VM_EXEC_BIT)
+               | (((isr >> IA64_ISR_W_BIT) & 1UL) << VM_WRITE_BIT));
+-      if ((vma->vm_flags & mask) != mask)
++      if ((vma->vm_flags & mask) != mask) {
++
++#ifdef CONFIG_PAX_PAGEEXEC
++              if (!(vma->vm_flags & VM_EXEC) && (mask & VM_EXEC)) {
++                      if (!(mm->pax_flags & MF_PAX_PAGEEXEC) || address != regs->cr_iip)
++                              goto bad_area;
++
++                      up_read(&mm->mmap_sem);
++                      pax_report_fault(regs, (void *)regs->cr_iip, (void *)regs->r12);
++                      do_group_exit(SIGKILL);
++              }
++#endif
++
+               goto bad_area;
++      }
++
+   survive:
+       /*
+        * If for any reason at all we couldn't handle the fault, make
+diff --git a/arch/ia64/mm/hugetlbpage.c b/arch/ia64/mm/hugetlbpage.c
+index b0f6157..a082bbc 100644
+--- a/arch/ia64/mm/hugetlbpage.c
++++ b/arch/ia64/mm/hugetlbpage.c
+@@ -172,7 +172,7 @@ unsigned long hugetlb_get_unmapped_area(struct file *file, unsigned long addr, u
+               /* At this point:  (!vmm || addr < vmm->vm_end). */
+               if (REGION_OFFSET(addr) + len > RGN_MAP_LIMIT)
+                       return -ENOMEM;
+-              if (!vmm || (addr + len) <= vmm->vm_start)
++              if (check_heap_stack_gap(vmm, addr, len))
+                       return addr;
+               addr = ALIGN(vmm->vm_end, HPAGE_SIZE);
+       }
+diff --git a/arch/ia64/mm/init.c b/arch/ia64/mm/init.c
+index 1857766..05cc6a3 100644
+--- a/arch/ia64/mm/init.c
++++ b/arch/ia64/mm/init.c
+@@ -122,6 +122,19 @@ ia64_init_addr_space (void)
+               vma->vm_start = current->thread.rbs_bot & PAGE_MASK;
+               vma->vm_end = vma->vm_start + PAGE_SIZE;
+               vma->vm_flags = VM_DATA_DEFAULT_FLAGS|VM_GROWSUP|VM_ACCOUNT;
++
++#ifdef CONFIG_PAX_PAGEEXEC
++              if (current->mm->pax_flags & MF_PAX_PAGEEXEC) {
++                      vma->vm_flags &= ~VM_EXEC;
++
++#ifdef CONFIG_PAX_MPROTECT
++                      if (current->mm->pax_flags & MF_PAX_MPROTECT)
++                              vma->vm_flags &= ~VM_MAYEXEC;
++#endif
++
++              }
++#endif
++
+               vma->vm_page_prot = vm_get_page_prot(vma->vm_flags);
+               down_write(&current->mm->mmap_sem);
+               if (insert_vm_struct(current->mm, vma)) {
+diff --git a/arch/ia64/sn/pci/pci_dma.c b/arch/ia64/sn/pci/pci_dma.c
+index 98b6849..8046766 100644
+--- a/arch/ia64/sn/pci/pci_dma.c
++++ b/arch/ia64/sn/pci/pci_dma.c
+@@ -464,7 +464,7 @@ int sn_pci_legacy_write(struct pci_bus *bus, u16 port, u32 val, u8 size)
+       return ret;
+ }
+-static struct dma_map_ops sn_dma_ops = {
++static const struct dma_map_ops sn_dma_ops = {
+       .alloc_coherent         = sn_dma_alloc_coherent,
+       .free_coherent          = sn_dma_free_coherent,
+       .map_page               = sn_dma_map_page,
+diff --git a/arch/m32r/lib/usercopy.c b/arch/m32r/lib/usercopy.c
+index 82abd15..d95ae5d 100644
+--- a/arch/m32r/lib/usercopy.c
++++ b/arch/m32r/lib/usercopy.c
+@@ -14,6 +14,9 @@
+ unsigned long
+ __generic_copy_to_user(void __user *to, const void *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
+       prefetch(from);
+       if (access_ok(VERIFY_WRITE, to, n))
+               __copy_user(to,from,n);
+@@ -23,6 +26,9 @@ __generic_copy_to_user(void __user *to, const void *from, unsigned long n)
+ unsigned long
+ __generic_copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
+       prefetchw(to);
+       if (access_ok(VERIFY_READ, from, n))
+               __copy_user_zeroing(to,from,n);
+diff --git a/arch/mips/Makefile b/arch/mips/Makefile
+index 77f5021..2b1db8a 100644
+--- a/arch/mips/Makefile
++++ b/arch/mips/Makefile
+@@ -51,6 +51,8 @@ endif
+ cflags-y := -ffunction-sections
+ cflags-y += $(call cc-option, -mno-check-zero-division)
++cflags-y += -Wno-sign-compare -Wno-extra
++
+ ifdef CONFIG_32BIT
+ ld-emul                       = $(32bit-emul)
+ vmlinux-32            = vmlinux
+diff --git a/arch/mips/alchemy/devboards/pm.c b/arch/mips/alchemy/devboards/pm.c
+index 632f986..fd0378d 100644
+--- a/arch/mips/alchemy/devboards/pm.c
++++ b/arch/mips/alchemy/devboards/pm.c
+@@ -78,7 +78,7 @@ static void db1x_pm_end(void)
+ }
+-static struct platform_suspend_ops db1x_pm_ops = {
++static const struct platform_suspend_ops db1x_pm_ops = {
+       .valid          = suspend_valid_only_mem,
+       .begin          = db1x_pm_begin,
+       .enter          = db1x_pm_enter,
+diff --git a/arch/mips/include/asm/elf.h b/arch/mips/include/asm/elf.h
+index 7990694..4e93acf 100644
+--- a/arch/mips/include/asm/elf.h
++++ b/arch/mips/include/asm/elf.h
+@@ -368,4 +368,11 @@ extern int dump_task_fpu(struct task_struct *, elf_fpregset_t *);
+ #define ELF_ET_DYN_BASE         (TASK_SIZE / 3 * 2)
+ #endif
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (test_thread_flag(TIF_32BIT_ADDR) ? 0x00400000UL : 0x00400000UL)
++
++#define PAX_DELTA_MMAP_LEN    (test_thread_flag(TIF_32BIT_ADDR) ? 27-PAGE_SHIFT : 36-PAGE_SHIFT)
++#define PAX_DELTA_STACK_LEN   (test_thread_flag(TIF_32BIT_ADDR) ? 27-PAGE_SHIFT : 36-PAGE_SHIFT)
++#endif
++
+ #endif /* _ASM_ELF_H */
+diff --git a/arch/mips/include/asm/page.h b/arch/mips/include/asm/page.h
+index f266295..627cfff 100644
+--- a/arch/mips/include/asm/page.h
++++ b/arch/mips/include/asm/page.h
+@@ -93,7 +93,7 @@ extern void copy_user_highpage(struct page *to, struct page *from,
+   #ifdef CONFIG_CPU_MIPS32
+     typedef struct { unsigned long pte_low, pte_high; } pte_t;
+     #define pte_val(x)    ((x).pte_low | ((unsigned long long)(x).pte_high << 32))
+-    #define __pte(x)      ({ pte_t __pte = {(x), ((unsigned long long)(x)) >> 32}; __pte; })
++    #define __pte(x)      ({ pte_t __pte = {(x), (x) >> 32}; __pte; })
+   #else
+      typedef struct { unsigned long long pte; } pte_t;
+      #define pte_val(x)       ((x).pte)
+diff --git a/arch/mips/include/asm/reboot.h b/arch/mips/include/asm/reboot.h
+index e48c0bf..f3acf65 100644
+--- a/arch/mips/include/asm/reboot.h
++++ b/arch/mips/include/asm/reboot.h
+@@ -9,7 +9,7 @@
+ #ifndef _ASM_REBOOT_H
+ #define _ASM_REBOOT_H
+-extern void (*_machine_restart)(char *command);
+-extern void (*_machine_halt)(void);
++extern void (*__noreturn _machine_restart)(char *command);
++extern void (*__noreturn _machine_halt)(void);
+ #endif /* _ASM_REBOOT_H */
+diff --git a/arch/mips/include/asm/system.h b/arch/mips/include/asm/system.h
+index 83b5509..9fa24a23 100644
+--- a/arch/mips/include/asm/system.h
++++ b/arch/mips/include/asm/system.h
+@@ -230,6 +230,6 @@ extern void per_cpu_trap_init(void);
+  */
+ #define __ARCH_WANT_UNLOCKED_CTXSW
+-extern unsigned long arch_align_stack(unsigned long sp);
++#define arch_align_stack(x) ((x) & ~0xfUL)
+ #endif /* _ASM_SYSTEM_H */
+diff --git a/arch/mips/kernel/binfmt_elfn32.c b/arch/mips/kernel/binfmt_elfn32.c
+index 9fdd8bc..fcf9d68 100644
+--- a/arch/mips/kernel/binfmt_elfn32.c
++++ b/arch/mips/kernel/binfmt_elfn32.c
+@@ -50,6 +50,13 @@ typedef elf_fpreg_t elf_fpregset_t[ELF_NFPREG];
+ #undef ELF_ET_DYN_BASE
+ #define ELF_ET_DYN_BASE         (TASK32_SIZE / 3 * 2)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (test_thread_flag(TIF_32BIT_ADDR) ? 0x00400000UL : 0x00400000UL)
++
++#define PAX_DELTA_MMAP_LEN    (test_thread_flag(TIF_32BIT_ADDR) ? 27-PAGE_SHIFT : 36-PAGE_SHIFT)
++#define PAX_DELTA_STACK_LEN   (test_thread_flag(TIF_32BIT_ADDR) ? 27-PAGE_SHIFT : 36-PAGE_SHIFT)
++#endif
++
+ #include <asm/processor.h>
+ #include <linux/module.h>
+ #include <linux/elfcore.h>
+diff --git a/arch/mips/kernel/binfmt_elfo32.c b/arch/mips/kernel/binfmt_elfo32.c
+index ff44823..cf0b48a 100644
+--- a/arch/mips/kernel/binfmt_elfo32.c
++++ b/arch/mips/kernel/binfmt_elfo32.c
+@@ -52,6 +52,13 @@ typedef elf_fpreg_t elf_fpregset_t[ELF_NFPREG];
+ #undef ELF_ET_DYN_BASE
+ #define ELF_ET_DYN_BASE         (TASK32_SIZE / 3 * 2)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (test_thread_flag(TIF_32BIT_ADDR) ? 0x00400000UL : 0x00400000UL)
++
++#define PAX_DELTA_MMAP_LEN    (test_thread_flag(TIF_32BIT_ADDR) ? 27-PAGE_SHIFT : 36-PAGE_SHIFT)
++#define PAX_DELTA_STACK_LEN   (test_thread_flag(TIF_32BIT_ADDR) ? 27-PAGE_SHIFT : 36-PAGE_SHIFT)
++#endif
++
+ #include <asm/processor.h>
+ /*
+diff --git a/arch/mips/kernel/kgdb.c b/arch/mips/kernel/kgdb.c
+index 50c9bb8..efdd5f8 100644
+--- a/arch/mips/kernel/kgdb.c
++++ b/arch/mips/kernel/kgdb.c
+@@ -245,6 +245,7 @@ int kgdb_arch_handle_exception(int vector, int signo, int err_code,
+       return -1;
+ }
++/* cannot be const */
+ struct kgdb_arch arch_kgdb_ops;
+ /*
+diff --git a/arch/mips/kernel/process.c b/arch/mips/kernel/process.c
+index f3d73e1..bb3f57a 100644
+--- a/arch/mips/kernel/process.c
++++ b/arch/mips/kernel/process.c
+@@ -470,15 +470,3 @@ unsigned long get_wchan(struct task_struct *task)
+ out:
+       return pc;
+ }
+-
+-/*
+- * Don't forget that the stack pointer must be aligned on a 8 bytes
+- * boundary for 32-bits ABI and 16 bytes for 64-bits ABI.
+- */
+-unsigned long arch_align_stack(unsigned long sp)
+-{
+-      if (!(current->personality & ADDR_NO_RANDOMIZE) && randomize_va_space)
+-              sp -= get_random_int() & ~PAGE_MASK;
+-
+-      return sp & ALMASK;
+-}
+diff --git a/arch/mips/kernel/reset.c b/arch/mips/kernel/reset.c
+index 060563a..7fbf310 100644
+--- a/arch/mips/kernel/reset.c
++++ b/arch/mips/kernel/reset.c
+@@ -19,8 +19,8 @@
+  * So handle all using function pointers to machine specific
+  * functions.
+  */
+-void (*_machine_restart)(char *command);
+-void (*_machine_halt)(void);
++void (*__noreturn _machine_restart)(char *command);
++void (*__noreturn _machine_halt)(void);
+ void (*pm_power_off)(void);
+ EXPORT_SYMBOL(pm_power_off);
+@@ -29,16 +29,19 @@ void machine_restart(char *command)
+ {
+       if (_machine_restart)
+               _machine_restart(command);
++      BUG();
+ }
+ void machine_halt(void)
+ {
+       if (_machine_halt)
+               _machine_halt();
++      BUG();
+ }
+ void machine_power_off(void)
+ {
+       if (pm_power_off)
+               pm_power_off();
++      BUG();
+ }
+diff --git a/arch/mips/kernel/syscall.c b/arch/mips/kernel/syscall.c
+index 3f7f466..3abe0b5 100644
+--- a/arch/mips/kernel/syscall.c
++++ b/arch/mips/kernel/syscall.c
+@@ -102,17 +102,21 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr,
+       do_color_align = 0;
+       if (filp || (flags & MAP_SHARED))
+               do_color_align = 1;
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(current->mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       if (addr) {
+               if (do_color_align)
+                       addr = COLOUR_ALIGN(addr, pgoff);
+               else
+                       addr = PAGE_ALIGN(addr);
+               vmm = find_vma(current->mm, addr);
+-              if (task_size - len >= addr &&
+-                  (!vmm || addr + len <= vmm->vm_start))
++              if (task_size - len >= addr && check_heap_stack_gap(vmm, addr, len))
+                       return addr;
+       }
+-      addr = TASK_UNMAPPED_BASE;
++      addr = current->mm->mmap_base;
+       if (do_color_align)
+               addr = COLOUR_ALIGN(addr, pgoff);
+       else
+@@ -122,7 +126,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr,
+               /* At this point:  (!vmm || addr < vmm->vm_end). */
+               if (task_size - len < addr)
+                       return -ENOMEM;
+-              if (!vmm || addr + len <= vmm->vm_start)
++              if (check_heap_stack_gap(vmm, addr, len))
+                       return addr;
+               addr = vmm->vm_end;
+               if (do_color_align)
+diff --git a/arch/mips/mm/fault.c b/arch/mips/mm/fault.c
+index e97a7a2..f18f5b0 100644
+--- a/arch/mips/mm/fault.c
++++ b/arch/mips/mm/fault.c
+@@ -26,6 +26,23 @@
+ #include <asm/ptrace.h>
+ #include <asm/highmem.h>              /* For VMALLOC_END */
++#ifdef CONFIG_PAX_PAGEEXEC
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 5; i++) {
++              unsigned int c;
++              if (get_user(c, (unsigned int *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08x ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ /*
+  * This routine handles page faults.  It determines the address,
+  * and the problem, and then passes it off to one of the appropriate
+diff --git a/arch/parisc/include/asm/elf.h b/arch/parisc/include/asm/elf.h
+index 9c802eb..0592e41 100644
+--- a/arch/parisc/include/asm/elf.h
++++ b/arch/parisc/include/asm/elf.h
+@@ -343,6 +343,13 @@ struct pt_regs;   /* forward declaration... */
+ #define ELF_ET_DYN_BASE         (TASK_UNMAPPED_BASE + 0x01000000)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   0x10000UL
++
++#define PAX_DELTA_MMAP_LEN    16
++#define PAX_DELTA_STACK_LEN   16
++#endif
++
+ /* This yields a mask that user programs can use to figure out what
+    instruction set this CPU supports.  This could be done in user space,
+    but it's not easy, and we've already done it here.  */
+diff --git a/arch/parisc/include/asm/pgtable.h b/arch/parisc/include/asm/pgtable.h
+index a27d2e2..18fd845 100644
+--- a/arch/parisc/include/asm/pgtable.h
++++ b/arch/parisc/include/asm/pgtable.h
+@@ -207,6 +207,17 @@
+ #define PAGE_EXECREAD   __pgprot(_PAGE_PRESENT | _PAGE_USER | _PAGE_READ | _PAGE_EXEC |_PAGE_ACCESSED)
+ #define PAGE_COPY       PAGE_EXECREAD
+ #define PAGE_RWX        __pgprot(_PAGE_PRESENT | _PAGE_USER | _PAGE_READ | _PAGE_WRITE | _PAGE_EXEC |_PAGE_ACCESSED)
++
++#ifdef CONFIG_PAX_PAGEEXEC
++# define PAGE_SHARED_NOEXEC   __pgprot(_PAGE_PRESENT | _PAGE_USER | _PAGE_READ | _PAGE_WRITE | _PAGE_ACCESSED)
++# define PAGE_COPY_NOEXEC     __pgprot(_PAGE_PRESENT | _PAGE_USER | _PAGE_READ | _PAGE_ACCESSED)
++# define PAGE_READONLY_NOEXEC __pgprot(_PAGE_PRESENT | _PAGE_USER | _PAGE_READ | _PAGE_ACCESSED)
++#else
++# define PAGE_SHARED_NOEXEC   PAGE_SHARED
++# define PAGE_COPY_NOEXEC     PAGE_COPY
++# define PAGE_READONLY_NOEXEC PAGE_READONLY
++#endif
++
+ #define PAGE_KERNEL   __pgprot(_PAGE_KERNEL)
+ #define PAGE_KERNEL_RO        __pgprot(_PAGE_KERNEL & ~_PAGE_WRITE)
+ #define PAGE_KERNEL_UNC       __pgprot(_PAGE_KERNEL | _PAGE_NO_CACHE)
+diff --git a/arch/parisc/kernel/module.c b/arch/parisc/kernel/module.c
+index 2120746..8d70a5e 100644
+--- a/arch/parisc/kernel/module.c
++++ b/arch/parisc/kernel/module.c
+@@ -95,16 +95,38 @@
+ /* three functions to determine where in the module core
+  * or init pieces the location is */
++static inline int in_init_rx(struct module *me, void *loc)
++{
++      return (loc >= me->module_init_rx &&
++              loc < (me->module_init_rx + me->init_size_rx));
++}
++
++static inline int in_init_rw(struct module *me, void *loc)
++{
++      return (loc >= me->module_init_rw &&
++              loc < (me->module_init_rw + me->init_size_rw));
++}
++
+ static inline int in_init(struct module *me, void *loc)
+ {
+-      return (loc >= me->module_init &&
+-              loc <= (me->module_init + me->init_size));
++      return in_init_rx(me, loc) || in_init_rw(me, loc);
++}
++
++static inline int in_core_rx(struct module *me, void *loc)
++{
++      return (loc >= me->module_core_rx &&
++              loc < (me->module_core_rx + me->core_size_rx));
++}
++
++static inline int in_core_rw(struct module *me, void *loc)
++{
++      return (loc >= me->module_core_rw &&
++              loc < (me->module_core_rw + me->core_size_rw));
+ }
+ static inline int in_core(struct module *me, void *loc)
+ {
+-      return (loc >= me->module_core &&
+-              loc <= (me->module_core + me->core_size));
++      return in_core_rx(me, loc) || in_core_rw(me, loc);
+ }
+ static inline int in_local(struct module *me, void *loc)
+@@ -364,13 +386,13 @@ int module_frob_arch_sections(CONST Elf_Ehdr *hdr,
+       }
+       /* align things a bit */
+-      me->core_size = ALIGN(me->core_size, 16);
+-      me->arch.got_offset = me->core_size;
+-      me->core_size += gots * sizeof(struct got_entry);
++      me->core_size_rw = ALIGN(me->core_size_rw, 16);
++      me->arch.got_offset = me->core_size_rw;
++      me->core_size_rw += gots * sizeof(struct got_entry);
+-      me->core_size = ALIGN(me->core_size, 16);
+-      me->arch.fdesc_offset = me->core_size;
+-      me->core_size += fdescs * sizeof(Elf_Fdesc);
++      me->core_size_rw = ALIGN(me->core_size_rw, 16);
++      me->arch.fdesc_offset = me->core_size_rw;
++      me->core_size_rw += fdescs * sizeof(Elf_Fdesc);
+       me->arch.got_max = gots;
+       me->arch.fdesc_max = fdescs;
+@@ -388,7 +410,7 @@ static Elf64_Word get_got(struct module *me, unsigned long value, long addend)
+       BUG_ON(value == 0);
+-      got = me->module_core + me->arch.got_offset;
++      got = me->module_core_rw + me->arch.got_offset;
+       for (i = 0; got[i].addr; i++)
+               if (got[i].addr == value)
+                       goto out;
+@@ -406,7 +428,7 @@ static Elf64_Word get_got(struct module *me, unsigned long value, long addend)
+ #ifdef CONFIG_64BIT
+ static Elf_Addr get_fdesc(struct module *me, unsigned long value)
+ {
+-      Elf_Fdesc *fdesc = me->module_core + me->arch.fdesc_offset;
++      Elf_Fdesc *fdesc = me->module_core_rw + me->arch.fdesc_offset;
+       if (!value) {
+               printk(KERN_ERR "%s: zero OPD requested!\n", me->name);
+@@ -424,7 +446,7 @@ static Elf_Addr get_fdesc(struct module *me, unsigned long value)
+       /* Create new one */
+       fdesc->addr = value;
+-      fdesc->gp = (Elf_Addr)me->module_core + me->arch.got_offset;
++      fdesc->gp = (Elf_Addr)me->module_core_rw + me->arch.got_offset;
+       return (Elf_Addr)fdesc;
+ }
+ #endif /* CONFIG_64BIT */
+@@ -848,7 +870,7 @@ register_unwind_table(struct module *me,
+       table = (unsigned char *)sechdrs[me->arch.unwind_section].sh_addr;
+       end = table + sechdrs[me->arch.unwind_section].sh_size;
+-      gp = (Elf_Addr)me->module_core + me->arch.got_offset;
++      gp = (Elf_Addr)me->module_core_rw + me->arch.got_offset;
+       DEBUGP("register_unwind_table(), sect = %d at 0x%p - 0x%p (gp=0x%lx)\n",
+              me->arch.unwind_section, table, end, gp);
+diff --git a/arch/parisc/kernel/sys_parisc.c b/arch/parisc/kernel/sys_parisc.c
+index 9147391..f3d949a 100644
+--- a/arch/parisc/kernel/sys_parisc.c
++++ b/arch/parisc/kernel/sys_parisc.c
+@@ -43,7 +43,7 @@ static unsigned long get_unshared_area(unsigned long addr, unsigned long len)
+               /* At this point:  (!vma || addr < vma->vm_end). */
+               if (TASK_SIZE - len < addr)
+                       return -ENOMEM;
+-              if (!vma || addr + len <= vma->vm_start)
++              if (check_heap_stack_gap(vma, addr, len))
+                       return addr;
+               addr = vma->vm_end;
+       }
+@@ -79,7 +79,7 @@ static unsigned long get_shared_area(struct address_space *mapping,
+               /* At this point:  (!vma || addr < vma->vm_end). */
+               if (TASK_SIZE - len < addr)
+                       return -ENOMEM;
+-              if (!vma || addr + len <= vma->vm_start)
++              if (check_heap_stack_gap(vma, addr, len))
+                       return addr;
+               addr = DCACHE_ALIGN(vma->vm_end - offset) + offset;
+               if (addr < vma->vm_end) /* handle wraparound */
+@@ -98,7 +98,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr,
+       if (flags & MAP_FIXED)
+               return addr;
+       if (!addr)
+-              addr = TASK_UNMAPPED_BASE;
++              addr = current->mm->mmap_base;
+       if (filp) {
+               addr = get_shared_area(filp->f_mapping, addr, len, pgoff);
+diff --git a/arch/parisc/kernel/traps.c b/arch/parisc/kernel/traps.c
+index 8b58bf0..7afff03 100644
+--- a/arch/parisc/kernel/traps.c
++++ b/arch/parisc/kernel/traps.c
+@@ -733,9 +733,7 @@ void notrace handle_interruption(int code, struct pt_regs *regs)
+                       down_read(&current->mm->mmap_sem);
+                       vma = find_vma(current->mm,regs->iaoq[0]);
+-                      if (vma && (regs->iaoq[0] >= vma->vm_start)
+-                              && (vma->vm_flags & VM_EXEC)) {
+-
++                      if (vma && (regs->iaoq[0] >= vma->vm_start)) {
+                               fault_address = regs->iaoq[0];
+                               fault_space = regs->iasq[0];
+diff --git a/arch/parisc/mm/fault.c b/arch/parisc/mm/fault.c
+index c6afbfc..c5839f6 100644
+--- a/arch/parisc/mm/fault.c
++++ b/arch/parisc/mm/fault.c
+@@ -15,6 +15,7 @@
+ #include <linux/sched.h>
+ #include <linux/interrupt.h>
+ #include <linux/module.h>
++#include <linux/unistd.h>
+ #include <asm/uaccess.h>
+ #include <asm/traps.h>
+@@ -52,7 +53,7 @@ DEFINE_PER_CPU(struct exception_data, exception_data);
+ static unsigned long
+ parisc_acctyp(unsigned long code, unsigned int inst)
+ {
+-      if (code == 6 || code == 16)
++      if (code == 6 || code == 7 || code == 16)
+           return VM_EXEC;
+       switch (inst & 0xf0000000) {
+@@ -138,6 +139,116 @@ parisc_acctyp(unsigned long code, unsigned int inst)
+                       }
+ #endif
++#ifdef CONFIG_PAX_PAGEEXEC
++/*
++ * PaX: decide what to do with offenders (instruction_pointer(regs) = fault address)
++ *
++ * returns 1 when task should be killed
++ *         2 when rt_sigreturn trampoline was detected
++ *         3 when unpatched PLT trampoline was detected
++ */
++static int pax_handle_fetch_fault(struct pt_regs *regs)
++{
++
++#ifdef CONFIG_PAX_EMUPLT
++      int err;
++
++      do { /* PaX: unpatched PLT emulation */
++              unsigned int bl, depwi;
++
++              err = get_user(bl, (unsigned int *)instruction_pointer(regs));
++              err |= get_user(depwi, (unsigned int *)(instruction_pointer(regs)+4));
++
++              if (err)
++                      break;
++
++              if (bl == 0xEA9F1FDDU && depwi == 0xD6801C1EU) {
++                      unsigned int ldw, bv, ldw2, addr = instruction_pointer(regs)-12;
++
++                      err = get_user(ldw, (unsigned int *)addr);
++                      err |= get_user(bv, (unsigned int *)(addr+4));
++                      err |= get_user(ldw2, (unsigned int *)(addr+8));
++
++                      if (err)
++                              break;
++
++                      if (ldw == 0x0E801096U &&
++                          bv == 0xEAC0C000U &&
++                          ldw2 == 0x0E881095U)
++                      {
++                              unsigned int resolver, map;
++
++                              err = get_user(resolver, (unsigned int *)(instruction_pointer(regs)+8));
++                              err |= get_user(map, (unsigned int *)(instruction_pointer(regs)+12));
++                              if (err)
++                                      break;
++
++                              regs->gr[20] = instruction_pointer(regs)+8;
++                              regs->gr[21] = map;
++                              regs->gr[22] = resolver;
++                              regs->iaoq[0] = resolver | 3UL;
++                              regs->iaoq[1] = regs->iaoq[0] + 4;
++                              return 3;
++                      }
++              }
++      } while (0);
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++
++#ifndef CONFIG_PAX_EMUSIGRT
++      if (!(current->mm->pax_flags & MF_PAX_EMUTRAMP))
++              return 1;
++#endif
++
++      do { /* PaX: rt_sigreturn emulation */
++              unsigned int ldi1, ldi2, bel, nop;
++
++              err = get_user(ldi1, (unsigned int *)instruction_pointer(regs));
++              err |= get_user(ldi2, (unsigned int *)(instruction_pointer(regs)+4));
++              err |= get_user(bel, (unsigned int *)(instruction_pointer(regs)+8));
++              err |= get_user(nop, (unsigned int *)(instruction_pointer(regs)+12));
++
++              if (err)
++                      break;
++
++              if ((ldi1 == 0x34190000U || ldi1 == 0x34190002U) &&
++                  ldi2 == 0x3414015AU &&
++                  bel == 0xE4008200U &&
++                  nop == 0x08000240U)
++              {
++                      regs->gr[25] = (ldi1 & 2) >> 1;
++                      regs->gr[20] = __NR_rt_sigreturn;
++                      regs->gr[31] = regs->iaoq[1] + 16;
++                      regs->sr[0] = regs->iasq[1];
++                      regs->iaoq[0] = 0x100UL;
++                      regs->iaoq[1] = regs->iaoq[0] + 4;
++                      regs->iasq[0] = regs->sr[2];
++                      regs->iasq[1] = regs->sr[2];
++                      return 2;
++              }
++      } while (0);
++#endif
++
++      return 1;
++}
++
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 5; i++) {
++              unsigned int c;
++              if (get_user(c, (unsigned int *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08x ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ int fixup_exception(struct pt_regs *regs)
+ {
+       const struct exception_table_entry *fix;
+@@ -192,8 +303,33 @@ good_area:
+       acc_type = parisc_acctyp(code,regs->iir);
+-      if ((vma->vm_flags & acc_type) != acc_type)
++      if ((vma->vm_flags & acc_type) != acc_type) {
++
++#ifdef CONFIG_PAX_PAGEEXEC
++              if ((mm->pax_flags & MF_PAX_PAGEEXEC) && (acc_type & VM_EXEC) &&
++                  (address & ~3UL) == instruction_pointer(regs))
++              {
++                      up_read(&mm->mmap_sem);
++                      switch (pax_handle_fetch_fault(regs)) {
++
++#ifdef CONFIG_PAX_EMUPLT
++                      case 3:
++                              return;
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++                      case 2:
++                              return;
++#endif
++
++                      }
++                      pax_report_fault(regs, (void *)instruction_pointer(regs), (void *)regs->gr[30]);
++                      do_group_exit(SIGKILL);
++              }
++#endif
++
+               goto bad_area;
++      }
+       /*
+        * If for any reason at all we couldn't handle the fault, make
+diff --git a/arch/powerpc/Makefile b/arch/powerpc/Makefile
+index c107b74..409dc0f 100644
+--- a/arch/powerpc/Makefile
++++ b/arch/powerpc/Makefile
+@@ -74,6 +74,8 @@ KBUILD_AFLAGS        += -Iarch/$(ARCH)
+ KBUILD_CFLAGS += -msoft-float -pipe -Iarch/$(ARCH) $(CFLAGS-y)
+ CPP           = $(CC) -E $(KBUILD_CFLAGS)
++cflags-y += -Wno-sign-compare -Wno-extra
++
+ CHECKFLAGS    += -m$(CONFIG_WORD_SIZE) -D__powerpc__ -D__powerpc$(CONFIG_WORD_SIZE)__
+ ifeq ($(CONFIG_PPC64),y)
+diff --git a/arch/powerpc/include/asm/device.h b/arch/powerpc/include/asm/device.h
+index 6d94d27..50d4cad 100644
+--- a/arch/powerpc/include/asm/device.h
++++ b/arch/powerpc/include/asm/device.h
+@@ -14,7 +14,7 @@ struct dev_archdata {
+       struct device_node      *of_node;
+       /* DMA operations on that device */
+-      struct dma_map_ops      *dma_ops;
++      const struct dma_map_ops        *dma_ops;
+       /*
+        * When an iommu is in use, dma_data is used as a ptr to the base of the
+diff --git a/arch/powerpc/include/asm/dma-mapping.h b/arch/powerpc/include/asm/dma-mapping.h
+index e281dae..2b8a784 100644
+--- a/arch/powerpc/include/asm/dma-mapping.h
++++ b/arch/powerpc/include/asm/dma-mapping.h
+@@ -69,9 +69,9 @@ static inline unsigned long device_to_mask(struct device *dev)
+ #ifdef CONFIG_PPC64
+ extern struct dma_map_ops dma_iommu_ops;
+ #endif
+-extern struct dma_map_ops dma_direct_ops;
++extern const struct dma_map_ops dma_direct_ops;
+-static inline struct dma_map_ops *get_dma_ops(struct device *dev)
++static inline const struct dma_map_ops *get_dma_ops(struct device *dev)
+ {
+       /* We don't handle the NULL dev case for ISA for now. We could
+        * do it via an out of line call but it is not needed for now. The
+@@ -84,7 +84,7 @@ static inline struct dma_map_ops *get_dma_ops(struct device *dev)
+       return dev->archdata.dma_ops;
+ }
+-static inline void set_dma_ops(struct device *dev, struct dma_map_ops *ops)
++static inline void set_dma_ops(struct device *dev, const struct dma_map_ops *ops)
+ {
+       dev->archdata.dma_ops = ops;
+ }
+@@ -118,7 +118,7 @@ static inline void set_dma_offset(struct device *dev, dma_addr_t off)
+ static inline int dma_supported(struct device *dev, u64 mask)
+ {
+-      struct dma_map_ops *dma_ops = get_dma_ops(dev);
++      const struct dma_map_ops *dma_ops = get_dma_ops(dev);
+       if (unlikely(dma_ops == NULL))
+               return 0;
+@@ -132,7 +132,7 @@ static inline int dma_supported(struct device *dev, u64 mask)
+ static inline int dma_set_mask(struct device *dev, u64 dma_mask)
+ {
+-      struct dma_map_ops *dma_ops = get_dma_ops(dev);
++      const struct dma_map_ops *dma_ops = get_dma_ops(dev);
+       if (unlikely(dma_ops == NULL))
+               return -EIO;
+@@ -147,7 +147,7 @@ static inline int dma_set_mask(struct device *dev, u64 dma_mask)
+ static inline void *dma_alloc_coherent(struct device *dev, size_t size,
+                                      dma_addr_t *dma_handle, gfp_t flag)
+ {
+-      struct dma_map_ops *dma_ops = get_dma_ops(dev);
++      const struct dma_map_ops *dma_ops = get_dma_ops(dev);
+       void *cpu_addr;
+       BUG_ON(!dma_ops);
+@@ -162,7 +162,7 @@ static inline void *dma_alloc_coherent(struct device *dev, size_t size,
+ static inline void dma_free_coherent(struct device *dev, size_t size,
+                                    void *cpu_addr, dma_addr_t dma_handle)
+ {
+-      struct dma_map_ops *dma_ops = get_dma_ops(dev);
++      const struct dma_map_ops *dma_ops = get_dma_ops(dev);
+       BUG_ON(!dma_ops);
+@@ -173,7 +173,7 @@ static inline void dma_free_coherent(struct device *dev, size_t size,
+ static inline int dma_mapping_error(struct device *dev, dma_addr_t dma_addr)
+ {
+-      struct dma_map_ops *dma_ops = get_dma_ops(dev);
++      const struct dma_map_ops *dma_ops = get_dma_ops(dev);
+       if (dma_ops->mapping_error)
+               return dma_ops->mapping_error(dev, dma_addr);
+diff --git a/arch/powerpc/include/asm/elf.h b/arch/powerpc/include/asm/elf.h
+index 5698502..5db093c 100644
+--- a/arch/powerpc/include/asm/elf.h
++++ b/arch/powerpc/include/asm/elf.h
+@@ -179,8 +179,19 @@ typedef elf_fpreg_t elf_vsrreghalf_t32[ELF_NVSRHALFREG];
+    the loader.  We need to make sure that it is out of the way of the program
+    that it will "exec", and that there is sufficient room for the brk.  */
+-extern unsigned long randomize_et_dyn(unsigned long base);
+-#define ELF_ET_DYN_BASE               (randomize_et_dyn(0x20000000))
++#define ELF_ET_DYN_BASE               (0x20000000)
++
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (0x10000000UL)
++
++#ifdef __powerpc64__
++#define PAX_DELTA_MMAP_LEN    (test_thread_flag(TIF_32BIT) ? 16 : 28)
++#define PAX_DELTA_STACK_LEN   (test_thread_flag(TIF_32BIT) ? 16 : 28)
++#else
++#define PAX_DELTA_MMAP_LEN    15
++#define PAX_DELTA_STACK_LEN   15
++#endif
++#endif
+ /*
+  * Our registers are always unsigned longs, whether we're a 32 bit
+@@ -275,9 +286,6 @@ extern int arch_setup_additional_pages(struct linux_binprm *bprm,
+       (0x7ff >> (PAGE_SHIFT - 12)) : \
+       (0x3ffff >> (PAGE_SHIFT - 12)))
+-extern unsigned long arch_randomize_brk(struct mm_struct *mm);
+-#define arch_randomize_brk arch_randomize_brk
+-
+ #endif /* __KERNEL__ */
+ /*
+diff --git a/arch/powerpc/include/asm/iommu.h b/arch/powerpc/include/asm/iommu.h
+index edfc980..1766f59 100644
+--- a/arch/powerpc/include/asm/iommu.h
++++ b/arch/powerpc/include/asm/iommu.h
+@@ -116,6 +116,9 @@ extern void iommu_init_early_iSeries(void);
+ extern void iommu_init_early_dart(void);
+ extern void iommu_init_early_pasemi(void);
++/* dma-iommu.c */
++extern int dma_iommu_dma_supported(struct device *dev, u64 mask);
++
+ #ifdef CONFIG_PCI
+ extern void pci_iommu_init(void);
+ extern void pci_direct_iommu_init(void);
+diff --git a/arch/powerpc/include/asm/kmap_types.h b/arch/powerpc/include/asm/kmap_types.h
+index 9163695..5a00112 100644
+--- a/arch/powerpc/include/asm/kmap_types.h
++++ b/arch/powerpc/include/asm/kmap_types.h
+@@ -26,6 +26,7 @@ enum km_type {
+       KM_SOFTIRQ1,
+       KM_PPC_SYNC_PAGE,
+       KM_PPC_SYNC_ICACHE,
++      KM_CLEARPAGE,
+       KM_TYPE_NR
+ };
+diff --git a/arch/powerpc/include/asm/page.h b/arch/powerpc/include/asm/page.h
+index ff24254..fe45b21 100644
+--- a/arch/powerpc/include/asm/page.h
++++ b/arch/powerpc/include/asm/page.h
+@@ -116,8 +116,9 @@ extern phys_addr_t kernstart_addr;
+  * and needs to be executable.  This means the whole heap ends
+  * up being executable.
+  */
+-#define VM_DATA_DEFAULT_FLAGS32       (VM_READ | VM_WRITE | VM_EXEC | \
+-                               VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC)
++#define VM_DATA_DEFAULT_FLAGS32 \
++      (((current->personality & READ_IMPLIES_EXEC) ? VM_EXEC : 0) | \
++       VM_READ | VM_WRITE | VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC)
+ #define VM_DATA_DEFAULT_FLAGS64       (VM_READ | VM_WRITE | \
+                                VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC)
+@@ -145,6 +146,9 @@ extern phys_addr_t kernstart_addr;
+ #define is_kernel_addr(x)     ((x) >= PAGE_OFFSET)
+ #endif
++#define ktla_ktva(addr)               (addr)
++#define ktva_ktla(addr)               (addr)
++
+ #ifndef __ASSEMBLY__
+ #undef STRICT_MM_TYPECHECKS
+diff --git a/arch/powerpc/include/asm/page_64.h b/arch/powerpc/include/asm/page_64.h
+index 3f17b83..1f9e766 100644
+--- a/arch/powerpc/include/asm/page_64.h
++++ b/arch/powerpc/include/asm/page_64.h
+@@ -180,15 +180,18 @@ do {                                             \
+  * stack by default, so in the absense of a PT_GNU_STACK program header
+  * we turn execute permission off.
+  */
+-#define VM_STACK_DEFAULT_FLAGS32      (VM_READ | VM_WRITE | VM_EXEC | \
+-                                       VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC)
++#define VM_STACK_DEFAULT_FLAGS32 \
++      (((current->personality & READ_IMPLIES_EXEC) ? VM_EXEC : 0) | \
++       VM_READ | VM_WRITE | VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC)
+ #define VM_STACK_DEFAULT_FLAGS64      (VM_READ | VM_WRITE | \
+                                        VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC)
++#ifndef CONFIG_PAX_PAGEEXEC
+ #define VM_STACK_DEFAULT_FLAGS \
+       (test_thread_flag(TIF_32BIT) ? \
+        VM_STACK_DEFAULT_FLAGS32 : VM_STACK_DEFAULT_FLAGS64)
++#endif
+ #include <asm-generic/getorder.h>
+diff --git a/arch/powerpc/include/asm/pci.h b/arch/powerpc/include/asm/pci.h
+index b5ea626..4030822 100644
+--- a/arch/powerpc/include/asm/pci.h
++++ b/arch/powerpc/include/asm/pci.h
+@@ -65,8 +65,8 @@ static inline int pci_get_legacy_ide_irq(struct pci_dev *dev, int channel)
+ }
+ #ifdef CONFIG_PCI
+-extern void set_pci_dma_ops(struct dma_map_ops *dma_ops);
+-extern struct dma_map_ops *get_pci_dma_ops(void);
++extern void set_pci_dma_ops(const struct dma_map_ops *dma_ops);
++extern const struct dma_map_ops *get_pci_dma_ops(void);
+ #else /* CONFIG_PCI */
+ #define set_pci_dma_ops(d)
+ #define get_pci_dma_ops()     NULL
+diff --git a/arch/powerpc/include/asm/pgtable.h b/arch/powerpc/include/asm/pgtable.h
+index 2a5da06..d65bea2 100644
+--- a/arch/powerpc/include/asm/pgtable.h
++++ b/arch/powerpc/include/asm/pgtable.h
+@@ -2,6 +2,7 @@
+ #define _ASM_POWERPC_PGTABLE_H
+ #ifdef __KERNEL__
++#include <linux/const.h>
+ #ifndef __ASSEMBLY__
+ #include <asm/processor.h>            /* For TASK_SIZE */
+ #include <asm/mmu.h>
+diff --git a/arch/powerpc/include/asm/pte-hash32.h b/arch/powerpc/include/asm/pte-hash32.h
+index 4aad413..85d86bf 100644
+--- a/arch/powerpc/include/asm/pte-hash32.h
++++ b/arch/powerpc/include/asm/pte-hash32.h
+@@ -21,6 +21,7 @@
+ #define _PAGE_FILE    0x004   /* when !present: nonlinear file mapping */
+ #define _PAGE_USER    0x004   /* usermode access allowed */
+ #define _PAGE_GUARDED 0x008   /* G: prohibit speculative access */
++#define _PAGE_EXEC    _PAGE_GUARDED
+ #define _PAGE_COHERENT        0x010   /* M: enforce memory coherence (SMP systems) */
+ #define _PAGE_NO_CACHE        0x020   /* I: cache inhibit */
+ #define _PAGE_WRITETHRU       0x040   /* W: cache write-through */
+diff --git a/arch/powerpc/include/asm/ptrace.h b/arch/powerpc/include/asm/ptrace.h
+index 8c34149..78f425a 100644
+--- a/arch/powerpc/include/asm/ptrace.h
++++ b/arch/powerpc/include/asm/ptrace.h
+@@ -103,7 +103,7 @@ extern unsigned long profile_pc(struct pt_regs *regs);
+       } while(0)
+ struct task_struct;
+-extern unsigned long ptrace_get_reg(struct task_struct *task, int regno);
++extern unsigned long ptrace_get_reg(struct task_struct *task, unsigned int regno);
+ extern int ptrace_put_reg(struct task_struct *task, int regno,
+                         unsigned long data);
+diff --git a/arch/powerpc/include/asm/reg.h b/arch/powerpc/include/asm/reg.h
+index 32a7c30..be3a8bb 100644
+--- a/arch/powerpc/include/asm/reg.h
++++ b/arch/powerpc/include/asm/reg.h
+@@ -191,6 +191,7 @@
+ #define SPRN_DBCR     0x136   /* e300 Data Breakpoint Control Reg */
+ #define SPRN_DSISR    0x012   /* Data Storage Interrupt Status Register */
+ #define   DSISR_NOHPTE                0x40000000      /* no translation found */
++#define   DSISR_GUARDED               0x10000000      /* fetch from guarded storage */
+ #define   DSISR_PROTFAULT     0x08000000      /* protection fault */
+ #define   DSISR_ISSTORE               0x02000000      /* access was a store */
+ #define   DSISR_DABRMATCH     0x00400000      /* hit data breakpoint */
+diff --git a/arch/powerpc/include/asm/swiotlb.h b/arch/powerpc/include/asm/swiotlb.h
+index 8979d4c..d2fd0d3 100644
+--- a/arch/powerpc/include/asm/swiotlb.h
++++ b/arch/powerpc/include/asm/swiotlb.h
+@@ -13,7 +13,7 @@
+ #include <linux/swiotlb.h>
+-extern struct dma_map_ops swiotlb_dma_ops;
++extern const struct dma_map_ops swiotlb_dma_ops;
+ static inline void dma_mark_clean(void *addr, size_t size) {}
+diff --git a/arch/powerpc/include/asm/system.h b/arch/powerpc/include/asm/system.h
+index 094a12a..877a60a 100644
+--- a/arch/powerpc/include/asm/system.h
++++ b/arch/powerpc/include/asm/system.h
+@@ -531,7 +531,7 @@ __cmpxchg_local(volatile void *ptr, unsigned long old, unsigned long new,
+ #define cmpxchg64_local(ptr, o, n) __cmpxchg64_local_generic((ptr), (o), (n))
+ #endif
+-extern unsigned long arch_align_stack(unsigned long sp);
++#define arch_align_stack(x) ((x) & ~0xfUL)
+ /* Used in very early kernel initialization. */
+ extern unsigned long reloc_offset(void);
+diff --git a/arch/powerpc/include/asm/uaccess.h b/arch/powerpc/include/asm/uaccess.h
+index bd0fb84..a42a14b 100644
+--- a/arch/powerpc/include/asm/uaccess.h
++++ b/arch/powerpc/include/asm/uaccess.h
+@@ -13,6 +13,8 @@
+ #define VERIFY_READ   0
+ #define VERIFY_WRITE  1
++extern void check_object_size(const void *ptr, unsigned long n, bool to);
++
+ /*
+  * The fs value determines whether argument validity checking should be
+  * performed or not.  If get_fs() == USER_DS, checking is performed, with
+@@ -327,52 +329,6 @@ do {                                                              \
+ extern unsigned long __copy_tofrom_user(void __user *to,
+               const void __user *from, unsigned long size);
+-#ifndef __powerpc64__
+-
+-static inline unsigned long copy_from_user(void *to,
+-              const void __user *from, unsigned long n)
+-{
+-      unsigned long over;
+-
+-      if (access_ok(VERIFY_READ, from, n))
+-              return __copy_tofrom_user((__force void __user *)to, from, n);
+-      if ((unsigned long)from < TASK_SIZE) {
+-              over = (unsigned long)from + n - TASK_SIZE;
+-              return __copy_tofrom_user((__force void __user *)to, from,
+-                              n - over) + over;
+-      }
+-      return n;
+-}
+-
+-static inline unsigned long copy_to_user(void __user *to,
+-              const void *from, unsigned long n)
+-{
+-      unsigned long over;
+-
+-      if (access_ok(VERIFY_WRITE, to, n))
+-              return __copy_tofrom_user(to, (__force void __user *)from, n);
+-      if ((unsigned long)to < TASK_SIZE) {
+-              over = (unsigned long)to + n - TASK_SIZE;
+-              return __copy_tofrom_user(to, (__force void __user *)from,
+-                              n - over) + over;
+-      }
+-      return n;
+-}
+-
+-#else /* __powerpc64__ */
+-
+-#define __copy_in_user(to, from, size) \
+-      __copy_tofrom_user((to), (from), (size))
+-
+-extern unsigned long copy_from_user(void *to, const void __user *from,
+-                                  unsigned long n);
+-extern unsigned long copy_to_user(void __user *to, const void *from,
+-                                unsigned long n);
+-extern unsigned long copy_in_user(void __user *to, const void __user *from,
+-                                unsigned long n);
+-
+-#endif /* __powerpc64__ */
+-
+ static inline unsigned long __copy_from_user_inatomic(void *to,
+               const void __user *from, unsigned long n)
+ {
+@@ -396,6 +352,10 @@ static inline unsigned long __copy_from_user_inatomic(void *to,
+               if (ret == 0)
+                       return 0;
+       }
++
++      if (!__builtin_constant_p(n))
++              check_object_size(to, n, false);
++
+       return __copy_tofrom_user((__force void __user *)to, from, n);
+ }
+@@ -422,6 +382,10 @@ static inline unsigned long __copy_to_user_inatomic(void __user *to,
+               if (ret == 0)
+                       return 0;
+       }
++
++      if (!__builtin_constant_p(n))
++              check_object_size(from, n, true);
++
+       return __copy_tofrom_user(to, (__force const void __user *)from, n);
+ }
+@@ -439,6 +403,92 @@ static inline unsigned long __copy_to_user(void __user *to,
+       return __copy_to_user_inatomic(to, from, size);
+ }
++#ifndef __powerpc64__
++
++static inline unsigned long __must_check copy_from_user(void *to,
++              const void __user *from, unsigned long n)
++{
++      unsigned long over;
++
++      if ((long)n < 0)
++              return n;
++
++      if (access_ok(VERIFY_READ, from, n)) {
++              if (!__builtin_constant_p(n))
++                      check_object_size(to, n, false);
++              return __copy_tofrom_user((__force void __user *)to, from, n);
++      }
++      if ((unsigned long)from < TASK_SIZE) {
++              over = (unsigned long)from + n - TASK_SIZE;
++              if (!__builtin_constant_p(n - over))
++                      check_object_size(to, n - over, false);
++              return __copy_tofrom_user((__force void __user *)to, from,
++                              n - over) + over;
++      }
++      return n;
++}
++
++static inline unsigned long __must_check copy_to_user(void __user *to,
++              const void *from, unsigned long n)
++{
++      unsigned long over;
++
++      if ((long)n < 0)
++              return n;
++
++      if (access_ok(VERIFY_WRITE, to, n)) {
++              if (!__builtin_constant_p(n))
++                      check_object_size(from, n, true);
++              return __copy_tofrom_user(to, (__force void __user *)from, n);
++      }
++      if ((unsigned long)to < TASK_SIZE) {
++              over = (unsigned long)to + n - TASK_SIZE;
++              if (!__builtin_constant_p(n))
++                      check_object_size(from, n - over, true);
++              return __copy_tofrom_user(to, (__force void __user *)from,
++                              n - over) + over;
++      }
++      return n;
++}
++
++#else /* __powerpc64__ */
++
++#define __copy_in_user(to, from, size) \
++      __copy_tofrom_user((to), (from), (size))
++
++static inline unsigned long __must_check copy_from_user(void *to, const void __user *from, unsigned long n)
++{
++      if ((long)n < 0 || n > INT_MAX)
++              return n;
++
++      if (!__builtin_constant_p(n))
++              check_object_size(to, n, false);
++
++      if (likely(access_ok(VERIFY_READ, from, n)))
++              n = __copy_from_user(to, from, n);
++      else
++              memset(to, 0, n);
++      return n;
++}
++
++static inline unsigned long __must_check copy_to_user(void __user *to, const void *from, unsigned long n)
++{
++      if ((long)n < 0 || n > INT_MAX)
++              return n;
++
++      if (likely(access_ok(VERIFY_WRITE, to, n))) {
++              if (!__builtin_constant_p(n))
++                      check_object_size(from, n, true);
++              n = __copy_to_user(to, from, n);
++      }
++      return n;
++}
++
++extern unsigned long copy_in_user(void __user *to, const void __user *from,
++                                unsigned long n);
++
++#endif /* __powerpc64__ */
++
+ extern unsigned long __clear_user(void __user *addr, unsigned long size);
+ static inline unsigned long clear_user(void __user *addr, unsigned long size)
+diff --git a/arch/powerpc/kernel/cacheinfo.c b/arch/powerpc/kernel/cacheinfo.c
+index bb37b1d..01fe9ce 100644
+--- a/arch/powerpc/kernel/cacheinfo.c
++++ b/arch/powerpc/kernel/cacheinfo.c
+@@ -642,7 +642,7 @@ static struct kobj_attribute *cache_index_opt_attrs[] = {
+       &cache_assoc_attr,
+ };
+-static struct sysfs_ops cache_index_ops = {
++static const struct sysfs_ops cache_index_ops = {
+       .show = cache_index_show,
+ };
+diff --git a/arch/powerpc/kernel/dma-iommu.c b/arch/powerpc/kernel/dma-iommu.c
+index 37771a5..648530c 100644
+--- a/arch/powerpc/kernel/dma-iommu.c
++++ b/arch/powerpc/kernel/dma-iommu.c
+@@ -70,7 +70,7 @@ static void dma_iommu_unmap_sg(struct device *dev, struct scatterlist *sglist,
+ }
+ /* We support DMA to/from any memory page via the iommu */
+-static int dma_iommu_dma_supported(struct device *dev, u64 mask)
++int dma_iommu_dma_supported(struct device *dev, u64 mask)
+ {
+       struct iommu_table *tbl = get_iommu_table_base(dev);
+diff --git a/arch/powerpc/kernel/dma-swiotlb.c b/arch/powerpc/kernel/dma-swiotlb.c
+index e96cbbd..bdd6d41 100644
+--- a/arch/powerpc/kernel/dma-swiotlb.c
++++ b/arch/powerpc/kernel/dma-swiotlb.c
+@@ -31,7 +31,7 @@ unsigned int ppc_swiotlb_enable;
+  * map_page, and unmap_page on highmem, use normal dma_ops
+  * for everything else.
+  */
+-struct dma_map_ops swiotlb_dma_ops = {
++const struct dma_map_ops swiotlb_dma_ops = {
+       .alloc_coherent = dma_direct_alloc_coherent,
+       .free_coherent = dma_direct_free_coherent,
+       .map_sg = swiotlb_map_sg_attrs,
+diff --git a/arch/powerpc/kernel/dma.c b/arch/powerpc/kernel/dma.c
+index 6215062..ebea59c 100644
+--- a/arch/powerpc/kernel/dma.c
++++ b/arch/powerpc/kernel/dma.c
+@@ -134,7 +134,7 @@ static inline void dma_direct_sync_single_range(struct device *dev,
+ }
+ #endif
+-struct dma_map_ops dma_direct_ops = {
++const struct dma_map_ops dma_direct_ops = {
+       .alloc_coherent = dma_direct_alloc_coherent,
+       .free_coherent  = dma_direct_free_coherent,
+       .map_sg         = dma_direct_map_sg,
+diff --git a/arch/powerpc/kernel/exceptions-64e.S b/arch/powerpc/kernel/exceptions-64e.S
+index 24dcc0e..a300455 100644
+--- a/arch/powerpc/kernel/exceptions-64e.S
++++ b/arch/powerpc/kernel/exceptions-64e.S
+@@ -455,6 +455,7 @@ storage_fault_common:
+       std     r14,_DAR(r1)
+       std     r15,_DSISR(r1)
+       addi    r3,r1,STACK_FRAME_OVERHEAD
++      bl      .save_nvgprs
+       mr      r4,r14
+       mr      r5,r15
+       ld      r14,PACA_EXGEN+EX_R14(r13)
+@@ -464,8 +465,7 @@ storage_fault_common:
+       cmpdi   r3,0
+       bne-    1f
+       b       .ret_from_except_lite
+-1:    bl      .save_nvgprs
+-      mr      r5,r3
++1:    mr      r5,r3
+       addi    r3,r1,STACK_FRAME_OVERHEAD
+       ld      r4,_DAR(r1)
+       bl      .bad_page_fault
+diff --git a/arch/powerpc/kernel/exceptions-64s.S b/arch/powerpc/kernel/exceptions-64s.S
+index 1808876..9fd206a 100644
+--- a/arch/powerpc/kernel/exceptions-64s.S
++++ b/arch/powerpc/kernel/exceptions-64s.S
+@@ -818,10 +818,10 @@ handle_page_fault:
+ 11:   ld      r4,_DAR(r1)
+       ld      r5,_DSISR(r1)
+       addi    r3,r1,STACK_FRAME_OVERHEAD
++      bl      .save_nvgprs
+       bl      .do_page_fault
+       cmpdi   r3,0
+       beq+    13f
+-      bl      .save_nvgprs
+       mr      r5,r3
+       addi    r3,r1,STACK_FRAME_OVERHEAD
+       lwz     r4,_DAR(r1)
+diff --git a/arch/powerpc/kernel/ibmebus.c b/arch/powerpc/kernel/ibmebus.c
+index a4c8b38..1b09ad9 100644
+--- a/arch/powerpc/kernel/ibmebus.c
++++ b/arch/powerpc/kernel/ibmebus.c
+@@ -127,7 +127,7 @@ static int ibmebus_dma_supported(struct device *dev, u64 mask)
+       return 1;
+ }
+-static struct dma_map_ops ibmebus_dma_ops = {
++static const struct dma_map_ops ibmebus_dma_ops = {
+       .alloc_coherent = ibmebus_alloc_coherent,
+       .free_coherent  = ibmebus_free_coherent,
+       .map_sg         = ibmebus_map_sg,
+diff --git a/arch/powerpc/kernel/kgdb.c b/arch/powerpc/kernel/kgdb.c
+index 641c74b..8339ad7 100644
+--- a/arch/powerpc/kernel/kgdb.c
++++ b/arch/powerpc/kernel/kgdb.c
+@@ -126,7 +126,7 @@ static int kgdb_handle_breakpoint(struct pt_regs *regs)
+       if (kgdb_handle_exception(0, SIGTRAP, 0, regs) != 0)
+               return 0;
+-      if (*(u32 *) (regs->nip) == *(u32 *) (&arch_kgdb_ops.gdb_bpt_instr))
++      if (*(u32 *) (regs->nip) == *(const u32 *) (&arch_kgdb_ops.gdb_bpt_instr))
+               regs->nip += 4;
+       return 1;
+@@ -353,7 +353,7 @@ int kgdb_arch_handle_exception(int vector, int signo, int err_code,
+ /*
+  * Global data
+  */
+-struct kgdb_arch arch_kgdb_ops = {
++const struct kgdb_arch arch_kgdb_ops = {
+       .gdb_bpt_instr = {0x7d, 0x82, 0x10, 0x08},
+ };
+diff --git a/arch/powerpc/kernel/module.c b/arch/powerpc/kernel/module.c
+index 477c663..4f50234 100644
+--- a/arch/powerpc/kernel/module.c
++++ b/arch/powerpc/kernel/module.c
+@@ -31,11 +31,24 @@
+ LIST_HEAD(module_bug_list);
++#ifdef CONFIG_PAX_KERNEXEC
+ void *module_alloc(unsigned long size)
+ {
+       if (size == 0)
+               return NULL;
++      return vmalloc(size);
++}
++
++void *module_alloc_exec(unsigned long size)
++#else
++void *module_alloc(unsigned long size)
++#endif
++
++{
++      if (size == 0)
++              return NULL;
++
+       return vmalloc_exec(size);
+ }
+@@ -45,6 +58,13 @@ void module_free(struct module *mod, void *module_region)
+       vfree(module_region);
+ }
++#ifdef CONFIG_PAX_KERNEXEC
++void module_free_exec(struct module *mod, void *module_region)
++{
++      module_free(mod, module_region);
++}
++#endif
++
+ static const Elf_Shdr *find_section(const Elf_Ehdr *hdr,
+                                   const Elf_Shdr *sechdrs,
+                                   const char *name)
+diff --git a/arch/powerpc/kernel/module_32.c b/arch/powerpc/kernel/module_32.c
+index f832773..0507238 100644
+--- a/arch/powerpc/kernel/module_32.c
++++ b/arch/powerpc/kernel/module_32.c
+@@ -162,7 +162,7 @@ int module_frob_arch_sections(Elf32_Ehdr *hdr,
+                       me->arch.core_plt_section = i;
+       }
+       if (!me->arch.core_plt_section || !me->arch.init_plt_section) {
+-              printk("Module doesn't contain .plt or .init.plt sections.\n");
++              printk("Module %s doesn't contain .plt or .init.plt sections.\n", me->name);
+               return -ENOEXEC;
+       }
+@@ -203,11 +203,16 @@ static uint32_t do_plt_call(void *location,
+       DEBUGP("Doing plt for call to 0x%x at 0x%x\n", val, (unsigned int)location);
+       /* Init, or core PLT? */
+-      if (location >= mod->module_core
+-          && location < mod->module_core + mod->core_size)
++      if ((location >= mod->module_core_rx && location < mod->module_core_rx + mod->core_size_rx) ||
++          (location >= mod->module_core_rw && location < mod->module_core_rw + mod->core_size_rw))
+               entry = (void *)sechdrs[mod->arch.core_plt_section].sh_addr;
+-      else
++      else if ((location >= mod->module_init_rx && location < mod->module_init_rx + mod->init_size_rx) ||
++               (location >= mod->module_init_rw && location < mod->module_init_rw + mod->init_size_rw))
+               entry = (void *)sechdrs[mod->arch.init_plt_section].sh_addr;
++      else {
++              printk(KERN_ERR "%s: invalid R_PPC_REL24 entry found\n", mod->name);
++              return ~0UL;
++      }
+       /* Find this entry, or if that fails, the next avail. entry */
+       while (entry->jump[0]) {
+diff --git a/arch/powerpc/kernel/pci-common.c b/arch/powerpc/kernel/pci-common.c
+index cadbed6..b9bbb00 100644
+--- a/arch/powerpc/kernel/pci-common.c
++++ b/arch/powerpc/kernel/pci-common.c
+@@ -50,14 +50,14 @@ resource_size_t isa_mem_base;
+ unsigned int ppc_pci_flags = 0;
+-static struct dma_map_ops *pci_dma_ops = &dma_direct_ops;
++static const struct dma_map_ops *pci_dma_ops = &dma_direct_ops;
+-void set_pci_dma_ops(struct dma_map_ops *dma_ops)
++void set_pci_dma_ops(const struct dma_map_ops *dma_ops)
+ {
+       pci_dma_ops = dma_ops;
+ }
+-struct dma_map_ops *get_pci_dma_ops(void)
++const struct dma_map_ops *get_pci_dma_ops(void)
+ {
+       return pci_dma_ops;
+ }
+diff --git a/arch/powerpc/kernel/process.c b/arch/powerpc/kernel/process.c
+index 7b816da..8d5c277 100644
+--- a/arch/powerpc/kernel/process.c
++++ b/arch/powerpc/kernel/process.c
+@@ -539,8 +539,8 @@ void show_regs(struct pt_regs * regs)
+        * Lookup NIP late so we have the best change of getting the
+        * above info out without failing
+        */
+-      printk("NIP ["REG"] %pS\n", regs->nip, (void *)regs->nip);
+-      printk("LR ["REG"] %pS\n", regs->link, (void *)regs->link);
++      printk("NIP ["REG"] %pA\n", regs->nip, (void *)regs->nip);
++      printk("LR ["REG"] %pA\n", regs->link, (void *)regs->link);
+ #endif
+       show_stack(current, (unsigned long *) regs->gpr[1]);
+       if (!user_mode(regs))
+@@ -1034,10 +1034,10 @@ void show_stack(struct task_struct *tsk, unsigned long *stack)
+               newsp = stack[0];
+               ip = stack[STACK_FRAME_LR_SAVE];
+               if (!firstframe || ip != lr) {
+-                      printk("["REG"] ["REG"] %pS", sp, ip, (void *)ip);
++                      printk("["REG"] ["REG"] %pA", sp, ip, (void *)ip);
+ #ifdef CONFIG_FUNCTION_GRAPH_TRACER
+                       if ((ip == rth || ip == mrth) && curr_frame >= 0) {
+-                              printk(" (%pS)",
++                              printk(" (%pA)",
+                                      (void *)current->ret_stack[curr_frame].ret);
+                               curr_frame--;
+                       }
+@@ -1057,7 +1057,7 @@ void show_stack(struct task_struct *tsk, unsigned long *stack)
+                       struct pt_regs *regs = (struct pt_regs *)
+                               (sp + STACK_FRAME_OVERHEAD);
+                       lr = regs->link;
+-                      printk("--- Exception: %lx at %pS\n    LR = %pS\n",
++                      printk("--- Exception: %lx at %pA\n    LR = %pA\n",
+                              regs->trap, (void *)regs->nip, (void *)lr);
+                       firstframe = 1;
+               }
+@@ -1134,58 +1134,3 @@ void thread_info_cache_init(void)
+ }
+ #endif /* THREAD_SHIFT < PAGE_SHIFT */
+-
+-unsigned long arch_align_stack(unsigned long sp)
+-{
+-      if (!(current->personality & ADDR_NO_RANDOMIZE) && randomize_va_space)
+-              sp -= get_random_int() & ~PAGE_MASK;
+-      return sp & ~0xf;
+-}
+-
+-static inline unsigned long brk_rnd(void)
+-{
+-        unsigned long rnd = 0;
+-
+-      /* 8MB for 32bit, 1GB for 64bit */
+-      if (is_32bit_task())
+-              rnd = (long)(get_random_int() % (1<<(23-PAGE_SHIFT)));
+-      else
+-              rnd = (long)(get_random_int() % (1<<(30-PAGE_SHIFT)));
+-
+-      return rnd << PAGE_SHIFT;
+-}
+-
+-unsigned long arch_randomize_brk(struct mm_struct *mm)
+-{
+-      unsigned long base = mm->brk;
+-      unsigned long ret;
+-
+-#ifdef CONFIG_PPC_STD_MMU_64
+-      /*
+-       * If we are using 1TB segments and we are allowed to randomise
+-       * the heap, we can put it above 1TB so it is backed by a 1TB
+-       * segment. Otherwise the heap will be in the bottom 1TB
+-       * which always uses 256MB segments and this may result in a
+-       * performance penalty.
+-       */
+-      if (!is_32bit_task() && (mmu_highuser_ssize == MMU_SEGSIZE_1T))
+-              base = max_t(unsigned long, mm->brk, 1UL << SID_SHIFT_1T);
+-#endif
+-
+-      ret = PAGE_ALIGN(base + brk_rnd());
+-
+-      if (ret < mm->brk)
+-              return mm->brk;
+-
+-      return ret;
+-}
+-
+-unsigned long randomize_et_dyn(unsigned long base)
+-{
+-      unsigned long ret = PAGE_ALIGN(base + brk_rnd());
+-
+-      if (ret < base)
+-              return base;
+-
+-      return ret;
+-}
+diff --git a/arch/powerpc/kernel/ptrace.c b/arch/powerpc/kernel/ptrace.c
+index ef14988..856c4bc 100644
+--- a/arch/powerpc/kernel/ptrace.c
++++ b/arch/powerpc/kernel/ptrace.c
+@@ -86,7 +86,7 @@ static int set_user_trap(struct task_struct *task, unsigned long trap)
+ /*
+  * Get contents of register REGNO in task TASK.
+  */
+-unsigned long ptrace_get_reg(struct task_struct *task, int regno)
++unsigned long ptrace_get_reg(struct task_struct *task, unsigned int regno)
+ {
+       if (task->thread.regs == NULL)
+               return -EIO;
+@@ -894,7 +894,7 @@ long arch_ptrace(struct task_struct *child, long request, long addr, long data)
+               CHECK_FULL_REGS(child->thread.regs);
+               if (index < PT_FPR0) {
+-                      tmp = ptrace_get_reg(child, (int) index);
++                      tmp = ptrace_get_reg(child, index);
+               } else {
+                       flush_fp_to_thread(child);
+                       tmp = ((unsigned long *)child->thread.fpr)
+diff --git a/arch/powerpc/kernel/signal_32.c b/arch/powerpc/kernel/signal_32.c
+index d670429..2bc59b2 100644
+--- a/arch/powerpc/kernel/signal_32.c
++++ b/arch/powerpc/kernel/signal_32.c
+@@ -857,7 +857,7 @@ int handle_rt_signal32(unsigned long sig, struct k_sigaction *ka,
+       /* Save user registers on the stack */
+       frame = &rt_sf->uc.uc_mcontext;
+       addr = frame;
+-      if (vdso32_rt_sigtramp && current->mm->context.vdso_base) {
++      if (vdso32_rt_sigtramp && current->mm->context.vdso_base != ~0UL) {
+               if (save_user_regs(regs, frame, 0, 1))
+                       goto badframe;
+               regs->link = current->mm->context.vdso_base + vdso32_rt_sigtramp;
+diff --git a/arch/powerpc/kernel/signal_64.c b/arch/powerpc/kernel/signal_64.c
+index 2fe6fc6..ada0d96 100644
+--- a/arch/powerpc/kernel/signal_64.c
++++ b/arch/powerpc/kernel/signal_64.c
+@@ -429,7 +429,7 @@ int handle_rt_signal64(int signr, struct k_sigaction *ka, siginfo_t *info,
+       current->thread.fpscr.val = 0;
+       /* Set up to return from userspace. */
+-      if (vdso64_rt_sigtramp && current->mm->context.vdso_base) {
++      if (vdso64_rt_sigtramp && current->mm->context.vdso_base != ~0UL) {
+               regs->link = current->mm->context.vdso_base + vdso64_rt_sigtramp;
+       } else {
+               err |= setup_trampoline(__NR_rt_sigreturn, &frame->tramp[0]);
+diff --git a/arch/powerpc/kernel/sys_ppc32.c b/arch/powerpc/kernel/sys_ppc32.c
+index b97c2d6..dd01a6a 100644
+--- a/arch/powerpc/kernel/sys_ppc32.c
++++ b/arch/powerpc/kernel/sys_ppc32.c
+@@ -563,10 +563,10 @@ asmlinkage long compat_sys_sysctl(struct __sysctl_args32 __user *args)
+       if (oldlenp) {
+               if (!error) {
+                       if (get_user(oldlen, oldlenp) ||
+-                          put_user(oldlen, (compat_size_t __user *)compat_ptr(tmp.oldlenp)))
++                          put_user(oldlen, (compat_size_t __user *)compat_ptr(tmp.oldlenp)) ||
++                          copy_to_user(args->__unused, tmp.__unused, sizeof(tmp.__unused)))
+                               error = -EFAULT;
+               }
+-              copy_to_user(args->__unused, tmp.__unused, sizeof(tmp.__unused));
+       }
+       return error;
+ }
+diff --git a/arch/powerpc/kernel/traps.c b/arch/powerpc/kernel/traps.c
+index 6f0ae1a..e4b6a56 100644
+--- a/arch/powerpc/kernel/traps.c
++++ b/arch/powerpc/kernel/traps.c
+@@ -99,6 +99,8 @@ static void pmac_backlight_unblank(void)
+ static inline void pmac_backlight_unblank(void) { }
+ #endif
++extern void gr_handle_kernel_exploit(void);
++
+ int die(const char *str, struct pt_regs *regs, long err)
+ {
+       static struct {
+@@ -168,6 +170,8 @@ int die(const char *str, struct pt_regs *regs, long err)
+       if (panic_on_oops)
+               panic("Fatal exception");
++      gr_handle_kernel_exploit();
++
+       oops_exit();
+       do_exit(err);
+diff --git a/arch/powerpc/kernel/vdso.c b/arch/powerpc/kernel/vdso.c
+index 137dc22..fe57a79 100644
+--- a/arch/powerpc/kernel/vdso.c
++++ b/arch/powerpc/kernel/vdso.c
+@@ -36,6 +36,7 @@
+ #include <asm/firmware.h>
+ #include <asm/vdso.h>
+ #include <asm/vdso_datapage.h>
++#include <asm/mman.h>
+ #include "setup.h"
+@@ -220,7 +221,7 @@ int arch_setup_additional_pages(struct linux_binprm *bprm, int uses_interp)
+       vdso_base = VDSO32_MBASE;
+ #endif
+-      current->mm->context.vdso_base = 0;
++      current->mm->context.vdso_base = ~0UL;
+       /* vDSO has a problem and was disabled, just don't "enable" it for the
+        * process
+@@ -240,7 +241,7 @@ int arch_setup_additional_pages(struct linux_binprm *bprm, int uses_interp)
+       vdso_base = get_unmapped_area(NULL, vdso_base,
+                                     (vdso_pages << PAGE_SHIFT) +
+                                     ((VDSO_ALIGNMENT - 1) & PAGE_MASK),
+-                                    0, 0);
++                                    0, MAP_PRIVATE | MAP_EXECUTABLE);
+       if (IS_ERR_VALUE(vdso_base)) {
+               rc = vdso_base;
+               goto fail_mmapsem;
+diff --git a/arch/powerpc/kernel/vio.c b/arch/powerpc/kernel/vio.c
+index 77f6421..829564a 100644
+--- a/arch/powerpc/kernel/vio.c
++++ b/arch/powerpc/kernel/vio.c
+@@ -601,11 +601,12 @@ static void vio_dma_iommu_unmap_sg(struct device *dev,
+       vio_cmo_dealloc(viodev, alloc_size);
+ }
+-struct dma_map_ops vio_dma_mapping_ops = {
++static const struct dma_map_ops vio_dma_mapping_ops = {
+       .alloc_coherent = vio_dma_iommu_alloc_coherent,
+       .free_coherent  = vio_dma_iommu_free_coherent,
+       .map_sg         = vio_dma_iommu_map_sg,
+       .unmap_sg       = vio_dma_iommu_unmap_sg,
++      .dma_supported  = dma_iommu_dma_supported,
+       .map_page       = vio_dma_iommu_map_page,
+       .unmap_page     = vio_dma_iommu_unmap_page,
+@@ -857,7 +858,6 @@ static void vio_cmo_bus_remove(struct vio_dev *viodev)
+ static void vio_cmo_set_dma_ops(struct vio_dev *viodev)
+ {
+-      vio_dma_mapping_ops.dma_supported = dma_iommu_ops.dma_supported;
+       viodev->dev.archdata.dma_ops = &vio_dma_mapping_ops;
+ }
+diff --git a/arch/powerpc/lib/usercopy_64.c b/arch/powerpc/lib/usercopy_64.c
+index 5eea6f3..5d10396 100644
+--- a/arch/powerpc/lib/usercopy_64.c
++++ b/arch/powerpc/lib/usercopy_64.c
+@@ -9,22 +9,6 @@
+ #include <linux/module.h>
+ #include <asm/uaccess.h>
+-unsigned long copy_from_user(void *to, const void __user *from, unsigned long n)
+-{
+-      if (likely(access_ok(VERIFY_READ, from, n)))
+-              n = __copy_from_user(to, from, n);
+-      else
+-              memset(to, 0, n);
+-      return n;
+-}
+-
+-unsigned long copy_to_user(void __user *to, const void *from, unsigned long n)
+-{
+-      if (likely(access_ok(VERIFY_WRITE, to, n)))
+-              n = __copy_to_user(to, from, n);
+-      return n;
+-}
+-
+ unsigned long copy_in_user(void __user *to, const void __user *from,
+                          unsigned long n)
+ {
+@@ -35,7 +19,5 @@ unsigned long copy_in_user(void __user *to, const void __user *from,
+       return n;
+ }
+-EXPORT_SYMBOL(copy_from_user);
+-EXPORT_SYMBOL(copy_to_user);
+ EXPORT_SYMBOL(copy_in_user);
+diff --git a/arch/powerpc/mm/fault.c b/arch/powerpc/mm/fault.c
+index e7dae82..877ce0d 100644
+--- a/arch/powerpc/mm/fault.c
++++ b/arch/powerpc/mm/fault.c
+@@ -30,6 +30,10 @@
+ #include <linux/kprobes.h>
+ #include <linux/kdebug.h>
+ #include <linux/perf_event.h>
++#include <linux/slab.h>
++#include <linux/pagemap.h>
++#include <linux/compiler.h>
++#include <linux/unistd.h>
+ #include <asm/firmware.h>
+ #include <asm/page.h>
+@@ -40,6 +44,7 @@
+ #include <asm/uaccess.h>
+ #include <asm/tlbflush.h>
+ #include <asm/siginfo.h>
++#include <asm/ptrace.h>
+ #ifdef CONFIG_KPROBES
+@@ -64,6 +69,33 @@ static inline int notify_page_fault(struct pt_regs *regs)
+ }
+ #endif
++#ifdef CONFIG_PAX_PAGEEXEC
++/*
++ * PaX: decide what to do with offenders (regs->nip = fault address)
++ *
++ * returns 1 when task should be killed
++ */
++static int pax_handle_fetch_fault(struct pt_regs *regs)
++{
++      return 1;
++}
++
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 5; i++) {
++              unsigned int c;
++              if (get_user(c, (unsigned int __user *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08x ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ /*
+  * Check whether the instruction at regs->nip is a store using
+  * an update addressing form which will update r1.
+@@ -134,7 +166,7 @@ int __kprobes do_page_fault(struct pt_regs *regs, unsigned long address,
+        * indicate errors in DSISR but can validly be set in SRR1.
+        */
+       if (trap == 0x400)
+-              error_code &= 0x48200000;
++              error_code &= 0x58200000;
+       else
+               is_write = error_code & DSISR_ISSTORE;
+ #else
+@@ -250,7 +282,7 @@ good_area:
+          * "undefined".  Of those that can be set, this is the only
+          * one which seems bad.
+          */
+-      if (error_code & 0x10000000)
++      if (error_code & DSISR_GUARDED)
+                 /* Guarded storage error. */
+               goto bad_area;
+ #endif /* CONFIG_8xx */
+@@ -265,7 +297,7 @@ good_area:
+                * processors use the same I/D cache coherency mechanism
+                * as embedded.
+                */
+-              if (error_code & DSISR_PROTFAULT)
++              if (error_code & (DSISR_PROTFAULT | DSISR_GUARDED))
+                       goto bad_area;
+ #endif /* CONFIG_PPC_STD_MMU */
+@@ -335,6 +367,23 @@ bad_area:
+ bad_area_nosemaphore:
+       /* User mode accesses cause a SIGSEGV */
+       if (user_mode(regs)) {
++
++#ifdef CONFIG_PAX_PAGEEXEC
++              if (mm->pax_flags & MF_PAX_PAGEEXEC) {
++#ifdef CONFIG_PPC_STD_MMU
++                      if (is_exec && (error_code & (DSISR_PROTFAULT | DSISR_GUARDED))) {
++#else
++                      if (is_exec && regs->nip == address) {
++#endif
++                              switch (pax_handle_fetch_fault(regs)) {
++                              }
++
++                              pax_report_fault(regs, (void *)regs->nip, (void *)regs->gpr[PT_R1]);
++                              do_group_exit(SIGKILL);
++                      }
++              }
++#endif
++
+               _exception(SIGSEGV, regs, code, address);
+               return 0;
+       }
+diff --git a/arch/powerpc/mm/mem.c b/arch/powerpc/mm/mem.c
+index 5973631..ad617af 100644
+--- a/arch/powerpc/mm/mem.c
++++ b/arch/powerpc/mm/mem.c
+@@ -250,7 +250,7 @@ static int __init mark_nonram_nosave(void)
+ {
+       unsigned long lmb_next_region_start_pfn,
+                     lmb_region_max_pfn;
+-      int i;
++      unsigned int i;
+       for (i = 0; i < lmb.memory.cnt - 1; i++) {
+               lmb_region_max_pfn =
+diff --git a/arch/powerpc/mm/mmap_64.c b/arch/powerpc/mm/mmap_64.c
+index 0d957a4..26d968f 100644
+--- a/arch/powerpc/mm/mmap_64.c
++++ b/arch/powerpc/mm/mmap_64.c
+@@ -99,10 +99,22 @@ void arch_pick_mmap_layout(struct mm_struct *mm)
+        */
+       if (mmap_is_legacy()) {
+               mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base += mm->delta_mmap;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area;
+               mm->unmap_area = arch_unmap_area;
+       } else {
+               mm->mmap_base = mmap_base();
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base -= mm->delta_mmap + mm->delta_stack;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area_topdown;
+               mm->unmap_area = arch_unmap_area_topdown;
+       }
+diff --git a/arch/powerpc/mm/slice.c b/arch/powerpc/mm/slice.c
+index ba51948..23009d9 100644
+--- a/arch/powerpc/mm/slice.c
++++ b/arch/powerpc/mm/slice.c
+@@ -98,7 +98,7 @@ static int slice_area_is_free(struct mm_struct *mm, unsigned long addr,
+       if ((mm->task_size - len) < addr)
+               return 0;
+       vma = find_vma(mm, addr);
+-      return (!vma || (addr + len) <= vma->vm_start);
++      return check_heap_stack_gap(vma, addr, len);
+ }
+ static int slice_low_has_vma(struct mm_struct *mm, unsigned long slice)
+@@ -256,7 +256,7 @@ full_search:
+                               addr = _ALIGN_UP(addr + 1,  1ul << SLICE_HIGH_SHIFT);
+                       continue;
+               }
+-              if (!vma || addr + len <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr, len)) {
+                       /*
+                        * Remember the place where we stopped the search:
+                        */
+@@ -313,10 +313,14 @@ static unsigned long slice_find_area_topdown(struct mm_struct *mm,
+               }
+       }
+-      addr = mm->mmap_base;
+-      while (addr > len) {
++      if (mm->mmap_base < len)
++              addr = -ENOMEM;
++      else
++              addr = mm->mmap_base - len;
++
++      while (!IS_ERR_VALUE(addr)) {
+               /* Go down by chunk size */
+-              addr = _ALIGN_DOWN(addr - len, 1ul << pshift);
++              addr = _ALIGN_DOWN(addr, 1ul << pshift);
+               /* Check for hit with different page size */
+               mask = slice_range_to_mask(addr, len);
+@@ -336,7 +340,7 @@ static unsigned long slice_find_area_topdown(struct mm_struct *mm,
+                * return with success:
+                */
+               vma = find_vma(mm, addr);
+-              if (!vma || (addr + len) <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr, len)) {
+                       /* remember the address as a hint for next time */
+                       if (use_cache)
+                               mm->free_area_cache = addr;
+@@ -348,7 +352,7 @@ static unsigned long slice_find_area_topdown(struct mm_struct *mm,
+                       mm->cached_hole_size = vma->vm_start - addr;
+               /* try just below the current vma->vm_start */
+-              addr = vma->vm_start;
++              addr = skip_heap_stack_gap(vma, len);
+       }
+       /*
+@@ -426,6 +430,11 @@ unsigned long slice_get_unmapped_area(unsigned long addr, unsigned long len,
+       if (fixed && addr > (mm->task_size - len))
+               return -EINVAL;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!fixed && (mm->pax_flags & MF_PAX_RANDMMAP))
++              addr = 0;
++#endif
++
+       /* If hint, make sure it matches our alignment restrictions */
+       if (!fixed && addr) {
+               addr = _ALIGN_UP(addr, 1ul << pshift);
+diff --git a/arch/powerpc/platforms/52xx/lite5200_pm.c b/arch/powerpc/platforms/52xx/lite5200_pm.c
+index b5c753d..8f01abe 100644
+--- a/arch/powerpc/platforms/52xx/lite5200_pm.c
++++ b/arch/powerpc/platforms/52xx/lite5200_pm.c
+@@ -235,7 +235,7 @@ static void lite5200_pm_end(void)
+       lite5200_pm_target_state = PM_SUSPEND_ON;
+ }
+-static struct platform_suspend_ops lite5200_pm_ops = {
++static const struct platform_suspend_ops lite5200_pm_ops = {
+       .valid          = lite5200_pm_valid,
+       .begin          = lite5200_pm_begin,
+       .prepare        = lite5200_pm_prepare,
+diff --git a/arch/powerpc/platforms/52xx/mpc52xx_pm.c b/arch/powerpc/platforms/52xx/mpc52xx_pm.c
+index a55b0b6..478c18e 100644
+--- a/arch/powerpc/platforms/52xx/mpc52xx_pm.c
++++ b/arch/powerpc/platforms/52xx/mpc52xx_pm.c
+@@ -180,7 +180,7 @@ void mpc52xx_pm_finish(void)
+       iounmap(mbar);
+ }
+-static struct platform_suspend_ops mpc52xx_pm_ops = {
++static const struct platform_suspend_ops mpc52xx_pm_ops = {
+       .valid          = mpc52xx_pm_valid,
+       .prepare        = mpc52xx_pm_prepare,
+       .enter          = mpc52xx_pm_enter,
+diff --git a/arch/powerpc/platforms/83xx/suspend.c b/arch/powerpc/platforms/83xx/suspend.c
+index 08e65fc..643d3ac 100644
+--- a/arch/powerpc/platforms/83xx/suspend.c
++++ b/arch/powerpc/platforms/83xx/suspend.c
+@@ -273,7 +273,7 @@ static int mpc83xx_is_pci_agent(void)
+       return ret;
+ }
+-static struct platform_suspend_ops mpc83xx_suspend_ops = {
++static const struct platform_suspend_ops mpc83xx_suspend_ops = {
+       .valid = mpc83xx_suspend_valid,
+       .begin = mpc83xx_suspend_begin,
+       .enter = mpc83xx_suspend_enter,
+diff --git a/arch/powerpc/platforms/cell/iommu.c b/arch/powerpc/platforms/cell/iommu.c
+index ca5bfdf..1602e09 100644
+--- a/arch/powerpc/platforms/cell/iommu.c
++++ b/arch/powerpc/platforms/cell/iommu.c
+@@ -642,7 +642,7 @@ static int dma_fixed_dma_supported(struct device *dev, u64 mask)
+ static int dma_set_mask_and_switch(struct device *dev, u64 dma_mask);
+-struct dma_map_ops dma_iommu_fixed_ops = {
++const struct dma_map_ops dma_iommu_fixed_ops = {
+       .alloc_coherent = dma_fixed_alloc_coherent,
+       .free_coherent  = dma_fixed_free_coherent,
+       .map_sg         = dma_fixed_map_sg,
+diff --git a/arch/powerpc/platforms/ps3/system-bus.c b/arch/powerpc/platforms/ps3/system-bus.c
+index e34b305..20e48ec 100644
+--- a/arch/powerpc/platforms/ps3/system-bus.c
++++ b/arch/powerpc/platforms/ps3/system-bus.c
+@@ -694,7 +694,7 @@ static int ps3_dma_supported(struct device *_dev, u64 mask)
+       return mask >= DMA_BIT_MASK(32);
+ }
+-static struct dma_map_ops ps3_sb_dma_ops = {
++static const struct dma_map_ops ps3_sb_dma_ops = {
+       .alloc_coherent = ps3_alloc_coherent,
+       .free_coherent = ps3_free_coherent,
+       .map_sg = ps3_sb_map_sg,
+@@ -704,7 +704,7 @@ static struct dma_map_ops ps3_sb_dma_ops = {
+       .unmap_page = ps3_unmap_page,
+ };
+-static struct dma_map_ops ps3_ioc0_dma_ops = {
++static const struct dma_map_ops ps3_ioc0_dma_ops = {
+       .alloc_coherent = ps3_alloc_coherent,
+       .free_coherent = ps3_free_coherent,
+       .map_sg = ps3_ioc0_map_sg,
+diff --git a/arch/powerpc/platforms/pseries/Kconfig b/arch/powerpc/platforms/pseries/Kconfig
+index f0e6f28..60d53ed 100644
+--- a/arch/powerpc/platforms/pseries/Kconfig
++++ b/arch/powerpc/platforms/pseries/Kconfig
+@@ -2,6 +2,8 @@ config PPC_PSERIES
+       depends on PPC64 && PPC_BOOK3S
+       bool "IBM pSeries & new (POWER5-based) iSeries"
+       select MPIC
++      select PCI_MSI
++      select XICS
+       select PPC_I8259
+       select PPC_RTAS
+       select RTAS_ERROR_LOGGING
+diff --git a/arch/s390/Kconfig b/arch/s390/Kconfig
+index 43c0aca..42c045b 100644
+--- a/arch/s390/Kconfig
++++ b/arch/s390/Kconfig
+@@ -194,28 +194,26 @@ config AUDIT_ARCH
+ config S390_SWITCH_AMODE
+       bool "Switch kernel/user addressing modes"
++      default y
+       help
+         This option allows to switch the addressing modes of kernel and user
+-        space. The kernel parameter switch_amode=on will enable this feature,
+-        default is disabled. Enabling this (via kernel parameter) on machines
+-        earlier than IBM System z9-109 EC/BC will reduce system performance.
++        space.  Enabling this on machines earlier than IBM System z9-109 EC/BC
++        will reduce system performance.
+         Note that this option will also be selected by selecting the execute
+-        protection option below. Enabling the execute protection via the
+-        noexec kernel parameter will also switch the addressing modes,
+-        independent of the switch_amode kernel parameter.
++        protection option below. Enabling the execute protection will also
++        switch the addressing modes, independent of this option.
+ config S390_EXEC_PROTECT
+       bool "Data execute protection"
++      default y
+       select S390_SWITCH_AMODE
+       help
+         This option allows to enable a buffer overflow protection for user
+         space programs and it also selects the addressing mode option above.
+-        The kernel parameter noexec=on will enable this feature and also
+-        switch the addressing modes, default is disabled. Enabling this (via
+-        kernel parameter) on machines earlier than IBM System z9-109 EC/BC
+-        will reduce system performance.
++        Enabling this on machines earlier than IBM System z9-109 EC/BC will
++        reduce system performance.
+ comment "Code generation options"
+diff --git a/arch/s390/include/asm/elf.h b/arch/s390/include/asm/elf.h
+index e885442..5e6c303 100644
+--- a/arch/s390/include/asm/elf.h
++++ b/arch/s390/include/asm/elf.h
+@@ -164,6 +164,13 @@ extern unsigned int vdso_enabled;
+    that it will "exec", and that there is sufficient room for the brk.  */
+ #define ELF_ET_DYN_BASE               (STACK_TOP / 3 * 2)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (test_thread_flag(TIF_31BIT) ? 0x10000UL : 0x80000000UL)
++
++#define PAX_DELTA_MMAP_LEN    (test_thread_flag(TIF_31BIT) ? 15 : 26 )
++#define PAX_DELTA_STACK_LEN   (test_thread_flag(TIF_31BIT) ? 15 : 26 )
++#endif
++
+ /* This yields a mask that user programs can use to figure out what
+    instruction set this CPU supports. */
+diff --git a/arch/s390/include/asm/setup.h b/arch/s390/include/asm/setup.h
+index e37478e..9ce0e9f 100644
+--- a/arch/s390/include/asm/setup.h
++++ b/arch/s390/include/asm/setup.h
+@@ -50,13 +50,13 @@ extern unsigned long memory_end;
+ void detect_memory_layout(struct mem_chunk chunk[]);
+ #ifdef CONFIG_S390_SWITCH_AMODE
+-extern unsigned int switch_amode;
++#define switch_amode  (1)
+ #else
+ #define switch_amode  (0)
+ #endif
+ #ifdef CONFIG_S390_EXEC_PROTECT
+-extern unsigned int s390_noexec;
++#define s390_noexec   (1)
+ #else
+ #define s390_noexec   (0)
+ #endif
+diff --git a/arch/s390/include/asm/uaccess.h b/arch/s390/include/asm/uaccess.h
+index 8377e91..e28e6f1 100644
+--- a/arch/s390/include/asm/uaccess.h
++++ b/arch/s390/include/asm/uaccess.h
+@@ -232,6 +232,10 @@ static inline unsigned long __must_check
+ copy_to_user(void __user *to, const void *from, unsigned long n)
+ {
+       might_fault();
++
++      if ((long)n < 0)
++              return n;
++
+       if (access_ok(VERIFY_WRITE, to, n))
+               n = __copy_to_user(to, from, n);
+       return n;
+@@ -257,6 +261,9 @@ copy_to_user(void __user *to, const void *from, unsigned long n)
+ static inline unsigned long __must_check
+ __copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
+       if (__builtin_constant_p(n) && (n <= 256))
+               return uaccess.copy_from_user_small(n, from, to);
+       else
+@@ -283,6 +290,10 @@ static inline unsigned long __must_check
+ copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
+       might_fault();
++
++      if ((long)n < 0)
++              return n;
++
+       if (access_ok(VERIFY_READ, from, n))
+               n = __copy_from_user(to, from, n);
+       else
+diff --git a/arch/s390/kernel/module.c b/arch/s390/kernel/module.c
+index 639380a..72e3c02 100644
+--- a/arch/s390/kernel/module.c
++++ b/arch/s390/kernel/module.c
+@@ -166,11 +166,11 @@ module_frob_arch_sections(Elf_Ehdr *hdr, Elf_Shdr *sechdrs,
+       /* Increase core size by size of got & plt and set start
+          offsets for got and plt. */
+-      me->core_size = ALIGN(me->core_size, 4);
+-      me->arch.got_offset = me->core_size;
+-      me->core_size += me->arch.got_size;
+-      me->arch.plt_offset = me->core_size;
+-      me->core_size += me->arch.plt_size;
++      me->core_size_rw = ALIGN(me->core_size_rw, 4);
++      me->arch.got_offset = me->core_size_rw;
++      me->core_size_rw += me->arch.got_size;
++      me->arch.plt_offset = me->core_size_rx;
++      me->core_size_rx += me->arch.plt_size;
+       return 0;
+ }
+@@ -256,7 +256,7 @@ apply_rela(Elf_Rela *rela, Elf_Addr base, Elf_Sym *symtab,
+               if (info->got_initialized == 0) {
+                       Elf_Addr *gotent;
+-                      gotent = me->module_core + me->arch.got_offset +
++                      gotent = me->module_core_rw + me->arch.got_offset +
+                               info->got_offset;
+                       *gotent = val;
+                       info->got_initialized = 1;
+@@ -280,7 +280,7 @@ apply_rela(Elf_Rela *rela, Elf_Addr base, Elf_Sym *symtab,
+               else if (r_type == R_390_GOTENT ||
+                        r_type == R_390_GOTPLTENT)
+                       *(unsigned int *) loc =
+-                              (val + (Elf_Addr) me->module_core - loc) >> 1;
++                              (val + (Elf_Addr) me->module_core_rw - loc) >> 1;
+               else if (r_type == R_390_GOT64 ||
+                        r_type == R_390_GOTPLT64)
+                       *(unsigned long *) loc = val;
+@@ -294,7 +294,7 @@ apply_rela(Elf_Rela *rela, Elf_Addr base, Elf_Sym *symtab,
+       case R_390_PLTOFF64:    /* 16 bit offset from GOT to PLT. */
+               if (info->plt_initialized == 0) {
+                       unsigned int *ip;
+-                      ip = me->module_core + me->arch.plt_offset +
++                      ip = me->module_core_rx + me->arch.plt_offset +
+                               info->plt_offset;
+ #ifndef CONFIG_64BIT
+                       ip[0] = 0x0d105810; /* basr 1,0; l 1,6(1); br 1 */
+@@ -319,7 +319,7 @@ apply_rela(Elf_Rela *rela, Elf_Addr base, Elf_Sym *symtab,
+                              val - loc + 0xffffUL < 0x1ffffeUL) ||
+                             (r_type == R_390_PLT32DBL &&
+                              val - loc + 0xffffffffULL < 0x1fffffffeULL)))
+-                              val = (Elf_Addr) me->module_core +
++                              val = (Elf_Addr) me->module_core_rx +
+                                       me->arch.plt_offset +
+                                       info->plt_offset;
+                       val += rela->r_addend - loc;
+@@ -341,7 +341,7 @@ apply_rela(Elf_Rela *rela, Elf_Addr base, Elf_Sym *symtab,
+       case R_390_GOTOFF32:    /* 32 bit offset to GOT.  */
+       case R_390_GOTOFF64:    /* 64 bit offset to GOT. */
+               val = val + rela->r_addend -
+-                      ((Elf_Addr) me->module_core + me->arch.got_offset);
++                      ((Elf_Addr) me->module_core_rw + me->arch.got_offset);
+               if (r_type == R_390_GOTOFF16)
+                       *(unsigned short *) loc = val;
+               else if (r_type == R_390_GOTOFF32)
+@@ -351,7 +351,7 @@ apply_rela(Elf_Rela *rela, Elf_Addr base, Elf_Sym *symtab,
+               break;
+       case R_390_GOTPC:       /* 32 bit PC relative offset to GOT. */
+       case R_390_GOTPCDBL:    /* 32 bit PC rel. off. to GOT shifted by 1. */
+-              val = (Elf_Addr) me->module_core + me->arch.got_offset +
++              val = (Elf_Addr) me->module_core_rw + me->arch.got_offset +
+                       rela->r_addend - loc;
+               if (r_type == R_390_GOTPC)
+                       *(unsigned int *) loc = val;
+diff --git a/arch/s390/kernel/setup.c b/arch/s390/kernel/setup.c
+index 061479f..dbfb08c 100644
+--- a/arch/s390/kernel/setup.c
++++ b/arch/s390/kernel/setup.c
+@@ -306,9 +306,6 @@ static int __init early_parse_mem(char *p)
+ early_param("mem", early_parse_mem);
+ #ifdef CONFIG_S390_SWITCH_AMODE
+-unsigned int switch_amode = 0;
+-EXPORT_SYMBOL_GPL(switch_amode);
+-
+ static int set_amode_and_uaccess(unsigned long user_amode,
+                                unsigned long user32_amode)
+ {
+@@ -334,17 +331,6 @@ static int set_amode_and_uaccess(unsigned long user_amode,
+               return 0;
+       }
+ }
+-
+-/*
+- * Switch kernel/user addressing modes?
+- */
+-static int __init early_parse_switch_amode(char *p)
+-{
+-      switch_amode = 1;
+-      return 0;
+-}
+-early_param("switch_amode", early_parse_switch_amode);
+-
+ #else /* CONFIG_S390_SWITCH_AMODE */
+ static inline int set_amode_and_uaccess(unsigned long user_amode,
+                                       unsigned long user32_amode)
+@@ -353,24 +339,6 @@ static inline int set_amode_and_uaccess(unsigned long user_amode,
+ }
+ #endif /* CONFIG_S390_SWITCH_AMODE */
+-#ifdef CONFIG_S390_EXEC_PROTECT
+-unsigned int s390_noexec = 0;
+-EXPORT_SYMBOL_GPL(s390_noexec);
+-
+-/*
+- * Enable execute protection?
+- */
+-static int __init early_parse_noexec(char *p)
+-{
+-      if (!strncmp(p, "off", 3))
+-              return 0;
+-      switch_amode = 1;
+-      s390_noexec = 1;
+-      return 0;
+-}
+-early_param("noexec", early_parse_noexec);
+-#endif /* CONFIG_S390_EXEC_PROTECT */
+-
+ static void setup_addressing_mode(void)
+ {
+       if (s390_noexec) {
+diff --git a/arch/s390/mm/mmap.c b/arch/s390/mm/mmap.c
+index f4558cc..e461f37 100644
+--- a/arch/s390/mm/mmap.c
++++ b/arch/s390/mm/mmap.c
+@@ -78,10 +78,22 @@ void arch_pick_mmap_layout(struct mm_struct *mm)
+        */
+       if (mmap_is_legacy()) {
+               mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base += mm->delta_mmap;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area;
+               mm->unmap_area = arch_unmap_area;
+       } else {
+               mm->mmap_base = mmap_base();
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base -= mm->delta_mmap + mm->delta_stack;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area_topdown;
+               mm->unmap_area = arch_unmap_area_topdown;
+       }
+@@ -153,10 +165,22 @@ void arch_pick_mmap_layout(struct mm_struct *mm)
+        */
+       if (mmap_is_legacy()) {
+               mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base += mm->delta_mmap;
++#endif
++
+               mm->get_unmapped_area = s390_get_unmapped_area;
+               mm->unmap_area = arch_unmap_area;
+       } else {
+               mm->mmap_base = mmap_base();
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base -= mm->delta_mmap + mm->delta_stack;
++#endif
++
+               mm->get_unmapped_area = s390_get_unmapped_area_topdown;
+               mm->unmap_area = arch_unmap_area_topdown;
+       }
+diff --git a/arch/score/include/asm/system.h b/arch/score/include/asm/system.h
+index 589d5c7..669e274 100644
+--- a/arch/score/include/asm/system.h
++++ b/arch/score/include/asm/system.h
+@@ -17,7 +17,7 @@ do {                                                         \
+ #define finish_arch_switch(prev)      do {} while (0)
+ typedef void (*vi_handler_t)(void);
+-extern unsigned long arch_align_stack(unsigned long sp);
++#define arch_align_stack(x) (x)
+ #define mb()          barrier()
+ #define rmb()         barrier()
+diff --git a/arch/score/kernel/process.c b/arch/score/kernel/process.c
+index 25d0803..d6c8e36 100644
+--- a/arch/score/kernel/process.c
++++ b/arch/score/kernel/process.c
+@@ -161,8 +161,3 @@ unsigned long get_wchan(struct task_struct *task)
+       return task_pt_regs(task)->cp0_epc;
+ }
+-
+-unsigned long arch_align_stack(unsigned long sp)
+-{
+-      return sp;
+-}
+diff --git a/arch/sh/boards/mach-hp6xx/pm.c b/arch/sh/boards/mach-hp6xx/pm.c
+index d936c1a..304a252 100644
+--- a/arch/sh/boards/mach-hp6xx/pm.c
++++ b/arch/sh/boards/mach-hp6xx/pm.c
+@@ -143,7 +143,7 @@ static int hp6x0_pm_enter(suspend_state_t state)
+       return 0;
+ }
+-static struct platform_suspend_ops hp6x0_pm_ops = {
++static const struct platform_suspend_ops hp6x0_pm_ops = {
+       .enter          = hp6x0_pm_enter,
+       .valid          = suspend_valid_only_mem,
+ };
+diff --git a/arch/sh/kernel/cpu/sh4/sq.c b/arch/sh/kernel/cpu/sh4/sq.c
+index 8a8a993..7b3079b 100644
+--- a/arch/sh/kernel/cpu/sh4/sq.c
++++ b/arch/sh/kernel/cpu/sh4/sq.c
+@@ -327,7 +327,7 @@ static struct attribute *sq_sysfs_attrs[] = {
+       NULL,
+ };
+-static struct sysfs_ops sq_sysfs_ops = {
++static const struct sysfs_ops sq_sysfs_ops = {
+       .show   = sq_sysfs_show,
+       .store  = sq_sysfs_store,
+ };
+diff --git a/arch/sh/kernel/cpu/shmobile/pm.c b/arch/sh/kernel/cpu/shmobile/pm.c
+index ee3c2aa..c49cee6 100644
+--- a/arch/sh/kernel/cpu/shmobile/pm.c
++++ b/arch/sh/kernel/cpu/shmobile/pm.c
+@@ -58,7 +58,7 @@ static int sh_pm_enter(suspend_state_t state)
+       return 0;
+ }
+-static struct platform_suspend_ops sh_pm_ops = {
++static const struct platform_suspend_ops sh_pm_ops = {
+       .enter          = sh_pm_enter,
+       .valid          = suspend_valid_only_mem,
+ };
+diff --git a/arch/sh/kernel/kgdb.c b/arch/sh/kernel/kgdb.c
+index 3e532d0..9faa306 100644
+--- a/arch/sh/kernel/kgdb.c
++++ b/arch/sh/kernel/kgdb.c
+@@ -271,7 +271,7 @@ void kgdb_arch_exit(void)
+ {
+ }
+-struct kgdb_arch arch_kgdb_ops = {
++const struct kgdb_arch arch_kgdb_ops = {
+       /* Breakpoint instruction: trapa #0x3c */
+ #ifdef CONFIG_CPU_LITTLE_ENDIAN
+       .gdb_bpt_instr          = { 0x3c, 0xc3 },
+diff --git a/arch/sh/mm/mmap.c b/arch/sh/mm/mmap.c
+index afeb710..d1d1289 100644
+--- a/arch/sh/mm/mmap.c
++++ b/arch/sh/mm/mmap.c
+@@ -74,8 +74,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr,
+                       addr = PAGE_ALIGN(addr);
+               vma = find_vma(mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (TASK_SIZE - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+@@ -106,7 +105,7 @@ full_search:
+                       }
+                       return -ENOMEM;
+               }
+-              if (likely(!vma || addr + len <= vma->vm_start)) {
++              if (likely(check_heap_stack_gap(vma, addr, len))) {
+                       /*
+                        * Remember the place where we stopped the search:
+                        */
+@@ -157,8 +156,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                       addr = PAGE_ALIGN(addr);
+               vma = find_vma(mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (TASK_SIZE - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+@@ -179,7 +177,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       /* make sure it can fit in the remaining address space */
+       if (likely(addr > len)) {
+               vma = find_vma(mm, addr-len);
+-              if (!vma || addr <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr - len, len)) {
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr-len);
+               }
+@@ -188,18 +186,18 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       if (unlikely(mm->mmap_base < len))
+               goto bottomup;
+-      addr = mm->mmap_base-len;
+-      if (do_colour_align)
+-              addr = COLOUR_ALIGN_DOWN(addr, pgoff);
++      addr = mm->mmap_base - len;
+       do {
++              if (do_colour_align)
++                      addr = COLOUR_ALIGN_DOWN(addr, pgoff);
+               /*
+                * Lookup failure means no vma is above this address,
+                * else if new region fits below vma->vm_start,
+                * return with success:
+                */
+               vma = find_vma(mm, addr);
+-              if (likely(!vma || addr+len <= vma->vm_start)) {
++              if (likely(check_heap_stack_gap(vma, addr, len))) {
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr);
+               }
+@@ -209,10 +207,8 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                       mm->cached_hole_size = vma->vm_start - addr;
+               /* try just below the current vma->vm_start */
+-              addr = vma->vm_start-len;
+-              if (do_colour_align)
+-                      addr = COLOUR_ALIGN_DOWN(addr, pgoff);
+-      } while (likely(len < vma->vm_start));
++              addr = skip_heap_stack_gap(vma, len);
++      } while (!IS_ERR_VALUE(addr));
+ bottomup:
+       /*
+diff --git a/arch/sparc/Makefile b/arch/sparc/Makefile
+index 113225b..7fd04e7 100644
+--- a/arch/sparc/Makefile
++++ b/arch/sparc/Makefile
+@@ -75,7 +75,7 @@ drivers-$(CONFIG_OPROFILE)   += arch/sparc/oprofile/
+ # Export what is needed by arch/sparc/boot/Makefile
+ export VMLINUX_INIT VMLINUX_MAIN
+ VMLINUX_INIT := $(head-y) $(init-y)
+-VMLINUX_MAIN := $(core-y) kernel/ mm/ fs/ ipc/ security/ crypto/ block/
++VMLINUX_MAIN := $(core-y) kernel/ mm/ fs/ ipc/ security/ crypto/ block/ grsecurity/
+ VMLINUX_MAIN += $(patsubst %/, %/lib.a, $(libs-y)) $(libs-y)
+ VMLINUX_MAIN += $(drivers-y) $(net-y)
+diff --git a/arch/sparc/include/asm/atomic_64.h b/arch/sparc/include/asm/atomic_64.h
+index f5cc06f..f858d47 100644
+--- a/arch/sparc/include/asm/atomic_64.h
++++ b/arch/sparc/include/asm/atomic_64.h
+@@ -14,18 +14,40 @@
+ #define ATOMIC64_INIT(i)      { (i) }
+ #define atomic_read(v)                ((v)->counter)
++static inline int atomic_read_unchecked(const atomic_unchecked_t *v)
++{
++      return v->counter;
++}
+ #define atomic64_read(v)      ((v)->counter)
++static inline long atomic64_read_unchecked(const atomic64_unchecked_t *v)
++{
++      return v->counter;
++}
+ #define atomic_set(v, i)      (((v)->counter) = i)
++static inline void atomic_set_unchecked(atomic_unchecked_t *v, int i)
++{
++      v->counter = i;
++}
+ #define atomic64_set(v, i)    (((v)->counter) = i)
++static inline void atomic64_set_unchecked(atomic64_unchecked_t *v, long i)
++{
++      v->counter = i;
++}
+ extern void atomic_add(int, atomic_t *);
++extern void atomic_add_unchecked(int, atomic_unchecked_t *);
+ extern void atomic64_add(long, atomic64_t *);
++extern void atomic64_add_unchecked(long, atomic64_unchecked_t *);
+ extern void atomic_sub(int, atomic_t *);
++extern void atomic_sub_unchecked(int, atomic_unchecked_t *);
+ extern void atomic64_sub(long, atomic64_t *);
++extern void atomic64_sub_unchecked(long, atomic64_unchecked_t *);
+ extern int atomic_add_ret(int, atomic_t *);
++extern int atomic_add_ret_unchecked(int, atomic_unchecked_t *);
+ extern long atomic64_add_ret(long, atomic64_t *);
++extern long atomic64_add_ret_unchecked(long, atomic64_unchecked_t *);
+ extern int atomic_sub_ret(int, atomic_t *);
+ extern long atomic64_sub_ret(long, atomic64_t *);
+@@ -33,13 +55,29 @@ extern long atomic64_sub_ret(long, atomic64_t *);
+ #define atomic64_dec_return(v) atomic64_sub_ret(1, v)
+ #define atomic_inc_return(v) atomic_add_ret(1, v)
++static inline int atomic_inc_return_unchecked(atomic_unchecked_t *v)
++{
++      return atomic_add_ret_unchecked(1, v);
++}
+ #define atomic64_inc_return(v) atomic64_add_ret(1, v)
++static inline long atomic64_inc_return_unchecked(atomic64_unchecked_t *v)
++{
++      return atomic64_add_ret_unchecked(1, v);
++}
+ #define atomic_sub_return(i, v) atomic_sub_ret(i, v)
+ #define atomic64_sub_return(i, v) atomic64_sub_ret(i, v)
+ #define atomic_add_return(i, v) atomic_add_ret(i, v)
++static inline int atomic_add_return_unchecked(int i, atomic_unchecked_t *v)
++{
++      return atomic_add_ret_unchecked(i, v);
++}
+ #define atomic64_add_return(i, v) atomic64_add_ret(i, v)
++static inline long atomic64_add_return_unchecked(long i, atomic64_unchecked_t *v)
++{
++      return atomic64_add_ret_unchecked(i, v);
++}
+ /*
+  * atomic_inc_and_test - increment and test
+@@ -50,6 +88,10 @@ extern long atomic64_sub_ret(long, atomic64_t *);
+  * other cases.
+  */
+ #define atomic_inc_and_test(v) (atomic_inc_return(v) == 0)
++static inline int atomic_inc_and_test_unchecked(atomic_unchecked_t *v)
++{
++      return atomic_inc_return_unchecked(v) == 0;
++}
+ #define atomic64_inc_and_test(v) (atomic64_inc_return(v) == 0)
+ #define atomic_sub_and_test(i, v) (atomic_sub_ret(i, v) == 0)
+@@ -59,30 +101,65 @@ extern long atomic64_sub_ret(long, atomic64_t *);
+ #define atomic64_dec_and_test(v) (atomic64_sub_ret(1, v) == 0)
+ #define atomic_inc(v) atomic_add(1, v)
++static inline void atomic_inc_unchecked(atomic_unchecked_t *v)
++{
++      atomic_add_unchecked(1, v);
++}
+ #define atomic64_inc(v) atomic64_add(1, v)
++static inline void atomic64_inc_unchecked(atomic64_unchecked_t *v)
++{
++      atomic64_add_unchecked(1, v);
++}
+ #define atomic_dec(v) atomic_sub(1, v)
++static inline void atomic_dec_unchecked(atomic_unchecked_t *v)
++{
++      atomic_sub_unchecked(1, v);
++}
+ #define atomic64_dec(v) atomic64_sub(1, v)
++static inline void atomic64_dec_unchecked(atomic64_unchecked_t *v)
++{
++      atomic64_sub_unchecked(1, v);
++}
+ #define atomic_add_negative(i, v) (atomic_add_ret(i, v) < 0)
+ #define atomic64_add_negative(i, v) (atomic64_add_ret(i, v) < 0)
+ #define atomic_cmpxchg(v, o, n) (cmpxchg(&((v)->counter), (o), (n)))
++static inline int atomic_cmpxchg_unchecked(atomic_unchecked_t *v, int old, int new)
++{
++      return cmpxchg(&v->counter, old, new);
++}
+ #define atomic_xchg(v, new) (xchg(&((v)->counter), new))
++static inline int atomic_xchg_unchecked(atomic_unchecked_t *v, int new)
++{
++      return xchg(&v->counter, new);
++}
+ static inline int atomic_add_unless(atomic_t *v, int a, int u)
+ {
+-      int c, old;
++      int c, old, new;
+       c = atomic_read(v);
+       for (;;) {
+-              if (unlikely(c == (u)))
++              if (unlikely(c == u))
+                       break;
+-              old = atomic_cmpxchg((v), c, c + (a));
++
++              asm volatile("addcc %2, %0, %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                           "tvs %%icc, 6\n"
++#endif
++
++                           : "=r" (new)
++                           : "0" (c), "ir" (a)
++                           : "cc");
++
++              old = atomic_cmpxchg(v, c, new);
+               if (likely(old == c))
+                       break;
+               c = old;
+       }
+-      return c != (u);
++      return c != u;
+ }
+ #define atomic_inc_not_zero(v) atomic_add_unless((v), 1, 0)
+@@ -90,20 +167,35 @@ static inline int atomic_add_unless(atomic_t *v, int a, int u)
+ #define atomic64_cmpxchg(v, o, n) \
+       ((__typeof__((v)->counter))cmpxchg(&((v)->counter), (o), (n)))
+ #define atomic64_xchg(v, new) (xchg(&((v)->counter), new))
++static inline long atomic64_xchg_unchecked(atomic64_unchecked_t *v, long new)
++{
++      return xchg(&v->counter, new);
++}
+ static inline long atomic64_add_unless(atomic64_t *v, long a, long u)
+ {
+-      long c, old;
++      long c, old, new;
+       c = atomic64_read(v);
+       for (;;) {
+-              if (unlikely(c == (u)))
++              if (unlikely(c == u))
+                       break;
+-              old = atomic64_cmpxchg((v), c, c + (a));
++
++              asm volatile("addcc %2, %0, %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                           "tvs %%xcc, 6\n"
++#endif
++
++                           : "=r" (new)
++                           : "0" (c), "ir" (a)
++                           : "cc");
++
++              old = atomic64_cmpxchg(v, c, new);
+               if (likely(old == c))
+                       break;
+               c = old;
+       }
+-      return c != (u);
++      return c != u;
+ }
+ #define atomic64_inc_not_zero(v) atomic64_add_unless((v), 1, 0)
+diff --git a/arch/sparc/include/asm/cache.h b/arch/sparc/include/asm/cache.h
+index 41f85ae..fb54d5e 100644
+--- a/arch/sparc/include/asm/cache.h
++++ b/arch/sparc/include/asm/cache.h
+@@ -8,7 +8,7 @@
+ #define _SPARC_CACHE_H
+ #define L1_CACHE_SHIFT 5
+-#define L1_CACHE_BYTES 32
++#define L1_CACHE_BYTES 32UL
+ #define L1_CACHE_ALIGN(x) ((((x)+(L1_CACHE_BYTES-1))&~(L1_CACHE_BYTES-1)))
+ #ifdef CONFIG_SPARC32
+diff --git a/arch/sparc/include/asm/dma-mapping.h b/arch/sparc/include/asm/dma-mapping.h
+index 5a8c308..38def92 100644
+--- a/arch/sparc/include/asm/dma-mapping.h
++++ b/arch/sparc/include/asm/dma-mapping.h
+@@ -14,10 +14,10 @@ extern int dma_set_mask(struct device *dev, u64 dma_mask);
+ #define dma_free_noncoherent(d, s, v, h) dma_free_coherent(d, s, v, h)
+ #define dma_is_consistent(d, h)       (1)
+-extern struct dma_map_ops *dma_ops, pci32_dma_ops;
++extern const struct dma_map_ops *dma_ops, pci32_dma_ops;
+ extern struct bus_type pci_bus_type;
+-static inline struct dma_map_ops *get_dma_ops(struct device *dev)
++static inline const struct dma_map_ops *get_dma_ops(struct device *dev)
+ {
+ #if defined(CONFIG_SPARC32) && defined(CONFIG_PCI)
+       if (dev->bus == &pci_bus_type)
+@@ -31,7 +31,7 @@ static inline struct dma_map_ops *get_dma_ops(struct device *dev)
+ static inline void *dma_alloc_coherent(struct device *dev, size_t size,
+                                      dma_addr_t *dma_handle, gfp_t flag)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       void *cpu_addr;
+       cpu_addr = ops->alloc_coherent(dev, size, dma_handle, flag);
+@@ -42,7 +42,7 @@ static inline void *dma_alloc_coherent(struct device *dev, size_t size,
+ static inline void dma_free_coherent(struct device *dev, size_t size,
+                                    void *cpu_addr, dma_addr_t dma_handle)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       debug_dma_free_coherent(dev, size, cpu_addr, dma_handle);
+       ops->free_coherent(dev, size, cpu_addr, dma_handle);
+diff --git a/arch/sparc/include/asm/elf_32.h b/arch/sparc/include/asm/elf_32.h
+index 381a1b5..b97e3ff 100644
+--- a/arch/sparc/include/asm/elf_32.h
++++ b/arch/sparc/include/asm/elf_32.h
+@@ -116,6 +116,13 @@ typedef struct {
+ #define ELF_ET_DYN_BASE         (TASK_UNMAPPED_BASE)
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   0x10000UL
++
++#define PAX_DELTA_MMAP_LEN    16
++#define PAX_DELTA_STACK_LEN   16
++#endif
++
+ /* This yields a mask that user programs can use to figure out what
+    instruction set this cpu supports.  This can NOT be done in userspace
+    on Sparc.  */
+diff --git a/arch/sparc/include/asm/elf_64.h b/arch/sparc/include/asm/elf_64.h
+index 9968085..c2106ef 100644
+--- a/arch/sparc/include/asm/elf_64.h
++++ b/arch/sparc/include/asm/elf_64.h
+@@ -163,6 +163,12 @@ typedef struct {
+ #define ELF_ET_DYN_BASE               0x0000010000000000UL
+ #define COMPAT_ELF_ET_DYN_BASE        0x0000000070000000UL
++#ifdef CONFIG_PAX_ASLR
++#define PAX_ELF_ET_DYN_BASE   (test_thread_flag(TIF_32BIT) ? 0x10000UL : 0x100000UL)
++
++#define PAX_DELTA_MMAP_LEN    (test_thread_flag(TIF_32BIT) ? 14 : 28)
++#define PAX_DELTA_STACK_LEN   (test_thread_flag(TIF_32BIT) ? 15 : 29)
++#endif
+ /* This yields a mask that user programs can use to figure out what
+    instruction set this cpu supports.  */
+diff --git a/arch/sparc/include/asm/pgtable_32.h b/arch/sparc/include/asm/pgtable_32.h
+index e0cabe7..efd60f1 100644
+--- a/arch/sparc/include/asm/pgtable_32.h
++++ b/arch/sparc/include/asm/pgtable_32.h
+@@ -43,6 +43,13 @@ BTFIXUPDEF_SIMM13(user_ptrs_per_pgd)
+ BTFIXUPDEF_INT(page_none)
+ BTFIXUPDEF_INT(page_copy)
+ BTFIXUPDEF_INT(page_readonly)
++
++#ifdef CONFIG_PAX_PAGEEXEC
++BTFIXUPDEF_INT(page_shared_noexec)
++BTFIXUPDEF_INT(page_copy_noexec)
++BTFIXUPDEF_INT(page_readonly_noexec)
++#endif
++
+ BTFIXUPDEF_INT(page_kernel)
+ #define PMD_SHIFT             SUN4C_PMD_SHIFT
+@@ -64,6 +71,16 @@ extern pgprot_t PAGE_SHARED;
+ #define PAGE_COPY      __pgprot(BTFIXUP_INT(page_copy))
+ #define PAGE_READONLY  __pgprot(BTFIXUP_INT(page_readonly))
++#ifdef CONFIG_PAX_PAGEEXEC
++extern pgprot_t PAGE_SHARED_NOEXEC;
++# define PAGE_COPY_NOEXEC     __pgprot(BTFIXUP_INT(page_copy_noexec))
++# define PAGE_READONLY_NOEXEC __pgprot(BTFIXUP_INT(page_readonly_noexec))
++#else
++# define PAGE_SHARED_NOEXEC   PAGE_SHARED
++# define PAGE_COPY_NOEXEC     PAGE_COPY
++# define PAGE_READONLY_NOEXEC PAGE_READONLY
++#endif
++
+ extern unsigned long page_kernel;
+ #ifdef MODULE
+diff --git a/arch/sparc/include/asm/pgtsrmmu.h b/arch/sparc/include/asm/pgtsrmmu.h
+index 1407c07..7e10231 100644
+--- a/arch/sparc/include/asm/pgtsrmmu.h
++++ b/arch/sparc/include/asm/pgtsrmmu.h
+@@ -115,6 +115,13 @@
+                                   SRMMU_EXEC | SRMMU_REF)
+ #define SRMMU_PAGE_RDONLY  __pgprot(SRMMU_VALID | SRMMU_CACHE | \
+                                   SRMMU_EXEC | SRMMU_REF)
++
++#ifdef CONFIG_PAX_PAGEEXEC
++#define SRMMU_PAGE_SHARED_NOEXEC      __pgprot(SRMMU_VALID | SRMMU_CACHE | SRMMU_WRITE | SRMMU_REF)
++#define SRMMU_PAGE_COPY_NOEXEC        __pgprot(SRMMU_VALID | SRMMU_CACHE | SRMMU_REF)
++#define SRMMU_PAGE_RDONLY_NOEXEC      __pgprot(SRMMU_VALID | SRMMU_CACHE | SRMMU_REF)
++#endif
++
+ #define SRMMU_PAGE_KERNEL  __pgprot(SRMMU_VALID | SRMMU_CACHE | SRMMU_PRIV | \
+                                   SRMMU_DIRTY | SRMMU_REF)
+diff --git a/arch/sparc/include/asm/spinlock_64.h b/arch/sparc/include/asm/spinlock_64.h
+index 43e5147..47622a1 100644
+--- a/arch/sparc/include/asm/spinlock_64.h
++++ b/arch/sparc/include/asm/spinlock_64.h
+@@ -92,14 +92,19 @@ static inline void __raw_spin_lock_flags(raw_spinlock_t *lock, unsigned long fla
+ /* Multi-reader locks, these are much saner than the 32-bit Sparc ones... */
+-static void inline arch_read_lock(raw_rwlock_t *lock)
++static inline void arch_read_lock(raw_rwlock_t *lock)
+ {
+       unsigned long tmp1, tmp2;
+       __asm__ __volatile__ (
+ "1:   ldsw            [%2], %0\n"
+ "     brlz,pn         %0, 2f\n"
+-"4:    add            %0, 1, %1\n"
++"4:    addcc          %0, 1, %1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++"     tvs             %%icc, 6\n"
++#endif
++
+ "     cas             [%2], %0, %1\n"
+ "     cmp             %0, %1\n"
+ "     bne,pn          %%icc, 1b\n"
+@@ -112,10 +117,10 @@ static void inline arch_read_lock(raw_rwlock_t *lock)
+ "     .previous"
+       : "=&r" (tmp1), "=&r" (tmp2)
+       : "r" (lock)
+-      : "memory");
++      : "memory", "cc");
+ }
+-static int inline arch_read_trylock(raw_rwlock_t *lock)
++static inline int arch_read_trylock(raw_rwlock_t *lock)
+ {
+       int tmp1, tmp2;
+@@ -123,7 +128,12 @@ static int inline arch_read_trylock(raw_rwlock_t *lock)
+ "1:   ldsw            [%2], %0\n"
+ "     brlz,a,pn       %0, 2f\n"
+ "      mov            0, %0\n"
+-"     add             %0, 1, %1\n"
++"     addcc           %0, 1, %1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++"     tvs             %%icc, 6\n"
++#endif
++
+ "     cas             [%2], %0, %1\n"
+ "     cmp             %0, %1\n"
+ "     bne,pn          %%icc, 1b\n"
+@@ -136,13 +146,18 @@ static int inline arch_read_trylock(raw_rwlock_t *lock)
+       return tmp1;
+ }
+-static void inline arch_read_unlock(raw_rwlock_t *lock)
++static inline void arch_read_unlock(raw_rwlock_t *lock)
+ {
+       unsigned long tmp1, tmp2;
+       __asm__ __volatile__(
+ "1:   lduw    [%2], %0\n"
+-"     sub     %0, 1, %1\n"
++"     subcc   %0, 1, %1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++"     tvs     %%icc, 6\n"
++#endif
++
+ "     cas     [%2], %0, %1\n"
+ "     cmp     %0, %1\n"
+ "     bne,pn  %%xcc, 1b\n"
+@@ -152,7 +167,7 @@ static void inline arch_read_unlock(raw_rwlock_t *lock)
+       : "memory");
+ }
+-static void inline arch_write_lock(raw_rwlock_t *lock)
++static inline void arch_write_lock(raw_rwlock_t *lock)
+ {
+       unsigned long mask, tmp1, tmp2;
+@@ -177,7 +192,7 @@ static void inline arch_write_lock(raw_rwlock_t *lock)
+       : "memory");
+ }
+-static void inline arch_write_unlock(raw_rwlock_t *lock)
++static inline void arch_write_unlock(raw_rwlock_t *lock)
+ {
+       __asm__ __volatile__(
+ "     stw             %%g0, [%0]"
+@@ -186,7 +201,7 @@ static void inline arch_write_unlock(raw_rwlock_t *lock)
+       : "memory");
+ }
+-static int inline arch_write_trylock(raw_rwlock_t *lock)
++static inline int arch_write_trylock(raw_rwlock_t *lock)
+ {
+       unsigned long mask, tmp1, tmp2, result;
+diff --git a/arch/sparc/include/asm/thread_info_32.h b/arch/sparc/include/asm/thread_info_32.h
+index 844d73a..f787fb9 100644
+--- a/arch/sparc/include/asm/thread_info_32.h
++++ b/arch/sparc/include/asm/thread_info_32.h
+@@ -50,6 +50,8 @@ struct thread_info {
+       unsigned long           w_saved;
+       struct restart_block    restart_block;
++
++      unsigned long           lowest_stack;
+ };
+ /*
+diff --git a/arch/sparc/include/asm/thread_info_64.h b/arch/sparc/include/asm/thread_info_64.h
+index f78ad9a..9f55fc7 100644
+--- a/arch/sparc/include/asm/thread_info_64.h
++++ b/arch/sparc/include/asm/thread_info_64.h
+@@ -68,6 +68,8 @@ struct thread_info {
+       struct pt_regs          *kern_una_regs;
+       unsigned int            kern_una_insn;
++      unsigned long           lowest_stack;
++
+       unsigned long           fpregs[0] __attribute__ ((aligned(64)));
+ };
+diff --git a/arch/sparc/include/asm/uaccess.h b/arch/sparc/include/asm/uaccess.h
+index e88fbe5..96b0ce5 100644
+--- a/arch/sparc/include/asm/uaccess.h
++++ b/arch/sparc/include/asm/uaccess.h
+@@ -1,5 +1,13 @@
+ #ifndef ___ASM_SPARC_UACCESS_H
+ #define ___ASM_SPARC_UACCESS_H
++
++#ifdef __KERNEL__
++#ifndef __ASSEMBLY__
++#include <linux/types.h>
++extern void check_object_size(const void *ptr, unsigned long n, bool to);
++#endif
++#endif
++
+ #if defined(__sparc__) && defined(__arch64__)
+ #include <asm/uaccess_64.h>
+ #else
+diff --git a/arch/sparc/include/asm/uaccess_32.h b/arch/sparc/include/asm/uaccess_32.h
+index 8303ac4..07f333d 100644
+--- a/arch/sparc/include/asm/uaccess_32.h
++++ b/arch/sparc/include/asm/uaccess_32.h
+@@ -249,27 +249,46 @@ extern unsigned long __copy_user(void __user *to, const void __user *from, unsig
+ static inline unsigned long copy_to_user(void __user *to, const void *from, unsigned long n)
+ {
+-      if (n && __access_ok((unsigned long) to, n))
++      if ((long)n < 0)
++              return n;
++
++      if (n && __access_ok((unsigned long) to, n)) {
++              if (!__builtin_constant_p(n))
++                      check_object_size(from, n, true);
+               return __copy_user(to, (__force void __user *) from, n);
+-      else
++      } else
+               return n;
+ }
+ static inline unsigned long __copy_to_user(void __user *to, const void *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
++      if (!__builtin_constant_p(n))
++              check_object_size(from, n, true);
++
+       return __copy_user(to, (__force void __user *) from, n);
+ }
+ static inline unsigned long copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
+-      if (n && __access_ok((unsigned long) from, n))
++      if ((long)n < 0)
++              return n;
++
++      if (n && __access_ok((unsigned long) from, n)) {
++              if (!__builtin_constant_p(n))
++                      check_object_size(to, n, false);
+               return __copy_user((__force void __user *) to, from, n);
+-      else
++      } else
+               return n;
+ }
+ static inline unsigned long __copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
+       return __copy_user((__force void __user *) to, from, n);
+ }
+diff --git a/arch/sparc/include/asm/uaccess_64.h b/arch/sparc/include/asm/uaccess_64.h
+index 9ea271e..7b8a271 100644
+--- a/arch/sparc/include/asm/uaccess_64.h
++++ b/arch/sparc/include/asm/uaccess_64.h
+@@ -9,6 +9,7 @@
+ #include <linux/compiler.h>
+ #include <linux/string.h>
+ #include <linux/thread_info.h>
++#include <linux/kernel.h>
+ #include <asm/asi.h>
+ #include <asm/system.h>
+ #include <asm/spitfire.h>
+@@ -212,8 +213,15 @@ extern unsigned long copy_from_user_fixup(void *to, const void __user *from,
+ static inline unsigned long __must_check
+ copy_from_user(void *to, const void __user *from, unsigned long size)
+ {
+-      unsigned long ret = ___copy_from_user(to, from, size);
++      unsigned long ret;
++      if ((long)size < 0 || size > INT_MAX)
++              return size;
++
++      if (!__builtin_constant_p(size))
++              check_object_size(to, size, false);
++
++      ret = ___copy_from_user(to, from, size);
+       if (unlikely(ret))
+               ret = copy_from_user_fixup(to, from, size);
+       return ret;
+@@ -228,8 +236,15 @@ extern unsigned long copy_to_user_fixup(void __user *to, const void *from,
+ static inline unsigned long __must_check
+ copy_to_user(void __user *to, const void *from, unsigned long size)
+ {
+-      unsigned long ret = ___copy_to_user(to, from, size);
++      unsigned long ret;
++      if ((long)size < 0 || size > INT_MAX)
++              return size;
++
++      if (!__builtin_constant_p(size))
++              check_object_size(from, size, true);
++
++      ret = ___copy_to_user(to, from, size);
+       if (unlikely(ret))
+               ret = copy_to_user_fixup(to, from, size);
+       return ret;
+diff --git a/arch/sparc/kernel/Makefile b/arch/sparc/kernel/Makefile
+index 2782681..77ded84 100644
+--- a/arch/sparc/kernel/Makefile
++++ b/arch/sparc/kernel/Makefile
+@@ -3,7 +3,7 @@
+ #
+ asflags-y := -ansi
+-ccflags-y := -Werror
++#ccflags-y := -Werror
+ extra-y     := head_$(BITS).o
+ extra-y     += init_task.o
+diff --git a/arch/sparc/kernel/iommu.c b/arch/sparc/kernel/iommu.c
+index 7690cc2..ece64c9 100644
+--- a/arch/sparc/kernel/iommu.c
++++ b/arch/sparc/kernel/iommu.c
+@@ -826,7 +826,7 @@ static void dma_4u_sync_sg_for_cpu(struct device *dev,
+       spin_unlock_irqrestore(&iommu->lock, flags);
+ }
+-static struct dma_map_ops sun4u_dma_ops = {
++static const struct dma_map_ops sun4u_dma_ops = {
+       .alloc_coherent         = dma_4u_alloc_coherent,
+       .free_coherent          = dma_4u_free_coherent,
+       .map_page               = dma_4u_map_page,
+@@ -837,7 +837,7 @@ static struct dma_map_ops sun4u_dma_ops = {
+       .sync_sg_for_cpu        = dma_4u_sync_sg_for_cpu,
+ };
+-struct dma_map_ops *dma_ops = &sun4u_dma_ops;
++const struct dma_map_ops *dma_ops = &sun4u_dma_ops;
+ EXPORT_SYMBOL(dma_ops);
+ extern int pci64_dma_supported(struct pci_dev *pdev, u64 device_mask);
+diff --git a/arch/sparc/kernel/ioport.c b/arch/sparc/kernel/ioport.c
+index 9f61fd8..bd048db 100644
+--- a/arch/sparc/kernel/ioport.c
++++ b/arch/sparc/kernel/ioport.c
+@@ -392,7 +392,7 @@ static void sbus_sync_sg_for_device(struct device *dev, struct scatterlist *sg,
+       BUG();
+ }
+-struct dma_map_ops sbus_dma_ops = {
++const struct dma_map_ops sbus_dma_ops = {
+       .alloc_coherent         = sbus_alloc_coherent,
+       .free_coherent          = sbus_free_coherent,
+       .map_page               = sbus_map_page,
+@@ -403,7 +403,7 @@ struct dma_map_ops sbus_dma_ops = {
+       .sync_sg_for_device     = sbus_sync_sg_for_device,
+ };
+-struct dma_map_ops *dma_ops = &sbus_dma_ops;
++const struct dma_map_ops *dma_ops = &sbus_dma_ops;
+ EXPORT_SYMBOL(dma_ops);
+ static int __init sparc_register_ioport(void)
+@@ -640,7 +640,7 @@ static void pci32_sync_sg_for_device(struct device *device, struct scatterlist *
+       }
+ }
+-struct dma_map_ops pci32_dma_ops = {
++const struct dma_map_ops pci32_dma_ops = {
+       .alloc_coherent         = pci32_alloc_coherent,
+       .free_coherent          = pci32_free_coherent,
+       .map_page               = pci32_map_page,
+diff --git a/arch/sparc/kernel/kgdb_32.c b/arch/sparc/kernel/kgdb_32.c
+index 04df4ed..55c4b6e 100644
+--- a/arch/sparc/kernel/kgdb_32.c
++++ b/arch/sparc/kernel/kgdb_32.c
+@@ -158,7 +158,7 @@ void kgdb_arch_exit(void)
+ {
+ }
+-struct kgdb_arch arch_kgdb_ops = {
++const struct kgdb_arch arch_kgdb_ops = {
+       /* Breakpoint instruction: ta 0x7d */
+       .gdb_bpt_instr          = { 0x91, 0xd0, 0x20, 0x7d },
+ };
+diff --git a/arch/sparc/kernel/kgdb_64.c b/arch/sparc/kernel/kgdb_64.c
+index f5a0fd4..d886f71 100644
+--- a/arch/sparc/kernel/kgdb_64.c
++++ b/arch/sparc/kernel/kgdb_64.c
+@@ -180,7 +180,7 @@ void kgdb_arch_exit(void)
+ {
+ }
+-struct kgdb_arch arch_kgdb_ops = {
++const struct kgdb_arch arch_kgdb_ops = {
+       /* Breakpoint instruction: ta 0x72 */
+       .gdb_bpt_instr          = { 0x91, 0xd0, 0x20, 0x72 },
+ };
+diff --git a/arch/sparc/kernel/pci_sun4v.c b/arch/sparc/kernel/pci_sun4v.c
+index 23c33ff..d137fbd 100644
+--- a/arch/sparc/kernel/pci_sun4v.c
++++ b/arch/sparc/kernel/pci_sun4v.c
+@@ -525,7 +525,7 @@ static void dma_4v_unmap_sg(struct device *dev, struct scatterlist *sglist,
+       spin_unlock_irqrestore(&iommu->lock, flags);
+ }
+-static struct dma_map_ops sun4v_dma_ops = {
++static const struct dma_map_ops sun4v_dma_ops = {
+       .alloc_coherent                 = dma_4v_alloc_coherent,
+       .free_coherent                  = dma_4v_free_coherent,
+       .map_page                       = dma_4v_map_page,
+diff --git a/arch/sparc/kernel/process_32.c b/arch/sparc/kernel/process_32.c
+index c49865b..b41a81b 100644
+--- a/arch/sparc/kernel/process_32.c
++++ b/arch/sparc/kernel/process_32.c
+@@ -196,7 +196,7 @@ void __show_backtrace(unsigned long fp)
+                      rw->ins[4], rw->ins[5],
+                      rw->ins[6],
+                      rw->ins[7]);
+-              printk("%pS\n", (void *) rw->ins[7]);
++              printk("%pA\n", (void *) rw->ins[7]);
+               rw = (struct reg_window32 *) rw->ins[6];
+       }
+       spin_unlock_irqrestore(&sparc_backtrace_lock, flags);
+@@ -263,14 +263,14 @@ void show_regs(struct pt_regs *r)
+         printk("PSR: %08lx PC: %08lx NPC: %08lx Y: %08lx    %s\n",
+              r->psr, r->pc, r->npc, r->y, print_tainted());
+-      printk("PC: <%pS>\n", (void *) r->pc);
++      printk("PC: <%pA>\n", (void *) r->pc);
+       printk("%%G: %08lx %08lx  %08lx %08lx  %08lx %08lx  %08lx %08lx\n",
+              r->u_regs[0], r->u_regs[1], r->u_regs[2], r->u_regs[3],
+              r->u_regs[4], r->u_regs[5], r->u_regs[6], r->u_regs[7]);
+       printk("%%O: %08lx %08lx  %08lx %08lx  %08lx %08lx  %08lx %08lx\n",
+              r->u_regs[8], r->u_regs[9], r->u_regs[10], r->u_regs[11],
+              r->u_regs[12], r->u_regs[13], r->u_regs[14], r->u_regs[15]);
+-      printk("RPC: <%pS>\n", (void *) r->u_regs[15]);
++      printk("RPC: <%pA>\n", (void *) r->u_regs[15]);
+       printk("%%L: %08lx %08lx  %08lx %08lx  %08lx %08lx  %08lx %08lx\n",
+              rw->locals[0], rw->locals[1], rw->locals[2], rw->locals[3],
+@@ -305,7 +305,7 @@ void show_stack(struct task_struct *tsk, unsigned long *_ksp)
+               rw = (struct reg_window32 *) fp;
+               pc = rw->ins[7];
+               printk("[%08lx : ", pc);
+-              printk("%pS ] ", (void *) pc);
++              printk("%pA ] ", (void *) pc);
+               fp = rw->ins[6];
+       } while (++count < 16);
+       printk("\n");
+diff --git a/arch/sparc/kernel/process_64.c b/arch/sparc/kernel/process_64.c
+index cb70476..3d0c191 100644
+--- a/arch/sparc/kernel/process_64.c
++++ b/arch/sparc/kernel/process_64.c
+@@ -180,14 +180,14 @@ static void show_regwindow(struct pt_regs *regs)
+       printk("i4: %016lx i5: %016lx i6: %016lx i7: %016lx\n",
+              rwk->ins[4], rwk->ins[5], rwk->ins[6], rwk->ins[7]);
+       if (regs->tstate & TSTATE_PRIV)
+-              printk("I7: <%pS>\n", (void *) rwk->ins[7]);
++              printk("I7: <%pA>\n", (void *) rwk->ins[7]);
+ }
+ void show_regs(struct pt_regs *regs)
+ {
+       printk("TSTATE: %016lx TPC: %016lx TNPC: %016lx Y: %08x    %s\n", regs->tstate,
+              regs->tpc, regs->tnpc, regs->y, print_tainted());
+-      printk("TPC: <%pS>\n", (void *) regs->tpc);
++      printk("TPC: <%pA>\n", (void *) regs->tpc);
+       printk("g0: %016lx g1: %016lx g2: %016lx g3: %016lx\n",
+              regs->u_regs[0], regs->u_regs[1], regs->u_regs[2],
+              regs->u_regs[3]);
+@@ -200,7 +200,7 @@ void show_regs(struct pt_regs *regs)
+       printk("o4: %016lx o5: %016lx sp: %016lx ret_pc: %016lx\n",
+              regs->u_regs[12], regs->u_regs[13], regs->u_regs[14],
+              regs->u_regs[15]);
+-      printk("RPC: <%pS>\n", (void *) regs->u_regs[15]);
++      printk("RPC: <%pA>\n", (void *) regs->u_regs[15]);
+       show_regwindow(regs);
+ }
+@@ -284,7 +284,7 @@ void arch_trigger_all_cpu_backtrace(void)
+                      ((tp && tp->task) ? tp->task->pid : -1));
+               if (gp->tstate & TSTATE_PRIV) {
+-                      printk("             TPC[%pS] O7[%pS] I7[%pS] RPC[%pS]\n",
++                      printk("             TPC[%pA] O7[%pA] I7[%pA] RPC[%pA]\n",
+                              (void *) gp->tpc,
+                              (void *) gp->o7,
+                              (void *) gp->i7,
+diff --git a/arch/sparc/kernel/sigutil_64.c b/arch/sparc/kernel/sigutil_64.c
+index 6edc4e5..06a69b4 100644
+--- a/arch/sparc/kernel/sigutil_64.c
++++ b/arch/sparc/kernel/sigutil_64.c
+@@ -2,6 +2,7 @@
+ #include <linux/types.h>
+ #include <linux/thread_info.h>
+ #include <linux/uaccess.h>
++#include <linux/errno.h>
+ #include <asm/sigcontext.h>
+ #include <asm/fpumacro.h>
+diff --git a/arch/sparc/kernel/sys_sparc_32.c b/arch/sparc/kernel/sys_sparc_32.c
+index 3a82e65..ce0a53a 100644
+--- a/arch/sparc/kernel/sys_sparc_32.c
++++ b/arch/sparc/kernel/sys_sparc_32.c
+@@ -57,7 +57,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+       if (ARCH_SUN4C && len > 0x20000000)
+               return -ENOMEM;
+       if (!addr)
+-              addr = TASK_UNMAPPED_BASE;
++              addr = current->mm->mmap_base;
+       if (flags & MAP_SHARED)
+               addr = COLOUR_ALIGN(addr);
+@@ -72,7 +72,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+               }
+               if (TASK_SIZE - PAGE_SIZE - len < addr)
+                       return -ENOMEM;
+-              if (!vmm || addr + len <= vmm->vm_start)
++              if (check_heap_stack_gap(vmm, addr, len))
+                       return addr;
+               addr = vmm->vm_end;
+               if (flags & MAP_SHARED)
+diff --git a/arch/sparc/kernel/sys_sparc_64.c b/arch/sparc/kernel/sys_sparc_64.c
+index cfa0e19..98972ac 100644
+--- a/arch/sparc/kernel/sys_sparc_64.c
++++ b/arch/sparc/kernel/sys_sparc_64.c
+@@ -125,7 +125,7 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+               /* We do not accept a shared mapping if it would violate
+                * cache aliasing constraints.
+                */
+-              if ((flags & MAP_SHARED) &&
++              if ((filp || (flags & MAP_SHARED)) &&
+                   ((addr - (pgoff << PAGE_SHIFT)) & (SHMLBA - 1)))
+                       return -EINVAL;
+               return addr;
+@@ -140,6 +140,10 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+       if (filp || (flags & MAP_SHARED))
+               do_color_align = 1;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       if (addr) {
+               if (do_color_align)
+                       addr = COLOUR_ALIGN(addr, pgoff);
+@@ -147,15 +151,14 @@ unsigned long arch_get_unmapped_area(struct file *filp, unsigned long addr, unsi
+                       addr = PAGE_ALIGN(addr);
+               vma = find_vma(mm, addr);
+-              if (task_size - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (task_size - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+       if (len > mm->cached_hole_size) {
+-              start_addr = addr = mm->free_area_cache;
++              start_addr = addr = mm->free_area_cache;
+       } else {
+-              start_addr = addr = TASK_UNMAPPED_BASE;
++              start_addr = addr = mm->mmap_base;
+               mm->cached_hole_size = 0;
+       }
+@@ -175,14 +178,14 @@ full_search:
+                       vma = find_vma(mm, VA_EXCLUDE_END);
+               }
+               if (unlikely(task_size < addr)) {
+-                      if (start_addr != TASK_UNMAPPED_BASE) {
+-                              start_addr = addr = TASK_UNMAPPED_BASE;
++                      if (start_addr != mm->mmap_base) {
++                              start_addr = addr = mm->mmap_base;
+                               mm->cached_hole_size = 0;
+                               goto full_search;
+                       }
+                       return -ENOMEM;
+               }
+-              if (likely(!vma || addr + len <= vma->vm_start)) {
++              if (likely(check_heap_stack_gap(vma, addr, len))) {
+                       /*
+                        * Remember the place where we stopped the search:
+                        */
+@@ -216,7 +219,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+               /* We do not accept a shared mapping if it would violate
+                * cache aliasing constraints.
+                */
+-              if ((flags & MAP_SHARED) &&
++              if ((filp || (flags & MAP_SHARED)) &&
+                   ((addr - (pgoff << PAGE_SHIFT)) & (SHMLBA - 1)))
+                       return -EINVAL;
+               return addr;
+@@ -237,8 +240,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                       addr = PAGE_ALIGN(addr);
+               vma = find_vma(mm, addr);
+-              if (task_size - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (task_size - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+@@ -259,7 +261,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       /* make sure it can fit in the remaining address space */
+       if (likely(addr > len)) {
+               vma = find_vma(mm, addr-len);
+-              if (!vma || addr <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr - len, len)) {
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr-len);
+               }
+@@ -268,18 +270,18 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       if (unlikely(mm->mmap_base < len))
+               goto bottomup;
+-      addr = mm->mmap_base-len;
+-      if (do_color_align)
+-              addr = COLOUR_ALIGN_DOWN(addr, pgoff);
++      addr = mm->mmap_base - len;
+       do {
++              if (do_color_align)
++                      addr = COLOUR_ALIGN_DOWN(addr, pgoff);
+               /*
+                * Lookup failure means no vma is above this address,
+                * else if new region fits below vma->vm_start,
+                * return with success:
+                */
+               vma = find_vma(mm, addr);
+-              if (likely(!vma || addr+len <= vma->vm_start)) {
++              if (likely(check_heap_stack_gap(vma, addr, len))) {
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr);
+               }
+@@ -289,10 +291,8 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                       mm->cached_hole_size = vma->vm_start - addr;
+               /* try just below the current vma->vm_start */
+-              addr = vma->vm_start-len;
+-              if (do_color_align)
+-                      addr = COLOUR_ALIGN_DOWN(addr, pgoff);
+-      } while (likely(len < vma->vm_start));
++              addr = skip_heap_stack_gap(vma, len);
++      } while (!IS_ERR_VALUE(addr));
+ bottomup:
+       /*
+@@ -384,6 +384,12 @@ void arch_pick_mmap_layout(struct mm_struct *mm)
+           current->signal->rlim[RLIMIT_STACK].rlim_cur == RLIM_INFINITY ||
+           sysctl_legacy_va_layout) {
+               mm->mmap_base = TASK_UNMAPPED_BASE + random_factor;
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base += mm->delta_mmap;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area;
+               mm->unmap_area = arch_unmap_area;
+       } else {
+@@ -398,6 +404,12 @@ void arch_pick_mmap_layout(struct mm_struct *mm)
+                       gap = (task_size / 6 * 5);
+               mm->mmap_base = PAGE_ALIGN(task_size - gap - random_factor);
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base -= mm->delta_mmap + mm->delta_stack;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area_topdown;
+               mm->unmap_area = arch_unmap_area_topdown;
+       }
+diff --git a/arch/sparc/kernel/traps_32.c b/arch/sparc/kernel/traps_32.c
+index c0490c7..84959d1 100644
+--- a/arch/sparc/kernel/traps_32.c
++++ b/arch/sparc/kernel/traps_32.c
+@@ -44,6 +44,8 @@ static void instruction_dump(unsigned long *pc)
+ #define __SAVE __asm__ __volatile__("save %sp, -0x40, %sp\n\t")
+ #define __RESTORE __asm__ __volatile__("restore %g0, %g0, %g0\n\t")
++extern void gr_handle_kernel_exploit(void);
++
+ void die_if_kernel(char *str, struct pt_regs *regs)
+ {
+       static int die_counter;
+@@ -76,15 +78,17 @@ void die_if_kernel(char *str, struct pt_regs *regs)
+                     count++ < 30                              &&
+                       (((unsigned long) rw) >= PAGE_OFFSET)   &&
+                     !(((unsigned long) rw) & 0x7)) {
+-                      printk("Caller[%08lx]: %pS\n", rw->ins[7],
++                      printk("Caller[%08lx]: %pA\n", rw->ins[7],
+                              (void *) rw->ins[7]);
+                       rw = (struct reg_window32 *)rw->ins[6];
+               }
+       }
+       printk("Instruction DUMP:");
+       instruction_dump ((unsigned long *) regs->pc);
+-      if(regs->psr & PSR_PS)
++      if(regs->psr & PSR_PS) {
++              gr_handle_kernel_exploit();
+               do_exit(SIGKILL);
++      }
+       do_exit(SIGSEGV);
+ }
+diff --git a/arch/sparc/kernel/traps_64.c b/arch/sparc/kernel/traps_64.c
+index 10f7bb9..cdb6793 100644
+--- a/arch/sparc/kernel/traps_64.c
++++ b/arch/sparc/kernel/traps_64.c
+@@ -73,7 +73,7 @@ static void dump_tl1_traplog(struct tl1_traplog *p)
+                      i + 1,
+                      p->trapstack[i].tstate, p->trapstack[i].tpc,
+                      p->trapstack[i].tnpc, p->trapstack[i].tt);
+-              printk("TRAPLOG: TPC<%pS>\n", (void *) p->trapstack[i].tpc);
++              printk("TRAPLOG: TPC<%pA>\n", (void *) p->trapstack[i].tpc);
+       }
+ }
+@@ -93,6 +93,12 @@ void bad_trap(struct pt_regs *regs, long lvl)
+       lvl -= 0x100;
+       if (regs->tstate & TSTATE_PRIV) {
++
++#ifdef CONFIG_PAX_REFCOUNT
++              if (lvl == 6)
++                      pax_report_refcount_overflow(regs);
++#endif
++
+               sprintf(buffer, "Kernel bad sw trap %lx", lvl);
+               die_if_kernel(buffer, regs);
+       }
+@@ -111,11 +117,16 @@ void bad_trap(struct pt_regs *regs, long lvl)
+ void bad_trap_tl1(struct pt_regs *regs, long lvl)
+ {
+       char buffer[32];
+-      
++
+       if (notify_die(DIE_TRAP_TL1, "bad trap tl1", regs,
+                      0, lvl, SIGTRAP) == NOTIFY_STOP)
+               return;
++#ifdef CONFIG_PAX_REFCOUNT
++      if (lvl == 6)
++              pax_report_refcount_overflow(regs);
++#endif
++
+       dump_tl1_traplog((struct tl1_traplog *)(regs + 1));
+       sprintf (buffer, "Bad trap %lx at tl>0", lvl);
+@@ -1139,7 +1150,7 @@ static void cheetah_log_errors(struct pt_regs *regs, struct cheetah_err_info *in
+              regs->tpc, regs->tnpc, regs->u_regs[UREG_I7], regs->tstate);
+       printk("%s" "ERROR(%d): ",
+              (recoverable ? KERN_WARNING : KERN_CRIT), smp_processor_id());
+-      printk("TPC<%pS>\n", (void *) regs->tpc);
++      printk("TPC<%pA>\n", (void *) regs->tpc);
+       printk("%s" "ERROR(%d): M_SYND(%lx),  E_SYND(%lx)%s%s\n",
+              (recoverable ? KERN_WARNING : KERN_CRIT), smp_processor_id(),
+              (afsr & CHAFSR_M_SYNDROME) >> CHAFSR_M_SYNDROME_SHIFT,
+@@ -1746,7 +1757,7 @@ void cheetah_plus_parity_error(int type, struct pt_regs *regs)
+                      smp_processor_id(),
+                      (type & 0x1) ? 'I' : 'D',
+                      regs->tpc);
+-              printk(KERN_EMERG "TPC<%pS>\n", (void *) regs->tpc);
++              printk(KERN_EMERG "TPC<%pA>\n", (void *) regs->tpc);
+               panic("Irrecoverable Cheetah+ parity error.");
+       }
+@@ -1754,7 +1765,7 @@ void cheetah_plus_parity_error(int type, struct pt_regs *regs)
+              smp_processor_id(),
+              (type & 0x1) ? 'I' : 'D',
+              regs->tpc);
+-      printk(KERN_WARNING "TPC<%pS>\n", (void *) regs->tpc);
++      printk(KERN_WARNING "TPC<%pA>\n", (void *) regs->tpc);
+ }
+ struct sun4v_error_entry {
+@@ -1961,9 +1972,9 @@ void sun4v_itlb_error_report(struct pt_regs *regs, int tl)
+       printk(KERN_EMERG "SUN4V-ITLB: Error at TPC[%lx], tl %d\n",
+              regs->tpc, tl);
+-      printk(KERN_EMERG "SUN4V-ITLB: TPC<%pS>\n", (void *) regs->tpc);
++      printk(KERN_EMERG "SUN4V-ITLB: TPC<%pA>\n", (void *) regs->tpc);
+       printk(KERN_EMERG "SUN4V-ITLB: O7[%lx]\n", regs->u_regs[UREG_I7]);
+-      printk(KERN_EMERG "SUN4V-ITLB: O7<%pS>\n",
++      printk(KERN_EMERG "SUN4V-ITLB: O7<%pA>\n",
+              (void *) regs->u_regs[UREG_I7]);
+       printk(KERN_EMERG "SUN4V-ITLB: vaddr[%lx] ctx[%lx] "
+              "pte[%lx] error[%lx]\n",
+@@ -1985,9 +1996,9 @@ void sun4v_dtlb_error_report(struct pt_regs *regs, int tl)
+       printk(KERN_EMERG "SUN4V-DTLB: Error at TPC[%lx], tl %d\n",
+              regs->tpc, tl);
+-      printk(KERN_EMERG "SUN4V-DTLB: TPC<%pS>\n", (void *) regs->tpc);
++      printk(KERN_EMERG "SUN4V-DTLB: TPC<%pA>\n", (void *) regs->tpc);
+       printk(KERN_EMERG "SUN4V-DTLB: O7[%lx]\n", regs->u_regs[UREG_I7]);
+-      printk(KERN_EMERG "SUN4V-DTLB: O7<%pS>\n",
++      printk(KERN_EMERG "SUN4V-DTLB: O7<%pA>\n",
+              (void *) regs->u_regs[UREG_I7]);
+       printk(KERN_EMERG "SUN4V-DTLB: vaddr[%lx] ctx[%lx] "
+              "pte[%lx] error[%lx]\n",
+@@ -2191,7 +2202,7 @@ void show_stack(struct task_struct *tsk, unsigned long *_ksp)
+                       fp = (unsigned long)sf->fp + STACK_BIAS;
+               }
+-              printk(" [%016lx] %pS\n", pc, (void *) pc);
++              printk(" [%016lx] %pA\n", pc, (void *) pc);
+       } while (++count < 16);
+ }
+@@ -2233,6 +2244,8 @@ static inline struct reg_window *kernel_stack_up(struct reg_window *rw)
+       return (struct reg_window *) (fp + STACK_BIAS);
+ }
++extern void gr_handle_kernel_exploit(void);
++
+ void die_if_kernel(char *str, struct pt_regs *regs)
+ {
+       static int die_counter;
+@@ -2260,7 +2273,7 @@ void die_if_kernel(char *str, struct pt_regs *regs)
+               while (rw &&
+                      count++ < 30&&
+                      is_kernel_stack(current, rw)) {
+-                      printk("Caller[%016lx]: %pS\n", rw->ins[7],
++                      printk("Caller[%016lx]: %pA\n", rw->ins[7],
+                              (void *) rw->ins[7]);
+                       rw = kernel_stack_up(rw);
+@@ -2273,8 +2286,11 @@ void die_if_kernel(char *str, struct pt_regs *regs)
+               }
+               user_instruction_dump ((unsigned int __user *) regs->tpc);
+       }
+-      if (regs->tstate & TSTATE_PRIV)
++      if (regs->tstate & TSTATE_PRIV) {
++              gr_handle_kernel_exploit();             
+               do_exit(SIGKILL);
++      }
++
+       do_exit(SIGSEGV);
+ }
+ EXPORT_SYMBOL(die_if_kernel);
+diff --git a/arch/sparc/kernel/una_asm_64.S b/arch/sparc/kernel/una_asm_64.S
+index be183fe..1c8d332 100644
+--- a/arch/sparc/kernel/una_asm_64.S
++++ b/arch/sparc/kernel/una_asm_64.S
+@@ -127,7 +127,7 @@ do_int_load:
+       wr      %o5, 0x0, %asi
+       retl
+        mov    0, %o0
+-      .size   __do_int_load, .-__do_int_load
++      .size   do_int_load, .-do_int_load
+       .section        __ex_table,"a"
+       .word           4b, __retl_efault
+diff --git a/arch/sparc/kernel/unaligned_64.c b/arch/sparc/kernel/unaligned_64.c
+index 3792099..2af17d8 100644
+--- a/arch/sparc/kernel/unaligned_64.c
++++ b/arch/sparc/kernel/unaligned_64.c
+@@ -288,7 +288,7 @@ static void log_unaligned(struct pt_regs *regs)
+       if (count < 5) {
+               last_time = jiffies;
+               count++;
+-              printk("Kernel unaligned access at TPC[%lx] %pS\n",
++              printk("Kernel unaligned access at TPC[%lx] %pA\n",
+                      regs->tpc, (void *) regs->tpc);
+       }
+ }
+diff --git a/arch/sparc/lib/Makefile b/arch/sparc/lib/Makefile
+index e75faf0..24f12f9 100644
+--- a/arch/sparc/lib/Makefile
++++ b/arch/sparc/lib/Makefile
+@@ -2,7 +2,7 @@
+ #
+ asflags-y := -ansi -DST_DIV0=0x02
+-ccflags-y := -Werror
++#ccflags-y := -Werror
+ lib-$(CONFIG_SPARC32) += mul.o rem.o sdiv.o udiv.o umul.o urem.o ashrdi3.o
+ lib-$(CONFIG_SPARC32) += memcpy.o memset.o
+diff --git a/arch/sparc/lib/atomic_64.S b/arch/sparc/lib/atomic_64.S
+index 0268210..f0291ca 100644
+--- a/arch/sparc/lib/atomic_64.S
++++ b/arch/sparc/lib/atomic_64.S
+@@ -18,7 +18,12 @@
+ atomic_add: /* %o0 = increment, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    lduw    [%o1], %g1
+-      add     %g1, %o0, %g7
++      addcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas     [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %icc, 2f
+@@ -28,12 +33,32 @@ atomic_add: /* %o0 = increment, %o1 = atomic_ptr */
+ 2:    BACKOFF_SPIN(%o2, %o3, 1b)
+       .size   atomic_add, .-atomic_add
++      .globl  atomic_add_unchecked
++      .type   atomic_add_unchecked,#function
++atomic_add_unchecked: /* %o0 = increment, %o1 = atomic_ptr */
++      BACKOFF_SETUP(%o2)
++1:    lduw    [%o1], %g1
++      add     %g1, %o0, %g7
++      cas     [%o1], %g1, %g7
++      cmp     %g1, %g7
++      bne,pn  %icc, 2f
++       nop
++      retl
++       nop
++2:    BACKOFF_SPIN(%o2, %o3, 1b)
++      .size   atomic_add_unchecked, .-atomic_add_unchecked
++
+       .globl  atomic_sub
+       .type   atomic_sub,#function
+ atomic_sub: /* %o0 = decrement, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    lduw    [%o1], %g1
+-      sub     %g1, %o0, %g7
++      subcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas     [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %icc, 2f
+@@ -43,12 +68,32 @@ atomic_sub: /* %o0 = decrement, %o1 = atomic_ptr */
+ 2:    BACKOFF_SPIN(%o2, %o3, 1b)
+       .size   atomic_sub, .-atomic_sub
++      .globl  atomic_sub_unchecked
++      .type   atomic_sub_unchecked,#function
++atomic_sub_unchecked: /* %o0 = decrement, %o1 = atomic_ptr */
++      BACKOFF_SETUP(%o2)
++1:    lduw    [%o1], %g1
++      sub     %g1, %o0, %g7
++      cas     [%o1], %g1, %g7
++      cmp     %g1, %g7
++      bne,pn  %icc, 2f
++       nop
++      retl
++       nop
++2:    BACKOFF_SPIN(%o2, %o3, 1b)
++      .size   atomic_sub_unchecked, .-atomic_sub_unchecked
++
+       .globl  atomic_add_ret
+       .type   atomic_add_ret,#function
+ atomic_add_ret: /* %o0 = increment, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    lduw    [%o1], %g1
+-      add     %g1, %o0, %g7
++      addcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas     [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %icc, 2f
+@@ -59,12 +104,33 @@ atomic_add_ret: /* %o0 = increment, %o1 = atomic_ptr */
+ 2:    BACKOFF_SPIN(%o2, %o3, 1b)
+       .size   atomic_add_ret, .-atomic_add_ret
++      .globl  atomic_add_ret_unchecked
++      .type   atomic_add_ret_unchecked,#function
++atomic_add_ret_unchecked: /* %o0 = increment, %o1 = atomic_ptr */
++      BACKOFF_SETUP(%o2)
++1:    lduw    [%o1], %g1
++      addcc   %g1, %o0, %g7
++      cas     [%o1], %g1, %g7
++      cmp     %g1, %g7
++      bne,pn  %icc, 2f
++       add    %g7, %o0, %g7
++      sra     %g7, 0, %o0
++      retl
++       nop
++2:    BACKOFF_SPIN(%o2, %o3, 1b)
++      .size   atomic_add_ret_unchecked, .-atomic_add_ret_unchecked
++
+       .globl  atomic_sub_ret
+       .type   atomic_sub_ret,#function
+ atomic_sub_ret: /* %o0 = decrement, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    lduw    [%o1], %g1
+-      sub     %g1, %o0, %g7
++      subcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas     [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %icc, 2f
+@@ -80,7 +146,12 @@ atomic_sub_ret: /* %o0 = decrement, %o1 = atomic_ptr */
+ atomic64_add: /* %o0 = increment, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    ldx     [%o1], %g1
+-      add     %g1, %o0, %g7
++      addcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %xcc, 6
++#endif
++
+       casx    [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %xcc, 2f
+@@ -90,12 +161,32 @@ atomic64_add: /* %o0 = increment, %o1 = atomic_ptr */
+ 2:    BACKOFF_SPIN(%o2, %o3, 1b)
+       .size   atomic64_add, .-atomic64_add
++      .globl  atomic64_add_unchecked
++      .type   atomic64_add_unchecked,#function
++atomic64_add_unchecked: /* %o0 = increment, %o1 = atomic_ptr */
++      BACKOFF_SETUP(%o2)
++1:    ldx     [%o1], %g1
++      addcc   %g1, %o0, %g7
++      casx    [%o1], %g1, %g7
++      cmp     %g1, %g7
++      bne,pn  %xcc, 2f
++       nop
++      retl
++       nop
++2:    BACKOFF_SPIN(%o2, %o3, 1b)
++      .size   atomic64_add_unchecked, .-atomic64_add_unchecked
++
+       .globl  atomic64_sub
+       .type   atomic64_sub,#function
+ atomic64_sub: /* %o0 = decrement, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    ldx     [%o1], %g1
+-      sub     %g1, %o0, %g7
++      subcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %xcc, 6
++#endif
++
+       casx    [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %xcc, 2f
+@@ -105,12 +196,32 @@ atomic64_sub: /* %o0 = decrement, %o1 = atomic_ptr */
+ 2:    BACKOFF_SPIN(%o2, %o3, 1b)
+       .size   atomic64_sub, .-atomic64_sub
++      .globl  atomic64_sub_unchecked
++      .type   atomic64_sub_unchecked,#function
++atomic64_sub_unchecked: /* %o0 = decrement, %o1 = atomic_ptr */
++      BACKOFF_SETUP(%o2)
++1:    ldx     [%o1], %g1
++      subcc   %g1, %o0, %g7
++      casx    [%o1], %g1, %g7
++      cmp     %g1, %g7
++      bne,pn  %xcc, 2f
++       nop
++      retl
++       nop
++2:    BACKOFF_SPIN(%o2, %o3, 1b)
++      .size   atomic64_sub_unchecked, .-atomic64_sub_unchecked
++
+       .globl  atomic64_add_ret
+       .type   atomic64_add_ret,#function
+ atomic64_add_ret: /* %o0 = increment, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    ldx     [%o1], %g1
+-      add     %g1, %o0, %g7
++      addcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %xcc, 6
++#endif
++
+       casx    [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %xcc, 2f
+@@ -121,12 +232,33 @@ atomic64_add_ret: /* %o0 = increment, %o1 = atomic_ptr */
+ 2:    BACKOFF_SPIN(%o2, %o3, 1b)
+       .size   atomic64_add_ret, .-atomic64_add_ret
++      .globl  atomic64_add_ret_unchecked
++      .type   atomic64_add_ret_unchecked,#function
++atomic64_add_ret_unchecked: /* %o0 = increment, %o1 = atomic_ptr */
++      BACKOFF_SETUP(%o2)
++1:    ldx     [%o1], %g1
++      addcc   %g1, %o0, %g7
++      casx    [%o1], %g1, %g7
++      cmp     %g1, %g7
++      bne,pn  %xcc, 2f
++       add    %g7, %o0, %g7
++      mov     %g7, %o0
++      retl
++       nop
++2:    BACKOFF_SPIN(%o2, %o3, 1b)
++      .size   atomic64_add_ret_unchecked, .-atomic64_add_ret_unchecked
++
+       .globl  atomic64_sub_ret
+       .type   atomic64_sub_ret,#function
+ atomic64_sub_ret: /* %o0 = decrement, %o1 = atomic_ptr */
+       BACKOFF_SETUP(%o2)
+ 1:    ldx     [%o1], %g1
+-      sub     %g1, %o0, %g7
++      subcc   %g1, %o0, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %xcc, 6
++#endif
++
+       casx    [%o1], %g1, %g7
+       cmp     %g1, %g7
+       bne,pn  %xcc, 2f
+diff --git a/arch/sparc/lib/ksyms.c b/arch/sparc/lib/ksyms.c
+index 704b126..2e79d76 100644
+--- a/arch/sparc/lib/ksyms.c
++++ b/arch/sparc/lib/ksyms.c
+@@ -144,12 +144,18 @@ EXPORT_SYMBOL(__downgrade_write);
+ /* Atomic counter implementation. */
+ EXPORT_SYMBOL(atomic_add);
++EXPORT_SYMBOL(atomic_add_unchecked);
+ EXPORT_SYMBOL(atomic_add_ret);
++EXPORT_SYMBOL(atomic_add_ret_unchecked);
+ EXPORT_SYMBOL(atomic_sub);
++EXPORT_SYMBOL(atomic_sub_unchecked);
+ EXPORT_SYMBOL(atomic_sub_ret);
+ EXPORT_SYMBOL(atomic64_add);
++EXPORT_SYMBOL(atomic64_add_unchecked);
+ EXPORT_SYMBOL(atomic64_add_ret);
++EXPORT_SYMBOL(atomic64_add_ret_unchecked);
+ EXPORT_SYMBOL(atomic64_sub);
++EXPORT_SYMBOL(atomic64_sub_unchecked);
+ EXPORT_SYMBOL(atomic64_sub_ret);
+ /* Atomic bit operations. */
+diff --git a/arch/sparc/lib/rwsem_64.S b/arch/sparc/lib/rwsem_64.S
+index 91a7d29..ce75c29 100644
+--- a/arch/sparc/lib/rwsem_64.S
++++ b/arch/sparc/lib/rwsem_64.S
+@@ -11,7 +11,12 @@
+       .globl          __down_read
+ __down_read:
+ 1:    lduw            [%o0], %g1
+-      add             %g1, 1, %g7
++      addcc           %g1, 1, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas             [%o0], %g1, %g7
+       cmp             %g1, %g7
+       bne,pn          %icc, 1b
+@@ -33,7 +38,12 @@ __down_read:
+       .globl          __down_read_trylock
+ __down_read_trylock:
+ 1:    lduw            [%o0], %g1
+-      add             %g1, 1, %g7
++      addcc           %g1, 1, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cmp             %g7, 0
+       bl,pn           %icc, 2f
+        mov            0, %o1
+@@ -51,7 +61,12 @@ __down_write:
+       or              %g1, %lo(RWSEM_ACTIVE_WRITE_BIAS), %g1
+ 1:
+       lduw            [%o0], %g3
+-      add             %g3, %g1, %g7
++      addcc           %g3, %g1, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas             [%o0], %g3, %g7
+       cmp             %g3, %g7
+       bne,pn          %icc, 1b
+@@ -77,7 +92,12 @@ __down_write_trylock:
+       cmp             %g3, 0
+       bne,pn          %icc, 2f
+        mov            0, %o1
+-      add             %g3, %g1, %g7
++      addcc           %g3, %g1, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas             [%o0], %g3, %g7
+       cmp             %g3, %g7
+       bne,pn          %icc, 1b
+@@ -90,7 +110,12 @@ __down_write_trylock:
+ __up_read:
+ 1:
+       lduw            [%o0], %g1
+-      sub             %g1, 1, %g7
++      subcc           %g1, 1, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas             [%o0], %g1, %g7
+       cmp             %g1, %g7
+       bne,pn          %icc, 1b
+@@ -118,7 +143,12 @@ __up_write:
+       or              %g1, %lo(RWSEM_ACTIVE_WRITE_BIAS), %g1
+ 1:
+       lduw            [%o0], %g3
+-      sub             %g3, %g1, %g7
++      subcc           %g3, %g1, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas             [%o0], %g3, %g7
+       cmp             %g3, %g7
+       bne,pn          %icc, 1b
+@@ -143,7 +173,12 @@ __downgrade_write:
+       or              %g1, %lo(RWSEM_WAITING_BIAS), %g1
+ 1:
+       lduw            [%o0], %g3
+-      sub             %g3, %g1, %g7
++      subcc           %g3, %g1, %g7
++
++#ifdef CONFIG_PAX_REFCOUNT
++      tvs     %icc, 6
++#endif
++
+       cas             [%o0], %g3, %g7
+       cmp             %g3, %g7
+       bne,pn          %icc, 1b
+diff --git a/arch/sparc/mm/Makefile b/arch/sparc/mm/Makefile
+index 79836a7..62f47a2 100644
+--- a/arch/sparc/mm/Makefile
++++ b/arch/sparc/mm/Makefile
+@@ -2,7 +2,7 @@
+ #
+ asflags-y := -ansi
+-ccflags-y := -Werror
++#ccflags-y := -Werror
+ obj-$(CONFIG_SPARC64)   += ultra.o tlb.o tsb.o
+ obj-y                   += fault_$(BITS).o
+diff --git a/arch/sparc/mm/fault_32.c b/arch/sparc/mm/fault_32.c
+index b99f81c..3453e93 100644
+--- a/arch/sparc/mm/fault_32.c
++++ b/arch/sparc/mm/fault_32.c
+@@ -21,6 +21,9 @@
+ #include <linux/interrupt.h>
+ #include <linux/module.h>
+ #include <linux/kdebug.h>
++#include <linux/slab.h>
++#include <linux/pagemap.h>
++#include <linux/compiler.h>
+ #include <asm/system.h>
+ #include <asm/page.h>
+@@ -167,6 +170,267 @@ static unsigned long compute_si_addr(struct pt_regs *regs, int text_fault)
+       return safe_compute_effective_address(regs, insn);
+ }
++#ifdef CONFIG_PAX_PAGEEXEC
++#ifdef CONFIG_PAX_DLRESOLVE
++static void pax_emuplt_close(struct vm_area_struct *vma)
++{
++      vma->vm_mm->call_dl_resolve = 0UL;
++}
++
++static int pax_emuplt_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
++{
++      unsigned int *kaddr;
++
++      vmf->page = alloc_page(GFP_HIGHUSER);
++      if (!vmf->page)
++              return VM_FAULT_OOM;
++
++      kaddr = kmap(vmf->page);
++      memset(kaddr, 0, PAGE_SIZE);
++      kaddr[0] = 0x9DE3BFA8U; /* save */
++      flush_dcache_page(vmf->page);
++      kunmap(vmf->page);
++      return VM_FAULT_MAJOR;
++}
++
++static const struct vm_operations_struct pax_vm_ops = {
++      .close = pax_emuplt_close,
++      .fault = pax_emuplt_fault
++};
++
++static int pax_insert_vma(struct vm_area_struct *vma, unsigned long addr)
++{
++      int ret;
++
++      vma->vm_mm = current->mm;
++      vma->vm_start = addr;
++      vma->vm_end = addr + PAGE_SIZE;
++      vma->vm_flags = VM_READ | VM_EXEC | VM_MAYREAD | VM_MAYEXEC;
++      vma->vm_page_prot = vm_get_page_prot(vma->vm_flags);
++      vma->vm_ops = &pax_vm_ops;
++
++      ret = insert_vm_struct(current->mm, vma);
++      if (ret)
++              return ret;
++
++      ++current->mm->total_vm;
++      return 0;
++}
++#endif
++
++/*
++ * PaX: decide what to do with offenders (regs->pc = fault address)
++ *
++ * returns 1 when task should be killed
++ *         2 when patched PLT trampoline was detected
++ *         3 when unpatched PLT trampoline was detected
++ */
++static int pax_handle_fetch_fault(struct pt_regs *regs)
++{
++
++#ifdef CONFIG_PAX_EMUPLT
++      int err;
++
++      do { /* PaX: patched PLT emulation #1 */
++              unsigned int sethi1, sethi2, jmpl;
++
++              err = get_user(sethi1, (unsigned int *)regs->pc);
++              err |= get_user(sethi2, (unsigned int *)(regs->pc+4));
++              err |= get_user(jmpl, (unsigned int *)(regs->pc+8));
++
++              if (err)
++                      break;
++
++              if ((sethi1 & 0xFFC00000U) == 0x03000000U &&
++                  (sethi2 & 0xFFC00000U) == 0x03000000U &&
++                  (jmpl & 0xFFFFE000U) == 0x81C06000U)
++              {
++                      unsigned int addr;
++
++                      regs->u_regs[UREG_G1] = (sethi2 & 0x003FFFFFU) << 10;
++                      addr = regs->u_regs[UREG_G1];
++                      addr += (((jmpl | 0xFFFFE000U) ^ 0x00001000U) + 0x00001000U);
++                      regs->pc = addr;
++                      regs->npc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++      { /* PaX: patched PLT emulation #2 */
++              unsigned int ba;
++
++              err = get_user(ba, (unsigned int *)regs->pc);
++
++              if (!err && (ba & 0xFFC00000U) == 0x30800000U) {
++                      unsigned int addr;
++
++                      addr = regs->pc + ((((ba | 0xFFC00000U) ^ 0x00200000U) + 0x00200000U) << 2);
++                      regs->pc = addr;
++                      regs->npc = addr+4;
++                      return 2;
++              }
++      }
++
++      do { /* PaX: patched PLT emulation #3 */
++              unsigned int sethi, jmpl, nop;
++
++              err = get_user(sethi, (unsigned int *)regs->pc);
++              err |= get_user(jmpl, (unsigned int *)(regs->pc+4));
++              err |= get_user(nop, (unsigned int *)(regs->pc+8));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  (jmpl & 0xFFFFE000U) == 0x81C06000U &&
++                  nop == 0x01000000U)
++              {
++                      unsigned int addr;
++
++                      addr = (sethi & 0x003FFFFFU) << 10;
++                      regs->u_regs[UREG_G1] = addr;
++                      addr += (((jmpl | 0xFFFFE000U) ^ 0x00001000U) + 0x00001000U);
++                      regs->pc = addr;
++                      regs->npc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: unpatched PLT emulation step 1 */
++              unsigned int sethi, ba, nop;
++
++              err = get_user(sethi, (unsigned int *)regs->pc);
++              err |= get_user(ba, (unsigned int *)(regs->pc+4));
++              err |= get_user(nop, (unsigned int *)(regs->pc+8));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  ((ba & 0xFFC00000U) == 0x30800000U || (ba & 0xFFF80000U) == 0x30680000U) &&
++                  nop == 0x01000000U)
++              {
++                      unsigned int addr, save, call;
++
++                      if ((ba & 0xFFC00000U) == 0x30800000U)
++                              addr = regs->pc + 4 + ((((ba | 0xFFC00000U) ^ 0x00200000U) + 0x00200000U) << 2);
++                      else
++                              addr = regs->pc + 4 + ((((ba | 0xFFF80000U) ^ 0x00040000U) + 0x00040000U) << 2);
++
++                      err = get_user(save, (unsigned int *)addr);
++                      err |= get_user(call, (unsigned int *)(addr+4));
++                      err |= get_user(nop, (unsigned int *)(addr+8));
++                      if (err)
++                              break;
++
++#ifdef CONFIG_PAX_DLRESOLVE
++                      if (save == 0x9DE3BFA8U &&
++                          (call & 0xC0000000U) == 0x40000000U &&
++                          nop == 0x01000000U)
++                      {
++                              struct vm_area_struct *vma;
++                              unsigned long call_dl_resolve;
++
++                              down_read(&current->mm->mmap_sem);
++                              call_dl_resolve = current->mm->call_dl_resolve;
++                              up_read(&current->mm->mmap_sem);
++                              if (likely(call_dl_resolve))
++                                      goto emulate;
++
++                              vma = kmem_cache_zalloc(vm_area_cachep, GFP_KERNEL);
++
++                              down_write(&current->mm->mmap_sem);
++                              if (current->mm->call_dl_resolve) {
++                                      call_dl_resolve = current->mm->call_dl_resolve;
++                                      up_write(&current->mm->mmap_sem);
++                                      if (vma)
++                                              kmem_cache_free(vm_area_cachep, vma);
++                                      goto emulate;
++                              }
++
++                              call_dl_resolve = get_unmapped_area(NULL, 0UL, PAGE_SIZE, 0UL, MAP_PRIVATE);
++                              if (!vma || (call_dl_resolve & ~PAGE_MASK)) {
++                                      up_write(&current->mm->mmap_sem);
++                                      if (vma)
++                                              kmem_cache_free(vm_area_cachep, vma);
++                                      return 1;
++                              }
++
++                              if (pax_insert_vma(vma, call_dl_resolve)) {
++                                      up_write(&current->mm->mmap_sem);
++                                      kmem_cache_free(vm_area_cachep, vma);
++                                      return 1;
++                              }
++
++                              current->mm->call_dl_resolve = call_dl_resolve;
++                              up_write(&current->mm->mmap_sem);
++
++emulate:
++                              regs->u_regs[UREG_G1] = (sethi & 0x003FFFFFU) << 10;
++                              regs->pc = call_dl_resolve;
++                              regs->npc = addr+4;
++                              return 3;
++                      }
++#endif
++
++                      /* PaX: glibc 2.4+ generates sethi/jmpl instead of save/call */
++                      if ((save & 0xFFC00000U) == 0x05000000U &&
++                          (call & 0xFFFFE000U) == 0x85C0A000U &&
++                          nop == 0x01000000U)
++                      {
++                              regs->u_regs[UREG_G1] = (sethi & 0x003FFFFFU) << 10;
++                              regs->u_regs[UREG_G2] = addr + 4;
++                              addr = (save & 0x003FFFFFU) << 10;
++                              addr += (((call | 0xFFFFE000U) ^ 0x00001000U) + 0x00001000U);
++                              regs->pc = addr;
++                              regs->npc = addr+4;
++                              return 3;
++                      }
++              }
++      } while (0);
++
++      do { /* PaX: unpatched PLT emulation step 2 */
++              unsigned int save, call, nop;
++
++              err = get_user(save, (unsigned int *)(regs->pc-4));
++              err |= get_user(call, (unsigned int *)regs->pc);
++              err |= get_user(nop, (unsigned int *)(regs->pc+4));
++              if (err)
++                      break;
++
++              if (save == 0x9DE3BFA8U &&
++                  (call & 0xC0000000U) == 0x40000000U &&
++                  nop == 0x01000000U)
++              {
++                      unsigned int dl_resolve = regs->pc + ((((call | 0xC0000000U) ^ 0x20000000U) + 0x20000000U) << 2);
++
++                      regs->u_regs[UREG_RETPC] = regs->pc;
++                      regs->pc = dl_resolve;
++                      regs->npc = dl_resolve+4;
++                      return 3;
++              }
++      } while (0);
++#endif
++
++      return 1;
++}
++
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 8; i++) {
++              unsigned int c;
++              if (get_user(c, (unsigned int *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08x ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ asmlinkage void do_sparc_fault(struct pt_regs *regs, int text_fault, int write,
+                              unsigned long address)
+ {
+@@ -231,6 +495,24 @@ good_area:
+               if(!(vma->vm_flags & VM_WRITE))
+                       goto bad_area;
+       } else {
++
++#ifdef CONFIG_PAX_PAGEEXEC
++              if ((mm->pax_flags & MF_PAX_PAGEEXEC) && text_fault && !(vma->vm_flags & VM_EXEC)) {
++                      up_read(&mm->mmap_sem);
++                      switch (pax_handle_fetch_fault(regs)) {
++
++#ifdef CONFIG_PAX_EMUPLT
++                      case 2:
++                      case 3:
++                              return;
++#endif
++
++                      }
++                      pax_report_fault(regs, (void *)regs->pc, (void *)regs->u_regs[UREG_FP]);
++                      do_group_exit(SIGKILL);
++              }
++#endif
++
+               /* Allow reads even for write-only mappings */
+               if(!(vma->vm_flags & (VM_READ | VM_EXEC)))
+                       goto bad_area;
+diff --git a/arch/sparc/mm/fault_64.c b/arch/sparc/mm/fault_64.c
+index 43b0da9..a0b78f9 100644
+--- a/arch/sparc/mm/fault_64.c
++++ b/arch/sparc/mm/fault_64.c
+@@ -20,6 +20,9 @@
+ #include <linux/kprobes.h>
+ #include <linux/kdebug.h>
+ #include <linux/percpu.h>
++#include <linux/slab.h>
++#include <linux/pagemap.h>
++#include <linux/compiler.h>
+ #include <asm/page.h>
+ #include <asm/pgtable.h>
+@@ -78,7 +81,7 @@ static void bad_kernel_pc(struct pt_regs *regs, unsigned long vaddr)
+       printk(KERN_CRIT "OOPS: Bogus kernel PC [%016lx] in fault handler\n",
+              regs->tpc);
+       printk(KERN_CRIT "OOPS: RPC [%016lx]\n", regs->u_regs[15]);
+-      printk("OOPS: RPC <%pS>\n", (void *) regs->u_regs[15]);
++      printk("OOPS: RPC <%pA>\n", (void *) regs->u_regs[15]);
+       printk(KERN_CRIT "OOPS: Fault was to vaddr[%lx]\n", vaddr);
+       dump_stack();
+       unhandled_fault(regs->tpc, current, regs);
+@@ -249,6 +252,456 @@ static void noinline bogus_32bit_fault_address(struct pt_regs *regs,
+       show_regs(regs);
+ }
++#ifdef CONFIG_PAX_PAGEEXEC
++#ifdef CONFIG_PAX_DLRESOLVE
++static void pax_emuplt_close(struct vm_area_struct *vma)
++{
++      vma->vm_mm->call_dl_resolve = 0UL;
++}
++
++static int pax_emuplt_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
++{
++      unsigned int *kaddr;
++
++      vmf->page = alloc_page(GFP_HIGHUSER);
++      if (!vmf->page)
++              return VM_FAULT_OOM;
++
++      kaddr = kmap(vmf->page);
++      memset(kaddr, 0, PAGE_SIZE);
++      kaddr[0] = 0x9DE3BFA8U; /* save */
++      flush_dcache_page(vmf->page);
++      kunmap(vmf->page);
++      return VM_FAULT_MAJOR;
++}
++
++static const struct vm_operations_struct pax_vm_ops = {
++      .close = pax_emuplt_close,
++      .fault = pax_emuplt_fault
++};
++
++static int pax_insert_vma(struct vm_area_struct *vma, unsigned long addr)
++{
++      int ret;
++
++      vma->vm_mm = current->mm;
++      vma->vm_start = addr;
++      vma->vm_end = addr + PAGE_SIZE;
++      vma->vm_flags = VM_READ | VM_EXEC | VM_MAYREAD | VM_MAYEXEC;
++      vma->vm_page_prot = vm_get_page_prot(vma->vm_flags);
++      vma->vm_ops = &pax_vm_ops;
++
++      ret = insert_vm_struct(current->mm, vma);
++      if (ret)
++              return ret;
++
++      ++current->mm->total_vm;
++      return 0;
++}
++#endif
++
++/*
++ * PaX: decide what to do with offenders (regs->tpc = fault address)
++ *
++ * returns 1 when task should be killed
++ *         2 when patched PLT trampoline was detected
++ *         3 when unpatched PLT trampoline was detected
++ */
++static int pax_handle_fetch_fault(struct pt_regs *regs)
++{
++
++#ifdef CONFIG_PAX_EMUPLT
++      int err;
++
++      do { /* PaX: patched PLT emulation #1 */
++              unsigned int sethi1, sethi2, jmpl;
++
++              err = get_user(sethi1, (unsigned int *)regs->tpc);
++              err |= get_user(sethi2, (unsigned int *)(regs->tpc+4));
++              err |= get_user(jmpl, (unsigned int *)(regs->tpc+8));
++
++              if (err)
++                      break;
++
++              if ((sethi1 & 0xFFC00000U) == 0x03000000U &&
++                  (sethi2 & 0xFFC00000U) == 0x03000000U &&
++                  (jmpl & 0xFFFFE000U) == 0x81C06000U)
++              {
++                      unsigned long addr;
++
++                      regs->u_regs[UREG_G1] = (sethi2 & 0x003FFFFFU) << 10;
++                      addr = regs->u_regs[UREG_G1];
++                      addr += (((jmpl | 0xFFFFFFFFFFFFE000UL) ^ 0x00001000UL) + 0x00001000UL);
++
++                      if (test_thread_flag(TIF_32BIT))
++                              addr &= 0xFFFFFFFFUL;
++
++                      regs->tpc = addr;
++                      regs->tnpc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++      { /* PaX: patched PLT emulation #2 */
++              unsigned int ba;
++
++              err = get_user(ba, (unsigned int *)regs->tpc);
++
++              if (!err && (ba & 0xFFC00000U) == 0x30800000U) {
++                      unsigned long addr;
++
++                      addr = regs->tpc + ((((ba | 0xFFFFFFFFFFC00000UL) ^ 0x00200000UL) + 0x00200000UL) << 2);
++
++                      if (test_thread_flag(TIF_32BIT))
++                              addr &= 0xFFFFFFFFUL;
++
++                      regs->tpc = addr;
++                      regs->tnpc = addr+4;
++                      return 2;
++              }
++      }
++
++      do { /* PaX: patched PLT emulation #3 */
++              unsigned int sethi, jmpl, nop;
++
++              err = get_user(sethi, (unsigned int *)regs->tpc);
++              err |= get_user(jmpl, (unsigned int *)(regs->tpc+4));
++              err |= get_user(nop, (unsigned int *)(regs->tpc+8));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  (jmpl & 0xFFFFE000U) == 0x81C06000U &&
++                  nop == 0x01000000U)
++              {
++                      unsigned long addr;
++
++                      addr = (sethi & 0x003FFFFFU) << 10;
++                      regs->u_regs[UREG_G1] = addr;
++                      addr += (((jmpl | 0xFFFFFFFFFFFFE000UL) ^ 0x00001000UL) + 0x00001000UL);
++
++                      if (test_thread_flag(TIF_32BIT))
++                              addr &= 0xFFFFFFFFUL;
++
++                      regs->tpc = addr;
++                      regs->tnpc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: patched PLT emulation #4 */
++              unsigned int sethi, mov1, call, mov2;
++
++              err = get_user(sethi, (unsigned int *)regs->tpc);
++              err |= get_user(mov1, (unsigned int *)(regs->tpc+4));
++              err |= get_user(call, (unsigned int *)(regs->tpc+8));
++              err |= get_user(mov2, (unsigned int *)(regs->tpc+12));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  mov1 == 0x8210000FU &&
++                  (call & 0xC0000000U) == 0x40000000U &&
++                  mov2 == 0x9E100001U)
++              {
++                      unsigned long addr;
++
++                      regs->u_regs[UREG_G1] = regs->u_regs[UREG_RETPC];
++                      addr = regs->tpc + 4 + ((((call | 0xFFFFFFFFC0000000UL) ^ 0x20000000UL) + 0x20000000UL) << 2);
++
++                      if (test_thread_flag(TIF_32BIT))
++                              addr &= 0xFFFFFFFFUL;
++
++                      regs->tpc = addr;
++                      regs->tnpc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: patched PLT emulation #5 */
++              unsigned int sethi, sethi1, sethi2, or1, or2, sllx, jmpl, nop;
++
++              err = get_user(sethi, (unsigned int *)regs->tpc);
++              err |= get_user(sethi1, (unsigned int *)(regs->tpc+4));
++              err |= get_user(sethi2, (unsigned int *)(regs->tpc+8));
++              err |= get_user(or1, (unsigned int *)(regs->tpc+12));
++              err |= get_user(or2, (unsigned int *)(regs->tpc+16));
++              err |= get_user(sllx, (unsigned int *)(regs->tpc+20));
++              err |= get_user(jmpl, (unsigned int *)(regs->tpc+24));
++              err |= get_user(nop, (unsigned int *)(regs->tpc+28));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  (sethi1 & 0xFFC00000U) == 0x03000000U &&
++                  (sethi2 & 0xFFC00000U) == 0x0B000000U &&
++                  (or1 & 0xFFFFE000U) == 0x82106000U &&
++                  (or2 & 0xFFFFE000U) == 0x8A116000U &&
++                  sllx == 0x83287020U &&
++                  jmpl == 0x81C04005U &&
++                  nop == 0x01000000U)
++              {
++                      unsigned long addr;
++
++                      regs->u_regs[UREG_G1] = ((sethi1 & 0x003FFFFFU) << 10) | (or1 & 0x000003FFU);
++                      regs->u_regs[UREG_G1] <<= 32;
++                      regs->u_regs[UREG_G5] = ((sethi2 & 0x003FFFFFU) << 10) | (or2 & 0x000003FFU);
++                      addr = regs->u_regs[UREG_G1] + regs->u_regs[UREG_G5];
++                      regs->tpc = addr;
++                      regs->tnpc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: patched PLT emulation #6 */
++              unsigned int sethi, sethi1, sethi2, sllx, or,  jmpl, nop;
++
++              err = get_user(sethi, (unsigned int *)regs->tpc);
++              err |= get_user(sethi1, (unsigned int *)(regs->tpc+4));
++              err |= get_user(sethi2, (unsigned int *)(regs->tpc+8));
++              err |= get_user(sllx, (unsigned int *)(regs->tpc+12));
++              err |= get_user(or, (unsigned int *)(regs->tpc+16));
++              err |= get_user(jmpl, (unsigned int *)(regs->tpc+20));
++              err |= get_user(nop, (unsigned int *)(regs->tpc+24));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  (sethi1 & 0xFFC00000U) == 0x03000000U &&
++                  (sethi2 & 0xFFC00000U) == 0x0B000000U &&
++                  sllx == 0x83287020U &&
++                  (or & 0xFFFFE000U) == 0x8A116000U &&
++                  jmpl == 0x81C04005U &&
++                  nop == 0x01000000U)
++              {
++                      unsigned long addr;
++
++                      regs->u_regs[UREG_G1] = (sethi1 & 0x003FFFFFU) << 10;
++                      regs->u_regs[UREG_G1] <<= 32;
++                      regs->u_regs[UREG_G5] = ((sethi2 & 0x003FFFFFU) << 10) | (or & 0x3FFU);
++                      addr = regs->u_regs[UREG_G1] + regs->u_regs[UREG_G5];
++                      regs->tpc = addr;
++                      regs->tnpc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: unpatched PLT emulation step 1 */
++              unsigned int sethi, ba, nop;
++
++              err = get_user(sethi, (unsigned int *)regs->tpc);
++              err |= get_user(ba, (unsigned int *)(regs->tpc+4));
++              err |= get_user(nop, (unsigned int *)(regs->tpc+8));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  ((ba & 0xFFC00000U) == 0x30800000U || (ba & 0xFFF80000U) == 0x30680000U) &&
++                  nop == 0x01000000U)
++              {
++                      unsigned long addr;
++                      unsigned int save, call;
++                      unsigned int sethi1, sethi2, or1, or2, sllx, add, jmpl;
++
++                      if ((ba & 0xFFC00000U) == 0x30800000U)
++                              addr = regs->tpc + 4 + ((((ba | 0xFFFFFFFFFFC00000UL) ^ 0x00200000UL) + 0x00200000UL) << 2);
++                      else
++                              addr = regs->tpc + 4 + ((((ba | 0xFFFFFFFFFFF80000UL) ^ 0x00040000UL) + 0x00040000UL) << 2);
++
++                      if (test_thread_flag(TIF_32BIT))
++                              addr &= 0xFFFFFFFFUL;
++
++                      err = get_user(save, (unsigned int *)addr);
++                      err |= get_user(call, (unsigned int *)(addr+4));
++                      err |= get_user(nop, (unsigned int *)(addr+8));
++                      if (err)
++                              break;
++
++#ifdef CONFIG_PAX_DLRESOLVE
++                      if (save == 0x9DE3BFA8U &&
++                          (call & 0xC0000000U) == 0x40000000U &&
++                          nop == 0x01000000U)
++                      {
++                              struct vm_area_struct *vma;
++                              unsigned long call_dl_resolve;
++
++                              down_read(&current->mm->mmap_sem);
++                              call_dl_resolve = current->mm->call_dl_resolve;
++                              up_read(&current->mm->mmap_sem);
++                              if (likely(call_dl_resolve))
++                                      goto emulate;
++
++                              vma = kmem_cache_zalloc(vm_area_cachep, GFP_KERNEL);
++
++                              down_write(&current->mm->mmap_sem);
++                              if (current->mm->call_dl_resolve) {
++                                      call_dl_resolve = current->mm->call_dl_resolve;
++                                      up_write(&current->mm->mmap_sem);
++                                      if (vma)
++                                              kmem_cache_free(vm_area_cachep, vma);
++                                      goto emulate;
++                              }
++
++                              call_dl_resolve = get_unmapped_area(NULL, 0UL, PAGE_SIZE, 0UL, MAP_PRIVATE);
++                              if (!vma || (call_dl_resolve & ~PAGE_MASK)) {
++                                      up_write(&current->mm->mmap_sem);
++                                      if (vma)
++                                              kmem_cache_free(vm_area_cachep, vma);
++                                      return 1;
++                              }
++
++                              if (pax_insert_vma(vma, call_dl_resolve)) {
++                                      up_write(&current->mm->mmap_sem);
++                                      kmem_cache_free(vm_area_cachep, vma);
++                                      return 1;
++                              }
++
++                              current->mm->call_dl_resolve = call_dl_resolve;
++                              up_write(&current->mm->mmap_sem);
++
++emulate:
++                              regs->u_regs[UREG_G1] = (sethi & 0x003FFFFFU) << 10;
++                              regs->tpc = call_dl_resolve;
++                              regs->tnpc = addr+4;
++                              return 3;
++                      }
++#endif
++
++                      /* PaX: glibc 2.4+ generates sethi/jmpl instead of save/call */
++                      if ((save & 0xFFC00000U) == 0x05000000U &&
++                          (call & 0xFFFFE000U) == 0x85C0A000U &&
++                          nop == 0x01000000U)
++                      {
++                              regs->u_regs[UREG_G1] = (sethi & 0x003FFFFFU) << 10;
++                              regs->u_regs[UREG_G2] = addr + 4;
++                              addr = (save & 0x003FFFFFU) << 10;
++                              addr += (((call | 0xFFFFFFFFFFFFE000UL) ^ 0x00001000UL) + 0x00001000UL);
++
++                              if (test_thread_flag(TIF_32BIT))
++                                      addr &= 0xFFFFFFFFUL;
++
++                              regs->tpc = addr;
++                              regs->tnpc = addr+4;
++                              return 3;
++                      }
++
++                      /* PaX: 64-bit PLT stub */
++                      err = get_user(sethi1, (unsigned int *)addr);
++                      err |= get_user(sethi2, (unsigned int *)(addr+4));
++                      err |= get_user(or1, (unsigned int *)(addr+8));
++                      err |= get_user(or2, (unsigned int *)(addr+12));
++                      err |= get_user(sllx, (unsigned int *)(addr+16));
++                      err |= get_user(add, (unsigned int *)(addr+20));
++                      err |= get_user(jmpl, (unsigned int *)(addr+24));
++                      err |= get_user(nop, (unsigned int *)(addr+28));
++                      if (err)
++                              break;
++
++                      if ((sethi1 & 0xFFC00000U) == 0x09000000U &&
++                          (sethi2 & 0xFFC00000U) == 0x0B000000U &&
++                          (or1 & 0xFFFFE000U) == 0x88112000U &&
++                          (or2 & 0xFFFFE000U) == 0x8A116000U &&
++                          sllx == 0x89293020U &&
++                          add == 0x8A010005U &&
++                          jmpl == 0x89C14000U &&
++                          nop == 0x01000000U)
++                      {
++                              regs->u_regs[UREG_G1] = (sethi & 0x003FFFFFU) << 10;
++                              regs->u_regs[UREG_G4] = ((sethi1 & 0x003FFFFFU) << 10) | (or1 & 0x000003FFU);
++                              regs->u_regs[UREG_G4] <<= 32;
++                              regs->u_regs[UREG_G5] = ((sethi2 & 0x003FFFFFU) << 10) | (or2 & 0x000003FFU);
++                              regs->u_regs[UREG_G5] += regs->u_regs[UREG_G4];
++                              regs->u_regs[UREG_G4] = addr + 24;
++                              addr = regs->u_regs[UREG_G5];
++                              regs->tpc = addr;
++                              regs->tnpc = addr+4;
++                              return 3;
++                      }
++              }
++      } while (0);
++
++#ifdef CONFIG_PAX_DLRESOLVE
++      do { /* PaX: unpatched PLT emulation step 2 */
++              unsigned int save, call, nop;
++
++              err = get_user(save, (unsigned int *)(regs->tpc-4));
++              err |= get_user(call, (unsigned int *)regs->tpc);
++              err |= get_user(nop, (unsigned int *)(regs->tpc+4));
++              if (err)
++                      break;
++
++              if (save == 0x9DE3BFA8U &&
++                  (call & 0xC0000000U) == 0x40000000U &&
++                  nop == 0x01000000U)
++              {
++                      unsigned long dl_resolve = regs->tpc + ((((call | 0xFFFFFFFFC0000000UL) ^ 0x20000000UL) + 0x20000000UL) << 2);
++
++                      if (test_thread_flag(TIF_32BIT))
++                              dl_resolve &= 0xFFFFFFFFUL;
++
++                      regs->u_regs[UREG_RETPC] = regs->tpc;
++                      regs->tpc = dl_resolve;
++                      regs->tnpc = dl_resolve+4;
++                      return 3;
++              }
++      } while (0);
++#endif
++
++      do { /* PaX: patched PLT emulation #7, must be AFTER the unpatched PLT emulation */
++              unsigned int sethi, ba, nop;
++
++              err = get_user(sethi, (unsigned int *)regs->tpc);
++              err |= get_user(ba, (unsigned int *)(regs->tpc+4));
++              err |= get_user(nop, (unsigned int *)(regs->tpc+8));
++
++              if (err)
++                      break;
++
++              if ((sethi & 0xFFC00000U) == 0x03000000U &&
++                  (ba & 0xFFF00000U) == 0x30600000U &&
++                  nop == 0x01000000U)
++              {
++                      unsigned long addr;
++
++                      addr = (sethi & 0x003FFFFFU) << 10;
++                      regs->u_regs[UREG_G1] = addr;
++                      addr = regs->tpc + ((((ba | 0xFFFFFFFFFFF80000UL) ^ 0x00040000UL) + 0x00040000UL) << 2);
++
++                      if (test_thread_flag(TIF_32BIT))
++                              addr &= 0xFFFFFFFFUL;
++
++                      regs->tpc = addr;
++                      regs->tnpc = addr+4;
++                      return 2;
++              }
++      } while (0);
++
++#endif
++
++      return 1;
++}
++
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      unsigned long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 8; i++) {
++              unsigned int c;
++              if (get_user(c, (unsigned int *)pc+i))
++                      printk(KERN_CONT "???????? ");
++              else
++                      printk(KERN_CONT "%08x ", c);
++      }
++      printk("\n");
++}
++#endif
++
+ asmlinkage void __kprobes do_sparc64_fault(struct pt_regs *regs)
+ {
+       struct mm_struct *mm = current->mm;
+@@ -315,6 +768,29 @@ asmlinkage void __kprobes do_sparc64_fault(struct pt_regs *regs)
+       if (!vma)
+               goto bad_area;
++#ifdef CONFIG_PAX_PAGEEXEC
++      /* PaX: detect ITLB misses on non-exec pages */
++      if ((mm->pax_flags & MF_PAX_PAGEEXEC) && vma->vm_start <= address &&
++          !(vma->vm_flags & VM_EXEC) && (fault_code & FAULT_CODE_ITLB))
++      {
++              if (address != regs->tpc)
++                      goto good_area;
++
++              up_read(&mm->mmap_sem);
++              switch (pax_handle_fetch_fault(regs)) {
++
++#ifdef CONFIG_PAX_EMUPLT
++              case 2:
++              case 3:
++                      return;
++#endif
++
++              }
++              pax_report_fault(regs, (void *)regs->tpc, (void *)(regs->u_regs[UREG_FP] + STACK_BIAS));
++              do_group_exit(SIGKILL);
++      }
++#endif
++
+       /* Pure DTLB misses do not tell us whether the fault causing
+        * load/store/atomic was a write or not, it only says that there
+        * was no match.  So in such a case we (carefully) read the
+diff --git a/arch/sparc/mm/hugetlbpage.c b/arch/sparc/mm/hugetlbpage.c
+index f27d103..1b06377 100644
+--- a/arch/sparc/mm/hugetlbpage.c
++++ b/arch/sparc/mm/hugetlbpage.c
+@@ -69,7 +69,7 @@ full_search:
+                       }
+                       return -ENOMEM;
+               }
+-              if (likely(!vma || addr + len <= vma->vm_start)) {
++              if (likely(check_heap_stack_gap(vma, addr, len))) {
+                       /*
+                        * Remember the place where we stopped the search:
+                        */
+@@ -108,7 +108,7 @@ hugetlb_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       /* make sure it can fit in the remaining address space */
+       if (likely(addr > len)) {
+               vma = find_vma(mm, addr-len);
+-              if (!vma || addr <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr - len, len)) {
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr-len);
+               }
+@@ -117,16 +117,17 @@ hugetlb_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       if (unlikely(mm->mmap_base < len))
+               goto bottomup;
+-      addr = (mm->mmap_base-len) & HPAGE_MASK;
++      addr = mm->mmap_base - len;
+       do {
++              addr &= HPAGE_MASK;
+               /*
+                * Lookup failure means no vma is above this address,
+                * else if new region fits below vma->vm_start,
+                * return with success:
+                */
+               vma = find_vma(mm, addr);
+-              if (likely(!vma || addr+len <= vma->vm_start)) {
++              if (likely(check_heap_stack_gap(vma, addr, len))) {
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr);
+               }
+@@ -136,8 +137,8 @@ hugetlb_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                       mm->cached_hole_size = vma->vm_start - addr;
+               /* try just below the current vma->vm_start */
+-              addr = (vma->vm_start-len) & HPAGE_MASK;
+-      } while (likely(len < vma->vm_start));
++              addr = skip_heap_stack_gap(vma, len);
++      } while (!IS_ERR_VALUE(addr));
+ bottomup:
+       /*
+@@ -183,8 +184,7 @@ hugetlb_get_unmapped_area(struct file *file, unsigned long addr,
+       if (addr) {
+               addr = ALIGN(addr, HPAGE_SIZE);
+               vma = find_vma(mm, addr);
+-              if (task_size - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (task_size - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+       if (mm->get_unmapped_area == arch_get_unmapped_area)
+diff --git a/arch/sparc/mm/init_32.c b/arch/sparc/mm/init_32.c
+index dc7c3b1..34c0070 100644
+--- a/arch/sparc/mm/init_32.c
++++ b/arch/sparc/mm/init_32.c
+@@ -317,6 +317,9 @@ extern void device_scan(void);
+ pgprot_t PAGE_SHARED __read_mostly;
+ EXPORT_SYMBOL(PAGE_SHARED);
++pgprot_t PAGE_SHARED_NOEXEC __read_mostly;
++EXPORT_SYMBOL(PAGE_SHARED_NOEXEC);
++
+ void __init paging_init(void)
+ {
+       switch(sparc_cpu_model) {
+@@ -345,17 +348,17 @@ void __init paging_init(void)
+       /* Initialize the protection map with non-constant, MMU dependent values. */
+       protection_map[0] = PAGE_NONE;
+-      protection_map[1] = PAGE_READONLY;
+-      protection_map[2] = PAGE_COPY;
+-      protection_map[3] = PAGE_COPY;
++      protection_map[1] = PAGE_READONLY_NOEXEC;
++      protection_map[2] = PAGE_COPY_NOEXEC;
++      protection_map[3] = PAGE_COPY_NOEXEC;
+       protection_map[4] = PAGE_READONLY;
+       protection_map[5] = PAGE_READONLY;
+       protection_map[6] = PAGE_COPY;
+       protection_map[7] = PAGE_COPY;
+       protection_map[8] = PAGE_NONE;
+-      protection_map[9] = PAGE_READONLY;
+-      protection_map[10] = PAGE_SHARED;
+-      protection_map[11] = PAGE_SHARED;
++      protection_map[9] = PAGE_READONLY_NOEXEC;
++      protection_map[10] = PAGE_SHARED_NOEXEC;
++      protection_map[11] = PAGE_SHARED_NOEXEC;
+       protection_map[12] = PAGE_READONLY;
+       protection_map[13] = PAGE_READONLY;
+       protection_map[14] = PAGE_SHARED;
+diff --git a/arch/sparc/mm/srmmu.c b/arch/sparc/mm/srmmu.c
+index 509b1ff..bfd7118 100644
+--- a/arch/sparc/mm/srmmu.c
++++ b/arch/sparc/mm/srmmu.c
+@@ -2200,6 +2200,13 @@ void __init ld_mmu_srmmu(void)
+       PAGE_SHARED = pgprot_val(SRMMU_PAGE_SHARED);
+       BTFIXUPSET_INT(page_copy, pgprot_val(SRMMU_PAGE_COPY));
+       BTFIXUPSET_INT(page_readonly, pgprot_val(SRMMU_PAGE_RDONLY));
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      PAGE_SHARED_NOEXEC = pgprot_val(SRMMU_PAGE_SHARED_NOEXEC);
++      BTFIXUPSET_INT(page_copy_noexec, pgprot_val(SRMMU_PAGE_COPY_NOEXEC));
++      BTFIXUPSET_INT(page_readonly_noexec, pgprot_val(SRMMU_PAGE_RDONLY_NOEXEC));
++#endif
++
+       BTFIXUPSET_INT(page_kernel, pgprot_val(SRMMU_PAGE_KERNEL));
+       page_kernel = pgprot_val(SRMMU_PAGE_KERNEL);
+diff --git a/arch/um/Makefile b/arch/um/Makefile
+index fc633db..5e1a1c2 100644
+--- a/arch/um/Makefile
++++ b/arch/um/Makefile
+@@ -49,6 +49,10 @@ USER_CFLAGS = $(patsubst $(KERNEL_DEFINES),,$(patsubst -D__KERNEL__,,\
+       $(patsubst -I%,,$(KBUILD_CFLAGS)))) $(ARCH_INCLUDE) $(MODE_INCLUDE) \
+       $(filter -I%,$(CFLAGS)) -D_FILE_OFFSET_BITS=64
++ifdef CONSTIFY_PLUGIN
++USER_CFLAGS   += $(CONSTIFY_PLUGIN) -fplugin-arg-constify_plugin-no-constify
++endif
++
+ include $(srctree)/$(ARCH_DIR)/Makefile-$(SUBARCH)
+ #This will adjust *FLAGS accordingly to the platform.
+diff --git a/arch/um/include/asm/kmap_types.h b/arch/um/include/asm/kmap_types.h
+index 6c03acd..a5e0215 100644
+--- a/arch/um/include/asm/kmap_types.h
++++ b/arch/um/include/asm/kmap_types.h
+@@ -23,6 +23,7 @@ enum km_type {
+       KM_IRQ1,
+       KM_SOFTIRQ0,
+       KM_SOFTIRQ1,
++      KM_CLEARPAGE,
+       KM_TYPE_NR
+ };
+diff --git a/arch/um/include/asm/page.h b/arch/um/include/asm/page.h
+index 4cc9b6c..02e5029 100644
+--- a/arch/um/include/asm/page.h
++++ b/arch/um/include/asm/page.h
+@@ -14,6 +14,9 @@
+ #define PAGE_SIZE     (_AC(1, UL) << PAGE_SHIFT)
+ #define PAGE_MASK     (~(PAGE_SIZE-1))
++#define ktla_ktva(addr)                       (addr)
++#define ktva_ktla(addr)                       (addr)
++
+ #ifndef __ASSEMBLY__
+ struct page;
+diff --git a/arch/um/kernel/process.c b/arch/um/kernel/process.c
+index 4a28a15..654dc2a 100644
+--- a/arch/um/kernel/process.c
++++ b/arch/um/kernel/process.c
+@@ -393,22 +393,6 @@ int singlestepping(void * t)
+       return 2;
+ }
+-/*
+- * Only x86 and x86_64 have an arch_align_stack().
+- * All other arches have "#define arch_align_stack(x) (x)"
+- * in their asm/system.h
+- * As this is included in UML from asm-um/system-generic.h,
+- * we can use it to behave as the subarch does.
+- */
+-#ifndef arch_align_stack
+-unsigned long arch_align_stack(unsigned long sp)
+-{
+-      if (!(current->personality & ADDR_NO_RANDOMIZE) && randomize_va_space)
+-              sp -= get_random_int() % 8192;
+-      return sp & ~0xf;
+-}
+-#endif
+-
+ unsigned long get_wchan(struct task_struct *p)
+ {
+       unsigned long stack_page, sp, ip;
+diff --git a/arch/um/sys-i386/shared/sysdep/system.h b/arch/um/sys-i386/shared/sysdep/system.h
+index d1b93c4..ae1b7fd 100644
+--- a/arch/um/sys-i386/shared/sysdep/system.h
++++ b/arch/um/sys-i386/shared/sysdep/system.h
+@@ -17,7 +17,7 @@
+ # define AT_VECTOR_SIZE_ARCH 1
+ #endif
+-extern unsigned long arch_align_stack(unsigned long sp);
++#define arch_align_stack(x) ((x) & ~0xfUL)
+ void default_idle(void);
+diff --git a/arch/um/sys-i386/syscalls.c b/arch/um/sys-i386/syscalls.c
+index 857ca0b..9a2669d 100644
+--- a/arch/um/sys-i386/syscalls.c
++++ b/arch/um/sys-i386/syscalls.c
+@@ -11,6 +11,21 @@
+ #include "asm/uaccess.h"
+ #include "asm/unistd.h"
++int i386_mmap_check(unsigned long addr, unsigned long len, unsigned long flags)
++{
++      unsigned long pax_task_size = TASK_SIZE;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (current->mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      if (len > pax_task_size || addr > pax_task_size - len)
++              return -EINVAL;
++
++      return 0;
++}
++
+ /*
+  * Perform the select(nd, in, out, ex, tv) and mmap() system
+  * calls. Linux/i386 didn't use to be able to handle more than
+diff --git a/arch/um/sys-x86_64/shared/sysdep/system.h b/arch/um/sys-x86_64/shared/sysdep/system.h
+index d1b93c4..ae1b7fd 100644
+--- a/arch/um/sys-x86_64/shared/sysdep/system.h
++++ b/arch/um/sys-x86_64/shared/sysdep/system.h
+@@ -17,7 +17,7 @@
+ # define AT_VECTOR_SIZE_ARCH 1
+ #endif
+-extern unsigned long arch_align_stack(unsigned long sp);
++#define arch_align_stack(x) ((x) & ~0xfUL)
+ void default_idle(void);
+diff --git a/arch/x86/Kconfig b/arch/x86/Kconfig
+index 73ae02a..f932de5 100644
+--- a/arch/x86/Kconfig
++++ b/arch/x86/Kconfig
+@@ -223,7 +223,7 @@ config X86_TRAMPOLINE
+ config X86_32_LAZY_GS
+       def_bool y
+-      depends on X86_32 && !CC_STACKPROTECTOR
++      depends on X86_32 && !CC_STACKPROTECTOR && !PAX_MEMORY_UDEREF
+ config KTIME_SCALAR
+       def_bool X86_32
+@@ -1008,7 +1008,7 @@ choice
+ config NOHIGHMEM
+       bool "off"
+-      depends on !X86_NUMAQ
++      depends on !X86_NUMAQ && !(PAX_PAGEEXEC && PAX_ENABLE_PAE)
+       ---help---
+         Linux can use up to 64 Gigabytes of physical memory on x86 systems.
+         However, the address space of 32-bit x86 processors is only 4
+@@ -1045,7 +1045,7 @@ config NOHIGHMEM
+ config HIGHMEM4G
+       bool "4GB"
+-      depends on !X86_NUMAQ
++      depends on !X86_NUMAQ && !(PAX_PAGEEXEC && PAX_ENABLE_PAE)
+       ---help---
+         Select this if you have a 32-bit processor and between 1 and 4
+         gigabytes of physical RAM.
+@@ -1099,7 +1099,7 @@ config PAGE_OFFSET
+       hex
+       default 0xB0000000 if VMSPLIT_3G_OPT
+       default 0x80000000 if VMSPLIT_2G
+-      default 0x78000000 if VMSPLIT_2G_OPT
++      default 0x70000000 if VMSPLIT_2G_OPT
+       default 0x40000000 if VMSPLIT_1G
+       default 0xC0000000
+       depends on X86_32
+@@ -1460,6 +1460,7 @@ config SECCOMP
+ config CC_STACKPROTECTOR
+       bool "Enable -fstack-protector buffer overflow detection (EXPERIMENTAL)"
++      depends on X86_64 || !PAX_MEMORY_UDEREF
+       ---help---
+         This option turns on the -fstack-protector GCC feature. This
+         feature puts, at the beginning of functions, a canary value on
+@@ -1517,6 +1518,7 @@ config KEXEC_JUMP
+ config PHYSICAL_START
+       hex "Physical address where the kernel is loaded" if (EMBEDDED || CRASH_DUMP)
+       default "0x1000000"
++      range 0x400000 0x40000000
+       ---help---
+         This gives the physical address where the kernel is loaded.
+@@ -1581,6 +1583,7 @@ config PHYSICAL_ALIGN
+       hex
+       prompt "Alignment value to which kernel should be aligned" if X86_32
+       default "0x1000000"
++      range 0x400000 0x1000000 if PAX_KERNEXEC
+       range 0x2000 0x1000000
+       ---help---
+         This value puts the alignment restrictions on physical address
+@@ -1612,9 +1615,10 @@ config HOTPLUG_CPU
+         Say N if you want to disable CPU hotplug.
+ config COMPAT_VDSO
+-      def_bool y
++      def_bool n
+       prompt "Compat VDSO support"
+       depends on X86_32 || IA32_EMULATION
++      depends on !PAX_NOEXEC && !PAX_MEMORY_UDEREF
+       ---help---
+         Map the 32-bit VDSO to the predictable old-style address too.
+       ---help---
+diff --git a/arch/x86/Kconfig.cpu b/arch/x86/Kconfig.cpu
+index 0e566103..1a6b57e 100644
+--- a/arch/x86/Kconfig.cpu
++++ b/arch/x86/Kconfig.cpu
+@@ -340,7 +340,7 @@ config X86_PPRO_FENCE
+ config X86_F00F_BUG
+       def_bool y
+-      depends on M586MMX || M586TSC || M586 || M486 || M386
++      depends on (M586MMX || M586TSC || M586 || M486 || M386) && !PAX_KERNEXEC
+ config X86_WP_WORKS_OK
+       def_bool y
+@@ -360,7 +360,7 @@ config X86_POPAD_OK
+ config X86_ALIGNMENT_16
+       def_bool y
+-      depends on MWINCHIP3D || MWINCHIPC6 || MCYRIXIII || X86_ELAN || MK6 || M586MMX || M586TSC || M586 || M486 || MVIAC3_2 || MGEODEGX1
++      depends on MWINCHIP3D || MWINCHIPC6 || MCYRIXIII || X86_ELAN || MK8 || MK7 || MK6 || MCORE2 || MPENTIUM4 || MPENTIUMIII || MPENTIUMII || M686 || M586MMX || M586TSC || M586 || M486 || MVIAC3_2 || MGEODEGX1
+ config X86_INTEL_USERCOPY
+       def_bool y
+@@ -406,7 +406,7 @@ config X86_CMPXCHG64
+ # generates cmov.
+ config X86_CMOV
+       def_bool y
+-      depends on (MK8 || MK7 || MCORE2 || MPENTIUM4 || MPENTIUMM || MPENTIUMIII || MPENTIUMII || M686 || MVIAC3_2 || MVIAC7 || MCRUSOE || MEFFICEON || X86_64 || MATOM)
++      depends on (MK8 || MK7 || MCORE2 || MPSC || MPENTIUM4 || MPENTIUMM || MPENTIUMIII || MPENTIUMII || M686 || MVIAC3_2 || MVIAC7 || MCRUSOE || MEFFICEON || X86_64 || MATOM)
+ config X86_MINIMUM_CPU_FAMILY
+       int
+diff --git a/arch/x86/Kconfig.debug b/arch/x86/Kconfig.debug
+index d105f29..c928727 100644
+--- a/arch/x86/Kconfig.debug
++++ b/arch/x86/Kconfig.debug
+@@ -99,7 +99,7 @@ config X86_PTDUMP
+ config DEBUG_RODATA
+       bool "Write protect kernel read-only data structures"
+       default y
+-      depends on DEBUG_KERNEL
++      depends on DEBUG_KERNEL && BROKEN
+       ---help---
+         Mark the kernel read-only data as write-protected in the pagetables,
+         in order to catch accidental (and incorrect) writes to such const
+diff --git a/arch/x86/Makefile b/arch/x86/Makefile
+index d2d24c9..0f21f8d 100644
+--- a/arch/x86/Makefile
++++ b/arch/x86/Makefile
+@@ -44,6 +44,7 @@ ifeq ($(CONFIG_X86_32),y)
+ else
+         BITS := 64
+         UTS_MACHINE := x86_64
++      biarch := $(call cc-option,-m64)
+         CHECKFLAGS += -D__x86_64__ -m64
+         KBUILD_AFLAGS += -m64
+@@ -189,3 +190,12 @@ define archhelp
+   echo  '                  FDARGS="..."  arguments for the booted kernel'
+   echo  '                  FDINITRD=file initrd for the booted kernel'
+ endef
++
++define OLD_LD
++
++*** ${VERSION}.${PATCHLEVEL} PaX kernels no longer build correctly with old versions of binutils.
++*** Please upgrade your binutils to 2.18 or newer
++endef
++
++archprepare:
++      $(if $(LDFLAGS_BUILD_ID),,$(error $(OLD_LD)))
+diff --git a/arch/x86/boot/Makefile b/arch/x86/boot/Makefile
+index ec749c2..bbb5319 100644
+--- a/arch/x86/boot/Makefile
++++ b/arch/x86/boot/Makefile
+@@ -69,6 +69,9 @@ KBUILD_CFLAGS        := $(LINUXINCLUDE) -g -Os -D_SETUP -D__KERNEL__ \
+                  $(call cc-option, -fno-stack-protector) \
+                  $(call cc-option, -mpreferred-stack-boundary=2)
+ KBUILD_CFLAGS += $(call cc-option, -m32)
++ifdef CONSTIFY_PLUGIN
++KBUILD_CFLAGS += $(CONSTIFY_PLUGIN) -fplugin-arg-constify_plugin-no-constify
++endif
+ KBUILD_AFLAGS := $(KBUILD_CFLAGS) -D__ASSEMBLY__
+ GCOV_PROFILE := n
+diff --git a/arch/x86/boot/bitops.h b/arch/x86/boot/bitops.h
+index 878e4b9..20537ab 100644
+--- a/arch/x86/boot/bitops.h
++++ b/arch/x86/boot/bitops.h
+@@ -26,7 +26,7 @@ static inline int variable_test_bit(int nr, const void *addr)
+       u8 v;
+       const u32 *p = (const u32 *)addr;
+-      asm("btl %2,%1; setc %0" : "=qm" (v) : "m" (*p), "Ir" (nr));
++      asm volatile("btl %2,%1; setc %0" : "=qm" (v) : "m" (*p), "Ir" (nr));
+       return v;
+ }
+@@ -37,7 +37,7 @@ static inline int variable_test_bit(int nr, const void *addr)
+ static inline void set_bit(int nr, void *addr)
+ {
+-      asm("btsl %1,%0" : "+m" (*(u32 *)addr) : "Ir" (nr));
++      asm volatile("btsl %1,%0" : "+m" (*(u32 *)addr) : "Ir" (nr));
+ }
+ #endif /* BOOT_BITOPS_H */
+diff --git a/arch/x86/boot/boot.h b/arch/x86/boot/boot.h
+index 98239d2..f40214c 100644
+--- a/arch/x86/boot/boot.h
++++ b/arch/x86/boot/boot.h
+@@ -82,7 +82,7 @@ static inline void io_delay(void)
+ static inline u16 ds(void)
+ {
+       u16 seg;
+-      asm("movw %%ds,%0" : "=rm" (seg));
++      asm volatile("movw %%ds,%0" : "=rm" (seg));
+       return seg;
+ }
+@@ -178,7 +178,7 @@ static inline void wrgs32(u32 v, addr_t addr)
+ static inline int memcmp(const void *s1, const void *s2, size_t len)
+ {
+       u8 diff;
+-      asm("repe; cmpsb; setnz %0"
++      asm volatile("repe; cmpsb; setnz %0"
+           : "=qm" (diff), "+D" (s1), "+S" (s2), "+c" (len));
+       return diff;
+ }
+diff --git a/arch/x86/boot/compressed/Makefile b/arch/x86/boot/compressed/Makefile
+index f8ed065..5bf5ff3 100644
+--- a/arch/x86/boot/compressed/Makefile
++++ b/arch/x86/boot/compressed/Makefile
+@@ -13,6 +13,9 @@ cflags-$(CONFIG_X86_64) := -mcmodel=small
+ KBUILD_CFLAGS += $(cflags-y)
+ KBUILD_CFLAGS += $(call cc-option,-ffreestanding)
+ KBUILD_CFLAGS += $(call cc-option,-fno-stack-protector)
++ifdef CONSTIFY_PLUGIN
++KBUILD_CFLAGS += $(CONSTIFY_PLUGIN) -fplugin-arg-constify_plugin-no-constify
++endif
+ KBUILD_AFLAGS  := $(KBUILD_CFLAGS) -D__ASSEMBLY__
+ GCOV_PROFILE := n
+diff --git a/arch/x86/boot/compressed/head_32.S b/arch/x86/boot/compressed/head_32.S
+index f543b70..b60fba8 100644
+--- a/arch/x86/boot/compressed/head_32.S
++++ b/arch/x86/boot/compressed/head_32.S
+@@ -76,7 +76,7 @@ ENTRY(startup_32)
+       notl    %eax
+       andl    %eax, %ebx
+ #else
+-      movl    $LOAD_PHYSICAL_ADDR, %ebx
++      movl    $____LOAD_PHYSICAL_ADDR, %ebx
+ #endif
+       /* Target address to relocate to for decompression */
+@@ -149,7 +149,7 @@ relocated:
+  * and where it was actually loaded.
+  */
+       movl    %ebp, %ebx
+-      subl    $LOAD_PHYSICAL_ADDR, %ebx
++      subl    $____LOAD_PHYSICAL_ADDR, %ebx
+       jz      2f      /* Nothing to be done if loaded at compiled addr. */
+ /*
+  * Process relocations.
+@@ -157,8 +157,7 @@ relocated:
+ 1:    subl    $4, %edi
+       movl    (%edi), %ecx
+-      testl   %ecx, %ecx
+-      jz      2f
++      jecxz   2f
+       addl    %ebx, -__PAGE_OFFSET(%ebx, %ecx)
+       jmp     1b
+ 2:
+diff --git a/arch/x86/boot/compressed/head_64.S b/arch/x86/boot/compressed/head_64.S
+index 077e1b6..2c6b13b 100644
+--- a/arch/x86/boot/compressed/head_64.S
++++ b/arch/x86/boot/compressed/head_64.S
+@@ -91,7 +91,7 @@ ENTRY(startup_32)
+       notl    %eax
+       andl    %eax, %ebx
+ #else
+-      movl    $LOAD_PHYSICAL_ADDR, %ebx
++      movl    $____LOAD_PHYSICAL_ADDR, %ebx
+ #endif
+       /* Target address to relocate to for decompression */
+@@ -183,7 +183,7 @@ no_longmode:
+       hlt
+       jmp     1b
+-#include "../../kernel/verify_cpu_64.S"
++#include "../../kernel/verify_cpu.S"
+       /*
+        * Be careful here startup_64 needs to be at a predictable
+@@ -234,7 +234,7 @@ ENTRY(startup_64)
+       notq    %rax
+       andq    %rax, %rbp
+ #else
+-      movq    $LOAD_PHYSICAL_ADDR, %rbp
++      movq    $____LOAD_PHYSICAL_ADDR, %rbp
+ #endif
+       /* Target address to relocate to for decompression */
+diff --git a/arch/x86/boot/compressed/misc.c b/arch/x86/boot/compressed/misc.c
+index 842b2a3..f00178b 100644
+--- a/arch/x86/boot/compressed/misc.c
++++ b/arch/x86/boot/compressed/misc.c
+@@ -288,7 +288,7 @@ static void parse_elf(void *output)
+               case PT_LOAD:
+ #ifdef CONFIG_RELOCATABLE
+                       dest = output;
+-                      dest += (phdr->p_paddr - LOAD_PHYSICAL_ADDR);
++                      dest += (phdr->p_paddr - ____LOAD_PHYSICAL_ADDR);
+ #else
+                       dest = (void *)(phdr->p_paddr);
+ #endif
+@@ -335,7 +335,7 @@ asmlinkage void decompress_kernel(void *rmode, memptr heap,
+               error("Destination address too large");
+ #endif
+ #ifndef CONFIG_RELOCATABLE
+-      if ((unsigned long)output != LOAD_PHYSICAL_ADDR)
++      if ((unsigned long)output != ____LOAD_PHYSICAL_ADDR)
+               error("Wrong destination address");
+ #endif
+diff --git a/arch/x86/boot/compressed/mkpiggy.c b/arch/x86/boot/compressed/mkpiggy.c
+index bcbd36c..b1754af 100644
+--- a/arch/x86/boot/compressed/mkpiggy.c
++++ b/arch/x86/boot/compressed/mkpiggy.c
+@@ -74,7 +74,7 @@ int main(int argc, char *argv[])
+       offs = (olen > ilen) ? olen - ilen : 0;
+       offs += olen >> 12;     /* Add 8 bytes for each 32K block */
+-      offs += 32*1024 + 18;   /* Add 32K + 18 bytes slack */
++      offs += 64*1024;        /* Add 64K bytes slack */
+       offs = (offs+4095) & ~4095; /* Round to a 4K boundary */
+       printf(".section \".rodata.compressed\",\"a\",@progbits\n");
+diff --git a/arch/x86/boot/compressed/relocs.c b/arch/x86/boot/compressed/relocs.c
+index bbeb0c3..f5167ab 100644
+--- a/arch/x86/boot/compressed/relocs.c
++++ b/arch/x86/boot/compressed/relocs.c
+@@ -10,8 +10,11 @@
+ #define USE_BSD
+ #include <endian.h>
++#include "../../../../include/linux/autoconf.h"
++
+ #define ARRAY_SIZE(x) (sizeof(x) / sizeof((x)[0]))
+ static Elf32_Ehdr ehdr;
++static Elf32_Phdr *phdr;
+ static unsigned long reloc_count, reloc_idx;
+ static unsigned long *relocs;
+@@ -37,7 +40,7 @@ static const char* safe_abs_relocs[] = {
+ static int is_safe_abs_reloc(const char* sym_name)
+ {
+-      int i;
++      unsigned int i;
+       for (i = 0; i < ARRAY_SIZE(safe_abs_relocs); i++) {
+               if (!strcmp(sym_name, safe_abs_relocs[i]))
+@@ -245,9 +248,39 @@ static void read_ehdr(FILE *fp)
+       }
+ }
++static void read_phdrs(FILE *fp)
++{
++      unsigned int i;
++
++      phdr = calloc(ehdr.e_phnum, sizeof(Elf32_Phdr));
++      if (!phdr) {
++              die("Unable to allocate %d program headers\n",
++                  ehdr.e_phnum);
++      }
++      if (fseek(fp, ehdr.e_phoff, SEEK_SET) < 0) {
++              die("Seek to %d failed: %s\n",
++                      ehdr.e_phoff, strerror(errno));
++      }
++      if (fread(phdr, sizeof(*phdr), ehdr.e_phnum, fp) != ehdr.e_phnum) {
++              die("Cannot read ELF program headers: %s\n",
++                      strerror(errno));
++      }
++      for(i = 0; i < ehdr.e_phnum; i++) {
++              phdr[i].p_type      = elf32_to_cpu(phdr[i].p_type);
++              phdr[i].p_offset    = elf32_to_cpu(phdr[i].p_offset);
++              phdr[i].p_vaddr     = elf32_to_cpu(phdr[i].p_vaddr);
++              phdr[i].p_paddr     = elf32_to_cpu(phdr[i].p_paddr);
++              phdr[i].p_filesz    = elf32_to_cpu(phdr[i].p_filesz);
++              phdr[i].p_memsz     = elf32_to_cpu(phdr[i].p_memsz);
++              phdr[i].p_flags     = elf32_to_cpu(phdr[i].p_flags);
++              phdr[i].p_align     = elf32_to_cpu(phdr[i].p_align);
++      }
++
++}
++
+ static void read_shdrs(FILE *fp)
+ {
+-      int i;
++      unsigned int i;
+       Elf32_Shdr shdr;
+       secs = calloc(ehdr.e_shnum, sizeof(struct section));
+@@ -282,7 +315,7 @@ static void read_shdrs(FILE *fp)
+ static void read_strtabs(FILE *fp)
+ {
+-      int i;
++      unsigned int i;
+       for (i = 0; i < ehdr.e_shnum; i++) {
+               struct section *sec = &secs[i];
+               if (sec->shdr.sh_type != SHT_STRTAB) {
+@@ -307,7 +340,7 @@ static void read_strtabs(FILE *fp)
+ static void read_symtabs(FILE *fp)
+ {
+-      int i,j;
++      unsigned int i,j;
+       for (i = 0; i < ehdr.e_shnum; i++) {
+               struct section *sec = &secs[i];
+               if (sec->shdr.sh_type != SHT_SYMTAB) {
+@@ -340,7 +373,9 @@ static void read_symtabs(FILE *fp)
+ static void read_relocs(FILE *fp)
+ {
+-      int i,j;
++      unsigned int i,j;
++      uint32_t base;
++
+       for (i = 0; i < ehdr.e_shnum; i++) {
+               struct section *sec = &secs[i];
+               if (sec->shdr.sh_type != SHT_REL) {
+@@ -360,9 +395,18 @@ static void read_relocs(FILE *fp)
+                       die("Cannot read symbol table: %s\n",
+                               strerror(errno));
+               }
++              base = 0;
++              for (j = 0; j < ehdr.e_phnum; j++) {
++                      if (phdr[j].p_type != PT_LOAD )
++                              continue;
++                      if (secs[sec->shdr.sh_info].shdr.sh_offset < phdr[j].p_offset || secs[sec->shdr.sh_info].shdr.sh_offset >= phdr[j].p_offset + phdr[j].p_filesz)
++                              continue;
++                      base = CONFIG_PAGE_OFFSET + phdr[j].p_paddr - phdr[j].p_vaddr;
++                      break;
++              }
+               for (j = 0; j < sec->shdr.sh_size/sizeof(Elf32_Rel); j++) {
+                       Elf32_Rel *rel = &sec->reltab[j];
+-                      rel->r_offset = elf32_to_cpu(rel->r_offset);
++                      rel->r_offset = elf32_to_cpu(rel->r_offset) + base;
+                       rel->r_info   = elf32_to_cpu(rel->r_info);
+               }
+       }
+@@ -371,14 +415,14 @@ static void read_relocs(FILE *fp)
+ static void print_absolute_symbols(void)
+ {
+-      int i;
++      unsigned int i;
+       printf("Absolute symbols\n");
+       printf(" Num:    Value Size  Type       Bind        Visibility  Name\n");
+       for (i = 0; i < ehdr.e_shnum; i++) {
+               struct section *sec = &secs[i];
+               char *sym_strtab;
+               Elf32_Sym *sh_symtab;
+-              int j;
++              unsigned int j;
+               if (sec->shdr.sh_type != SHT_SYMTAB) {
+                       continue;
+@@ -406,14 +450,14 @@ static void print_absolute_symbols(void)
+ static void print_absolute_relocs(void)
+ {
+-      int i, printed = 0;
++      unsigned int i, printed = 0;
+       for (i = 0; i < ehdr.e_shnum; i++) {
+               struct section *sec = &secs[i];
+               struct section *sec_applies, *sec_symtab;
+               char *sym_strtab;
+               Elf32_Sym *sh_symtab;
+-              int j;
++              unsigned int j;
+               if (sec->shdr.sh_type != SHT_REL) {
+                       continue;
+               }
+@@ -474,13 +518,13 @@ static void print_absolute_relocs(void)
+ static void walk_relocs(void (*visit)(Elf32_Rel *rel, Elf32_Sym *sym))
+ {
+-      int i;
++      unsigned int i;
+       /* Walk through the relocations */
+       for (i = 0; i < ehdr.e_shnum; i++) {
+               char *sym_strtab;
+               Elf32_Sym *sh_symtab;
+               struct section *sec_applies, *sec_symtab;
+-              int j;
++              unsigned int j;
+               struct section *sec = &secs[i];
+               if (sec->shdr.sh_type != SHT_REL) {
+@@ -504,6 +548,21 @@ static void walk_relocs(void (*visit)(Elf32_Rel *rel, Elf32_Sym *sym))
+                       if (sym->st_shndx == SHN_ABS) {
+                               continue;
+                       }
++                      /* Don't relocate actual per-cpu variables, they are absolute indices, not addresses */
++                      if (!strcmp(sec_name(sym->st_shndx), ".data.percpu") && strcmp(sym_name(sym_strtab, sym), "__per_cpu_load"))
++                              continue;
++
++#if defined(CONFIG_PAX_KERNEXEC) && defined(CONFIG_X86_32)
++                      /* Don't relocate actual code, they are relocated implicitly by the base address of KERNEL_CS */
++                      if (!strcmp(sec_name(sym->st_shndx), ".module.text") && !strcmp(sym_name(sym_strtab, sym), "_etext"))
++                              continue;
++                      if (!strcmp(sec_name(sym->st_shndx), ".init.text"))
++                              continue;
++                      if (!strcmp(sec_name(sym->st_shndx), ".exit.text"))
++                              continue;
++                      if (!strcmp(sec_name(sym->st_shndx), ".text") && strcmp(sym_name(sym_strtab, sym), "__LOAD_PHYSICAL_ADDR"))
++                              continue;
++#endif
+                       if (r_type == R_386_NONE || r_type == R_386_PC32) {
+                               /*
+                                * NONE can be ignored and and PC relative
+@@ -541,7 +600,7 @@ static int cmp_relocs(const void *va, const void *vb)
+ static void emit_relocs(int as_text)
+ {
+-      int i;
++      unsigned int i;
+       /* Count how many relocations I have and allocate space for them. */
+       reloc_count = 0;
+       walk_relocs(count_reloc);
+@@ -634,6 +693,7 @@ int main(int argc, char **argv)
+                       fname, strerror(errno));
+       }
+       read_ehdr(fp);
++      read_phdrs(fp);
+       read_shdrs(fp);
+       read_strtabs(fp);
+       read_symtabs(fp);
+diff --git a/arch/x86/boot/cpucheck.c b/arch/x86/boot/cpucheck.c
+index 4d3ff03..e4972ff 100644
+--- a/arch/x86/boot/cpucheck.c
++++ b/arch/x86/boot/cpucheck.c
+@@ -74,7 +74,7 @@ static int has_fpu(void)
+       u16 fcw = -1, fsw = -1;
+       u32 cr0;
+-      asm("movl %%cr0,%0" : "=r" (cr0));
++      asm volatile("movl %%cr0,%0" : "=r" (cr0));
+       if (cr0 & (X86_CR0_EM|X86_CR0_TS)) {
+               cr0 &= ~(X86_CR0_EM|X86_CR0_TS);
+               asm volatile("movl %0,%%cr0" : : "r" (cr0));
+@@ -90,7 +90,7 @@ static int has_eflag(u32 mask)
+ {
+       u32 f0, f1;
+-      asm("pushfl ; "
++      asm volatile("pushfl ; "
+           "pushfl ; "
+           "popl %0 ; "
+           "movl %0,%1 ; "
+@@ -115,7 +115,7 @@ static void get_flags(void)
+               set_bit(X86_FEATURE_FPU, cpu.flags);
+       if (has_eflag(X86_EFLAGS_ID)) {
+-              asm("cpuid"
++              asm volatile("cpuid"
+                   : "=a" (max_intel_level),
+                     "=b" (cpu_vendor[0]),
+                     "=d" (cpu_vendor[1]),
+@@ -124,7 +124,7 @@ static void get_flags(void)
+               if (max_intel_level >= 0x00000001 &&
+                   max_intel_level <= 0x0000ffff) {
+-                      asm("cpuid"
++                      asm volatile("cpuid"
+                           : "=a" (tfms),
+                             "=c" (cpu.flags[4]),
+                             "=d" (cpu.flags[0])
+@@ -136,7 +136,7 @@ static void get_flags(void)
+                               cpu.model += ((tfms >> 16) & 0xf) << 4;
+               }
+-              asm("cpuid"
++              asm volatile("cpuid"
+                   : "=a" (max_amd_level)
+                   : "a" (0x80000000)
+                   : "ebx", "ecx", "edx");
+@@ -144,7 +144,7 @@ static void get_flags(void)
+               if (max_amd_level >= 0x80000001 &&
+                   max_amd_level <= 0x8000ffff) {
+                       u32 eax = 0x80000001;
+-                      asm("cpuid"
++                      asm volatile("cpuid"
+                           : "+a" (eax),
+                             "=c" (cpu.flags[6]),
+                             "=d" (cpu.flags[1])
+@@ -203,9 +203,9 @@ int check_cpu(int *cpu_level_ptr, int *req_level_ptr, u32 **err_flags_ptr)
+               u32 ecx = MSR_K7_HWCR;
+               u32 eax, edx;
+-              asm("rdmsr" : "=a" (eax), "=d" (edx) : "c" (ecx));
++              asm volatile("rdmsr" : "=a" (eax), "=d" (edx) : "c" (ecx));
+               eax &= ~(1 << 15);
+-              asm("wrmsr" : : "a" (eax), "d" (edx), "c" (ecx));
++              asm volatile("wrmsr" : : "a" (eax), "d" (edx), "c" (ecx));
+               get_flags();    /* Make sure it really did something */
+               err = check_flags();
+@@ -218,9 +218,9 @@ int check_cpu(int *cpu_level_ptr, int *req_level_ptr, u32 **err_flags_ptr)
+               u32 ecx = MSR_VIA_FCR;
+               u32 eax, edx;
+-              asm("rdmsr" : "=a" (eax), "=d" (edx) : "c" (ecx));
++              asm volatile("rdmsr" : "=a" (eax), "=d" (edx) : "c" (ecx));
+               eax |= (1<<1)|(1<<7);
+-              asm("wrmsr" : : "a" (eax), "d" (edx), "c" (ecx));
++              asm volatile("wrmsr" : : "a" (eax), "d" (edx), "c" (ecx));
+               set_bit(X86_FEATURE_CX8, cpu.flags);
+               err = check_flags();
+@@ -231,12 +231,12 @@ int check_cpu(int *cpu_level_ptr, int *req_level_ptr, u32 **err_flags_ptr)
+               u32 eax, edx;
+               u32 level = 1;
+-              asm("rdmsr" : "=a" (eax), "=d" (edx) : "c" (ecx));
+-              asm("wrmsr" : : "a" (~0), "d" (edx), "c" (ecx));
+-              asm("cpuid"
++              asm volatile("rdmsr" : "=a" (eax), "=d" (edx) : "c" (ecx));
++              asm volatile("wrmsr" : : "a" (~0), "d" (edx), "c" (ecx));
++              asm volatile("cpuid"
+                   : "+a" (level), "=d" (cpu.flags[0])
+                   : : "ecx", "ebx");
+-              asm("wrmsr" : : "a" (eax), "d" (edx), "c" (ecx));
++              asm volatile("wrmsr" : : "a" (eax), "d" (edx), "c" (ecx));
+               err = check_flags();
+       }
+diff --git a/arch/x86/boot/header.S b/arch/x86/boot/header.S
+index b31cc54..8d69237 100644
+--- a/arch/x86/boot/header.S
++++ b/arch/x86/boot/header.S
+@@ -224,7 +224,7 @@ setup_data:                .quad 0                 # 64-bit physical pointer to
+                                               # single linked list of
+                                               # struct setup_data
+-pref_address:         .quad LOAD_PHYSICAL_ADDR        # preferred load addr
++pref_address:         .quad ____LOAD_PHYSICAL_ADDR    # preferred load addr
+ #define ZO_INIT_SIZE  (ZO__end - ZO_startup_32 + ZO_z_extract_offset)
+ #define VO_INIT_SIZE  (VO__end - VO__text)
+diff --git a/arch/x86/boot/memory.c b/arch/x86/boot/memory.c
+index cae3feb..ff8ff2a 100644
+--- a/arch/x86/boot/memory.c
++++ b/arch/x86/boot/memory.c
+@@ -19,7 +19,7 @@
+ static int detect_memory_e820(void)
+ {
+-      int count = 0;
++      unsigned int count = 0;
+       struct biosregs ireg, oreg;
+       struct e820entry *desc = boot_params.e820_map;
+       static struct e820entry buf; /* static so it is zeroed */
+diff --git a/arch/x86/boot/video-vesa.c b/arch/x86/boot/video-vesa.c
+index 11e8c6e..fdbb1ed 100644
+--- a/arch/x86/boot/video-vesa.c
++++ b/arch/x86/boot/video-vesa.c
+@@ -200,6 +200,7 @@ static void vesa_store_pm_info(void)
+       boot_params.screen_info.vesapm_seg = oreg.es;
+       boot_params.screen_info.vesapm_off = oreg.di;
++      boot_params.screen_info.vesapm_size = oreg.cx;
+ }
+ /*
+diff --git a/arch/x86/boot/video.c b/arch/x86/boot/video.c
+index d42da38..787cdf3 100644
+--- a/arch/x86/boot/video.c
++++ b/arch/x86/boot/video.c
+@@ -90,7 +90,7 @@ static void store_mode_params(void)
+ static unsigned int get_entry(void)
+ {
+       char entry_buf[4];
+-      int i, len = 0;
++      unsigned int i, len = 0;
+       int key;
+       unsigned int v;
+diff --git a/arch/x86/crypto/aes-x86_64-asm_64.S b/arch/x86/crypto/aes-x86_64-asm_64.S
+index 5b577d5..3c1fed4 100644
+--- a/arch/x86/crypto/aes-x86_64-asm_64.S
++++ b/arch/x86/crypto/aes-x86_64-asm_64.S
+@@ -8,6 +8,8 @@
+  * including this sentence is retained in full.
+  */
++#include <asm/alternative-asm.h>
++
+ .extern crypto_ft_tab
+ .extern crypto_it_tab
+ .extern crypto_fl_tab
+@@ -71,6 +73,8 @@ FUNC:        movq    r1,r2;                  \
+       je      B192;                   \
+       leaq    32(r9),r9;
++#define ret   pax_force_retaddr 0, 1; ret
++
+ #define epilogue(r1,r2,r3,r4,r5,r6,r7,r8,r9) \
+       movq    r1,r2;                  \
+       movq    r3,r4;                  \
+diff --git a/arch/x86/crypto/aesni-intel_asm.S b/arch/x86/crypto/aesni-intel_asm.S
+index eb0566e..e3ebad8 100644
+--- a/arch/x86/crypto/aesni-intel_asm.S
++++ b/arch/x86/crypto/aesni-intel_asm.S
+@@ -16,6 +16,7 @@
+  */
+ #include <linux/linkage.h>
++#include <asm/alternative-asm.h>
+ .text
+@@ -52,6 +53,7 @@ _key_expansion_256a:
+       pxor %xmm1, %xmm0
+       movaps %xmm0, (%rcx)
+       add $0x10, %rcx
++      pax_force_retaddr_bts
+       ret
+ _key_expansion_192a:
+@@ -75,6 +77,7 @@ _key_expansion_192a:
+       shufps $0b01001110, %xmm2, %xmm1
+       movaps %xmm1, 16(%rcx)
+       add $0x20, %rcx
++      pax_force_retaddr_bts
+       ret
+ _key_expansion_192b:
+@@ -93,6 +96,7 @@ _key_expansion_192b:
+       movaps %xmm0, (%rcx)
+       add $0x10, %rcx
++      pax_force_retaddr_bts
+       ret
+ _key_expansion_256b:
+@@ -104,6 +108,7 @@ _key_expansion_256b:
+       pxor %xmm1, %xmm2
+       movaps %xmm2, (%rcx)
+       add $0x10, %rcx
++      pax_force_retaddr_bts
+       ret
+ /*
+@@ -239,7 +244,9 @@ ENTRY(aesni_set_key)
+       cmp %rcx, %rdi
+       jb .Ldec_key_loop
+       xor %rax, %rax
++      pax_force_retaddr 0, 1
+       ret
++ENDPROC(aesni_set_key)
+ /*
+  * void aesni_enc(struct crypto_aes_ctx *ctx, u8 *dst, const u8 *src)
+@@ -249,7 +256,9 @@ ENTRY(aesni_enc)
+       movups (INP), STATE             # input
+       call _aesni_enc1
+       movups STATE, (OUTP)            # output
++      pax_force_retaddr 0, 1
+       ret
++ENDPROC(aesni_enc)
+ /*
+  * _aesni_enc1:               internal ABI
+@@ -319,6 +328,7 @@ _aesni_enc1:
+       movaps 0x70(TKEYP), KEY
+       # aesenclast KEY, STATE # last round
+       .byte 0x66, 0x0f, 0x38, 0xdd, 0xc2
++      pax_force_retaddr_bts
+       ret
+ /*
+@@ -482,6 +492,7 @@ _aesni_enc4:
+       .byte 0x66, 0x0f, 0x38, 0xdd, 0xea
+       # aesenclast KEY, STATE4
+       .byte 0x66, 0x0f, 0x38, 0xdd, 0xf2
++      pax_force_retaddr_bts
+       ret
+ /*
+@@ -493,7 +504,9 @@ ENTRY(aesni_dec)
+       movups (INP), STATE             # input
+       call _aesni_dec1
+       movups STATE, (OUTP)            #output
++      pax_force_retaddr 0, 1
+       ret
++ENDPROC(aesni_dec)
+ /*
+  * _aesni_dec1:               internal ABI
+@@ -563,6 +576,7 @@ _aesni_dec1:
+       movaps 0x70(TKEYP), KEY
+       # aesdeclast KEY, STATE         # last round
+       .byte 0x66, 0x0f, 0x38, 0xdf, 0xc2
++      pax_force_retaddr_bts
+       ret
+ /*
+@@ -726,6 +740,7 @@ _aesni_dec4:
+       .byte 0x66, 0x0f, 0x38, 0xdf, 0xea
+       # aesdeclast KEY, STATE4
+       .byte 0x66, 0x0f, 0x38, 0xdf, 0xf2
++      pax_force_retaddr_bts
+       ret
+ /*
+@@ -769,7 +784,9 @@ ENTRY(aesni_ecb_enc)
+       cmp $16, LEN
+       jge .Lecb_enc_loop1
+ .Lecb_enc_ret:
++      pax_force_retaddr 0, 1
+       ret
++ENDPROC(aesni_ecb_enc)
+ /*
+  * void aesni_ecb_dec(struct crypto_aes_ctx *ctx, const u8 *dst, u8 *src,
+@@ -813,7 +830,9 @@ ENTRY(aesni_ecb_dec)
+       cmp $16, LEN
+       jge .Lecb_dec_loop1
+ .Lecb_dec_ret:
++      pax_force_retaddr 0, 1
+       ret
++ENDPROC(aesni_ecb_dec)
+ /*
+  * void aesni_cbc_enc(struct crypto_aes_ctx *ctx, const u8 *dst, u8 *src,
+@@ -837,7 +856,9 @@ ENTRY(aesni_cbc_enc)
+       jge .Lcbc_enc_loop
+       movups STATE, (IVP)
+ .Lcbc_enc_ret:
++      pax_force_retaddr 0, 1
+       ret
++ENDPROC(aesni_cbc_enc)
+ /*
+  * void aesni_cbc_dec(struct crypto_aes_ctx *ctx, const u8 *dst, u8 *src,
+@@ -894,4 +915,6 @@ ENTRY(aesni_cbc_dec)
+ .Lcbc_dec_ret:
+       movups IV, (IVP)
+ .Lcbc_dec_just_ret:
++      pax_force_retaddr 0, 1
+       ret
++ENDPROC(aesni_cbc_dec)
+diff --git a/arch/x86/crypto/salsa20-x86_64-asm_64.S b/arch/x86/crypto/salsa20-x86_64-asm_64.S
+index 6214a9b..1f4fc9a 100644
+--- a/arch/x86/crypto/salsa20-x86_64-asm_64.S
++++ b/arch/x86/crypto/salsa20-x86_64-asm_64.S
+@@ -1,3 +1,5 @@
++#include <asm/alternative-asm.h>
++
+ # enter ECRYPT_encrypt_bytes
+ .text
+ .p2align 5
+@@ -790,6 +792,7 @@ ECRYPT_encrypt_bytes:
+       add     %r11,%rsp
+       mov     %rdi,%rax
+       mov     %rsi,%rdx
++      pax_force_retaddr 0, 1
+       ret
+ #   bytesatleast65:
+ ._bytesatleast65:
+@@ -891,6 +894,7 @@ ECRYPT_keysetup:
+       add     %r11,%rsp
+       mov     %rdi,%rax
+       mov     %rsi,%rdx
++      pax_force_retaddr
+       ret
+ # enter ECRYPT_ivsetup
+ .text
+@@ -917,4 +921,5 @@ ECRYPT_ivsetup:
+       add     %r11,%rsp
+       mov     %rdi,%rax
+       mov     %rsi,%rdx
++      pax_force_retaddr
+       ret
+diff --git a/arch/x86/crypto/twofish-x86_64-asm_64.S b/arch/x86/crypto/twofish-x86_64-asm_64.S
+index 35974a5..5662ae2 100644
+--- a/arch/x86/crypto/twofish-x86_64-asm_64.S
++++ b/arch/x86/crypto/twofish-x86_64-asm_64.S
+@@ -21,6 +21,7 @@
+ .text
+ #include <asm/asm-offsets.h>
++#include <asm/alternative-asm.h>
+ #define a_offset      0
+ #define b_offset      4
+@@ -269,6 +270,7 @@ twofish_enc_blk:
+       popq    R1
+       movq    $1,%rax
++      pax_force_retaddr 0, 1
+       ret
+ twofish_dec_blk:
+@@ -321,4 +323,5 @@ twofish_dec_blk:
+       popq    R1
+       movq    $1,%rax
++      pax_force_retaddr 0, 1
+       ret
+diff --git a/arch/x86/ia32/ia32_aout.c b/arch/x86/ia32/ia32_aout.c
+index 14531ab..a89a0c0 100644
+--- a/arch/x86/ia32/ia32_aout.c
++++ b/arch/x86/ia32/ia32_aout.c
+@@ -169,6 +169,8 @@ static int aout_core_dump(long signr, struct pt_regs *regs, struct file *file,
+       unsigned long dump_start, dump_size;
+       struct user32 dump;
++      memset(&dump, 0, sizeof(dump));
++
+       fs = get_fs();
+       set_fs(KERNEL_DS);
+       has_dumped = 1;
+@@ -218,12 +220,6 @@ static int aout_core_dump(long signr, struct pt_regs *regs, struct file *file,
+               dump_size = dump.u_ssize << PAGE_SHIFT;
+               DUMP_WRITE(dump_start, dump_size);
+       }
+-      /*
+-       * Finally dump the task struct.  Not be used by gdb, but
+-       * could be useful
+-       */
+-      set_fs(KERNEL_DS);
+-      DUMP_WRITE(current, sizeof(*current));
+ end_coredump:
+       set_fs(fs);
+       return has_dumped;
+diff --git a/arch/x86/ia32/ia32_signal.c b/arch/x86/ia32/ia32_signal.c
+index 588a7aa..a3468b0 100644
+--- a/arch/x86/ia32/ia32_signal.c
++++ b/arch/x86/ia32/ia32_signal.c
+@@ -167,7 +167,7 @@ asmlinkage long sys32_sigaltstack(const stack_ia32_t __user *uss_ptr,
+       }
+       seg = get_fs();
+       set_fs(KERNEL_DS);
+-      ret = do_sigaltstack(uss_ptr ? &uss : NULL, &uoss, regs->sp);
++      ret = do_sigaltstack(uss_ptr ? (const stack_t __force_user *)&uss : NULL, (stack_t __force_user *)&uoss, regs->sp);
+       set_fs(seg);
+       if (ret >= 0 && uoss_ptr)  {
+               if (!access_ok(VERIFY_WRITE, uoss_ptr, sizeof(stack_ia32_t)))
+@@ -374,7 +374,7 @@ static int ia32_setup_sigcontext(struct sigcontext_ia32 __user *sc,
+  */
+ static void __user *get_sigframe(struct k_sigaction *ka, struct pt_regs *regs,
+                                size_t frame_size,
+-                               void **fpstate)
++                               void __user **fpstate)
+ {
+       unsigned long sp;
+@@ -395,7 +395,7 @@ static void __user *get_sigframe(struct k_sigaction *ka, struct pt_regs *regs,
+       if (used_math()) {
+               sp = sp - sig_xstate_ia32_size;
+-              *fpstate = (struct _fpstate_ia32 *) sp;
++              *fpstate = (struct _fpstate_ia32 __user *) sp;
+               if (save_i387_xstate_ia32(*fpstate) < 0)
+                       return (void __user *) -1L;
+       }
+@@ -403,7 +403,7 @@ static void __user *get_sigframe(struct k_sigaction *ka, struct pt_regs *regs,
+       sp -= frame_size;
+       /* Align the stack pointer according to the i386 ABI,
+        * i.e. so that on function entry ((sp + 4) & 15) == 0. */
+-      sp = ((sp + 4) & -16ul) - 4;
++      sp = ((sp - 12) & -16ul) - 4;
+       return (void __user *) sp;
+ }
+@@ -461,7 +461,7 @@ int ia32_setup_frame(int sig, struct k_sigaction *ka,
+                * These are actually not used anymore, but left because some
+                * gdb versions depend on them as a marker.
+                */
+-              put_user_ex(*((u64 *)&code), (u64 *)frame->retcode);
++              put_user_ex(*((const u64 *)&code), (u64 __user *)frame->retcode);
+       } put_user_catch(err);
+       if (err)
+@@ -503,7 +503,7 @@ int ia32_setup_rt_frame(int sig, struct k_sigaction *ka, siginfo_t *info,
+               0xb8,
+               __NR_ia32_rt_sigreturn,
+               0x80cd,
+-              0,
++              0
+       };
+       frame = get_sigframe(ka, regs, sizeof(*frame), &fpstate);
+@@ -533,16 +533,18 @@ int ia32_setup_rt_frame(int sig, struct k_sigaction *ka, siginfo_t *info,
+               if (ka->sa.sa_flags & SA_RESTORER)
+                       restorer = ka->sa.sa_restorer;
++              else if (current->mm->context.vdso)
++                      /* Return stub is in 32bit vsyscall page */
++                      restorer = VDSO32_SYMBOL(current->mm->context.vdso, rt_sigreturn);
+               else
+-                      restorer = VDSO32_SYMBOL(current->mm->context.vdso,
+-                                               rt_sigreturn);
++                      restorer = &frame->retcode;
+               put_user_ex(ptr_to_compat(restorer), &frame->pretcode);
+               /*
+                * Not actually used anymore, but left because some gdb
+                * versions need it.
+                */
+-              put_user_ex(*((u64 *)&code), (u64 *)frame->retcode);
++              put_user_ex(*((const u64 *)&code), (u64 __user *)frame->retcode);
+       } put_user_catch(err);
+       if (err)
+diff --git a/arch/x86/ia32/ia32entry.S b/arch/x86/ia32/ia32entry.S
+index 4edd8eb..29124b4 100644
+--- a/arch/x86/ia32/ia32entry.S
++++ b/arch/x86/ia32/ia32entry.S
+@@ -13,7 +13,9 @@
+ #include <asm/thread_info.h>  
+ #include <asm/segment.h>
+ #include <asm/irqflags.h>
++#include <asm/pgtable.h>
+ #include <linux/linkage.h>
++#include <asm/alternative-asm.h>
+ /* Avoid __ASSEMBLER__'ifying <linux/audit.h> just for this.  */
+ #include <linux/elf-em.h>
+@@ -93,6 +95,32 @@ ENTRY(native_irq_enable_sysexit)
+ ENDPROC(native_irq_enable_sysexit)
+ #endif
++      .macro pax_enter_kernel_user
++      pax_set_fptr_mask
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      call pax_enter_kernel_user
++#endif
++      .endm
++
++      .macro pax_exit_kernel_user
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      call pax_exit_kernel_user
++#endif
++#ifdef CONFIG_PAX_RANDKSTACK
++      pushq %rax
++      pushq %r11
++      call pax_randomize_kstack
++      popq %r11
++      popq %rax
++#endif
++      .endm
++
++.macro pax_erase_kstack
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++      call pax_erase_kstack
++#endif
++.endm
++
+ /*
+  * 32bit SYSENTER instruction entry.
+  *
+@@ -119,12 +147,6 @@ ENTRY(ia32_sysenter_target)
+       CFI_REGISTER    rsp,rbp
+       SWAPGS_UNSAFE_STACK
+       movq    PER_CPU_VAR(kernel_stack), %rsp
+-      addq    $(KERNEL_STACK_OFFSET),%rsp
+-      /*
+-       * No need to follow this irqs on/off section: the syscall
+-       * disabled irqs, here we enable it straight after entry:
+-       */
+-      ENABLE_INTERRUPTS(CLBR_NONE)
+       movl    %ebp,%ebp               /* zero extension */
+       pushq   $__USER32_DS
+       CFI_ADJUST_CFA_OFFSET 8
+@@ -135,28 +157,42 @@ ENTRY(ia32_sysenter_target)
+       pushfq
+       CFI_ADJUST_CFA_OFFSET 8
+       /*CFI_REL_OFFSET rflags,0*/
+-      movl    8*3-THREAD_SIZE+TI_sysenter_return(%rsp), %r10d
+-      CFI_REGISTER rip,r10
++      orl     $X86_EFLAGS_IF,(%rsp)
++      GET_THREAD_INFO(%r11)
++      movl    TI_sysenter_return(%r11), %r11d
++      CFI_REGISTER rip,r11
+       pushq   $__USER32_CS
+       CFI_ADJUST_CFA_OFFSET 8
+       /*CFI_REL_OFFSET cs,0*/
+       movl    %eax, %eax
+-      pushq   %r10
++      pushq   %r11
+       CFI_ADJUST_CFA_OFFSET 8
+       CFI_REL_OFFSET rip,0
+       pushq   %rax
+       CFI_ADJUST_CFA_OFFSET 8
+       cld
+       SAVE_ARGS 0,0,1
++      pax_enter_kernel_user
++      /*
++       * No need to follow this irqs on/off section: the syscall
++       * disabled irqs, here we enable it straight after entry:
++       */
++      ENABLE_INTERRUPTS(CLBR_NONE)
+       /* no need to do an access_ok check here because rbp has been
+          32bit zero extended */ 
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      mov $PAX_USER_SHADOW_BASE,%r11
++      add %r11,%rbp
++#endif
++
+ 1:    movl    (%rbp),%ebp
+       .section __ex_table,"a"
+       .quad 1b,ia32_badarg
+       .previous       
+-      GET_THREAD_INFO(%r10)
+-      orl    $TS_COMPAT,TI_status(%r10)
+-      testl  $_TIF_WORK_SYSCALL_ENTRY,TI_flags(%r10)
++      GET_THREAD_INFO(%r11)
++      orl    $TS_COMPAT,TI_status(%r11)
++      testl  $_TIF_WORK_SYSCALL_ENTRY,TI_flags(%r11)
+       CFI_REMEMBER_STATE
+       jnz  sysenter_tracesys
+       cmpq    $(IA32_NR_syscalls-1),%rax
+@@ -166,13 +202,15 @@ sysenter_do_call:
+ sysenter_dispatch:
+       call    *ia32_sys_call_table(,%rax,8)
+       movq    %rax,RAX-ARGOFFSET(%rsp)
+-      GET_THREAD_INFO(%r10)
++      GET_THREAD_INFO(%r11)
+       DISABLE_INTERRUPTS(CLBR_NONE)
+       TRACE_IRQS_OFF
+-      testl   $_TIF_ALLWORK_MASK,TI_flags(%r10)
++      testl   $_TIF_ALLWORK_MASK,TI_flags(%r11)
+       jnz     sysexit_audit
+ sysexit_from_sys_call:
+-      andl    $~TS_COMPAT,TI_status(%r10)
++      pax_exit_kernel_user
++      pax_erase_kstack
++      andl    $~TS_COMPAT,TI_status(%r11)
+       /* clear IF, that popfq doesn't enable interrupts early */
+       andl  $~0x200,EFLAGS-R11(%rsp) 
+       movl    RIP-R11(%rsp),%edx              /* User %eip */
+@@ -200,6 +238,9 @@ sysexit_from_sys_call:
+       movl %eax,%esi                  /* 2nd arg: syscall number */
+       movl $AUDIT_ARCH_I386,%edi      /* 1st arg: audit arch */
+       call audit_syscall_entry
++
++      pax_erase_kstack
++
+       movl RAX-ARGOFFSET(%rsp),%eax   /* reload syscall number */
+       cmpq $(IA32_NR_syscalls-1),%rax
+       ja ia32_badsys
+@@ -211,7 +252,7 @@ sysexit_from_sys_call:
+       .endm
+       .macro auditsys_exit exit
+-      testl $(_TIF_ALLWORK_MASK & ~_TIF_SYSCALL_AUDIT),TI_flags(%r10)
++      testl $(_TIF_ALLWORK_MASK & ~_TIF_SYSCALL_AUDIT),TI_flags(%r11)
+       jnz ia32_ret_from_sys_call
+       TRACE_IRQS_ON
+       sti
+@@ -221,12 +262,12 @@ sysexit_from_sys_call:
+       movzbl %al,%edi         /* zero-extend that into %edi */
+       inc %edi /* first arg, 0->1(AUDITSC_SUCCESS), 1->2(AUDITSC_FAILURE) */
+       call audit_syscall_exit
+-      GET_THREAD_INFO(%r10)
++      GET_THREAD_INFO(%r11)
+       movl RAX-ARGOFFSET(%rsp),%eax   /* reload syscall return value */
+       movl $(_TIF_ALLWORK_MASK & ~_TIF_SYSCALL_AUDIT),%edi
+       cli
+       TRACE_IRQS_OFF
+-      testl %edi,TI_flags(%r10)
++      testl %edi,TI_flags(%r11)
+       jz \exit
+       CLEAR_RREGS -ARGOFFSET
+       jmp int_with_check
+@@ -244,7 +285,7 @@ sysexit_audit:
+ sysenter_tracesys:
+ #ifdef CONFIG_AUDITSYSCALL
+-      testl   $(_TIF_WORK_SYSCALL_ENTRY & ~_TIF_SYSCALL_AUDIT),TI_flags(%r10)
++      testl   $(_TIF_WORK_SYSCALL_ENTRY & ~_TIF_SYSCALL_AUDIT),TI_flags(%r11)
+       jz      sysenter_auditsys
+ #endif
+       SAVE_REST
+@@ -252,6 +293,9 @@ sysenter_tracesys:
+       movq    $-ENOSYS,RAX(%rsp)/* ptrace can change this for a bad syscall */
+       movq    %rsp,%rdi        /* &pt_regs -> arg1 */
+       call    syscall_trace_enter
++
++      pax_erase_kstack
++
+       LOAD_ARGS32 ARGOFFSET  /* reload args from stack in case ptrace changed it */
+       RESTORE_REST
+       cmpq    $(IA32_NR_syscalls-1),%rax
+@@ -283,19 +327,20 @@ ENDPROC(ia32_sysenter_target)
+ ENTRY(ia32_cstar_target)
+       CFI_STARTPROC32 simple
+       CFI_SIGNAL_FRAME
+-      CFI_DEF_CFA     rsp,KERNEL_STACK_OFFSET
++      CFI_DEF_CFA     rsp,0
+       CFI_REGISTER    rip,rcx
+       /*CFI_REGISTER  rflags,r11*/
+       SWAPGS_UNSAFE_STACK
+       movl    %esp,%r8d
+       CFI_REGISTER    rsp,r8
+       movq    PER_CPU_VAR(kernel_stack),%rsp
++      SAVE_ARGS 8*6,1,1
++      pax_enter_kernel_user
+       /*
+        * No need to follow this irqs on/off section: the syscall
+        * disabled irqs and here we enable it straight after entry:
+        */
+       ENABLE_INTERRUPTS(CLBR_NONE)
+-      SAVE_ARGS 8,1,1
+       movl    %eax,%eax       /* zero extension */
+       movq    %rax,ORIG_RAX-ARGOFFSET(%rsp)
+       movq    %rcx,RIP-ARGOFFSET(%rsp)
+@@ -311,13 +356,19 @@ ENTRY(ia32_cstar_target)
+       /* no need to do an access_ok check here because r8 has been
+          32bit zero extended */ 
+       /* hardware stack frame is complete now */      
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      mov $PAX_USER_SHADOW_BASE,%r11
++      add %r11,%r8
++#endif
++
+ 1:    movl    (%r8),%r9d
+       .section __ex_table,"a"
+       .quad 1b,ia32_badarg
+       .previous       
+-      GET_THREAD_INFO(%r10)
+-      orl   $TS_COMPAT,TI_status(%r10)
+-      testl $_TIF_WORK_SYSCALL_ENTRY,TI_flags(%r10)
++      GET_THREAD_INFO(%r11)
++      orl   $TS_COMPAT,TI_status(%r11)
++      testl $_TIF_WORK_SYSCALL_ENTRY,TI_flags(%r11)
+       CFI_REMEMBER_STATE
+       jnz   cstar_tracesys
+       cmpq $IA32_NR_syscalls-1,%rax
+@@ -327,13 +378,15 @@ cstar_do_call:
+ cstar_dispatch:
+       call *ia32_sys_call_table(,%rax,8)
+       movq %rax,RAX-ARGOFFSET(%rsp)
+-      GET_THREAD_INFO(%r10)
++      GET_THREAD_INFO(%r11)
+       DISABLE_INTERRUPTS(CLBR_NONE)
+       TRACE_IRQS_OFF
+-      testl $_TIF_ALLWORK_MASK,TI_flags(%r10)
++      testl $_TIF_ALLWORK_MASK,TI_flags(%r11)
+       jnz sysretl_audit
+ sysretl_from_sys_call:
+-      andl $~TS_COMPAT,TI_status(%r10)
++      pax_exit_kernel_user
++      pax_erase_kstack
++      andl $~TS_COMPAT,TI_status(%r11)
+       RESTORE_ARGS 1,-ARG_SKIP,1,1,1
+       movl RIP-ARGOFFSET(%rsp),%ecx
+       CFI_REGISTER rip,rcx
+@@ -361,7 +414,7 @@ sysretl_audit:
+ cstar_tracesys:
+ #ifdef CONFIG_AUDITSYSCALL
+-      testl $(_TIF_WORK_SYSCALL_ENTRY & ~_TIF_SYSCALL_AUDIT),TI_flags(%r10)
++      testl $(_TIF_WORK_SYSCALL_ENTRY & ~_TIF_SYSCALL_AUDIT),TI_flags(%r11)
+       jz cstar_auditsys
+ #endif
+       xchgl %r9d,%ebp
+@@ -370,6 +423,9 @@ cstar_tracesys:
+       movq $-ENOSYS,RAX(%rsp) /* ptrace can change this for a bad syscall */
+       movq %rsp,%rdi        /* &pt_regs -> arg1 */
+       call syscall_trace_enter
++
++      pax_erase_kstack
++
+       LOAD_ARGS32 ARGOFFSET, 1  /* reload args from stack in case ptrace changed it */
+       RESTORE_REST
+       xchgl %ebp,%r9d
+@@ -415,11 +471,6 @@ ENTRY(ia32_syscall)
+       CFI_REL_OFFSET  rip,RIP-RIP
+       PARAVIRT_ADJUST_EXCEPTION_FRAME
+       SWAPGS
+-      /*
+-       * No need to follow this irqs on/off section: the syscall
+-       * disabled irqs and here we enable it straight after entry:
+-       */
+-      ENABLE_INTERRUPTS(CLBR_NONE)
+       movl %eax,%eax
+       pushq %rax
+       CFI_ADJUST_CFA_OFFSET 8
+@@ -427,9 +478,15 @@ ENTRY(ia32_syscall)
+       /* note the registers are not zero extended to the sf.
+          this could be a problem. */
+       SAVE_ARGS 0,0,1
+-      GET_THREAD_INFO(%r10)
+-      orl   $TS_COMPAT,TI_status(%r10)
+-      testl $_TIF_WORK_SYSCALL_ENTRY,TI_flags(%r10)
++      pax_enter_kernel_user
++      /*
++       * No need to follow this irqs on/off section: the syscall
++       * disabled irqs and here we enable it straight after entry:
++       */
++      ENABLE_INTERRUPTS(CLBR_NONE)
++      GET_THREAD_INFO(%r11)
++      orl   $TS_COMPAT,TI_status(%r11)
++      testl $_TIF_WORK_SYSCALL_ENTRY,TI_flags(%r11)
+       jnz ia32_tracesys
+       cmpq $(IA32_NR_syscalls-1),%rax
+       ja ia32_badsys
+@@ -448,6 +505,9 @@ ia32_tracesys:
+       movq $-ENOSYS,RAX(%rsp) /* ptrace can change this for a bad syscall */
+       movq %rsp,%rdi        /* &pt_regs -> arg1 */
+       call syscall_trace_enter
++
++      pax_erase_kstack
++
+       LOAD_ARGS32 ARGOFFSET  /* reload args from stack in case ptrace changed it */
+       RESTORE_REST
+       cmpq $(IA32_NR_syscalls-1),%rax
+@@ -462,6 +522,7 @@ ia32_badsys:
+ quiet_ni_syscall:
+       movq $-ENOSYS,%rax
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+       
+diff --git a/arch/x86/ia32/sys_ia32.c b/arch/x86/ia32/sys_ia32.c
+index 016218c..47ccbdd 100644
+--- a/arch/x86/ia32/sys_ia32.c
++++ b/arch/x86/ia32/sys_ia32.c
+@@ -69,8 +69,8 @@ asmlinkage long sys32_ftruncate64(unsigned int fd, unsigned long offset_low,
+  */
+ static int cp_stat64(struct stat64 __user *ubuf, struct kstat *stat)
+ {
+-      typeof(ubuf->st_uid) uid = 0;
+-      typeof(ubuf->st_gid) gid = 0;
++      typeof(((struct stat64 *)0)->st_uid) uid = 0;
++      typeof(((struct stat64 *)0)->st_gid) gid = 0;
+       SET_UID(uid, stat->uid);
+       SET_GID(gid, stat->gid);
+       if (!access_ok(VERIFY_WRITE, ubuf, sizeof(struct stat64)) ||
+@@ -308,8 +308,8 @@ asmlinkage long sys32_rt_sigprocmask(int how, compat_sigset_t __user *set,
+       }
+       set_fs(KERNEL_DS);
+       ret = sys_rt_sigprocmask(how,
+-                               set ? (sigset_t __user *)&s : NULL,
+-                               oset ? (sigset_t __user *)&s : NULL,
++                               set ? (sigset_t __force_user *)&s : NULL,
++                               oset ? (sigset_t __force_user *)&s : NULL,
+                                sigsetsize);
+       set_fs(old_fs);
+       if (ret)
+@@ -371,7 +371,7 @@ asmlinkage long sys32_sched_rr_get_interval(compat_pid_t pid,
+       mm_segment_t old_fs = get_fs();
+       set_fs(KERNEL_DS);
+-      ret = sys_sched_rr_get_interval(pid, (struct timespec __user *)&t);
++      ret = sys_sched_rr_get_interval(pid, (struct timespec __force_user *)&t);
+       set_fs(old_fs);
+       if (put_compat_timespec(&t, interval))
+               return -EFAULT;
+@@ -387,7 +387,7 @@ asmlinkage long sys32_rt_sigpending(compat_sigset_t __user *set,
+       mm_segment_t old_fs = get_fs();
+       set_fs(KERNEL_DS);
+-      ret = sys_rt_sigpending((sigset_t __user *)&s, sigsetsize);
++      ret = sys_rt_sigpending((sigset_t __force_user *)&s, sigsetsize);
+       set_fs(old_fs);
+       if (!ret) {
+               switch (_NSIG_WORDS) {
+@@ -412,7 +412,7 @@ asmlinkage long sys32_rt_sigqueueinfo(int pid, int sig,
+       if (copy_siginfo_from_user32(&info, uinfo))
+               return -EFAULT;
+       set_fs(KERNEL_DS);
+-      ret = sys_rt_sigqueueinfo(pid, sig, (siginfo_t __user *)&info);
++      ret = sys_rt_sigqueueinfo(pid, sig, (siginfo_t __force_user *)&info);
+       set_fs(old_fs);
+       return ret;
+ }
+@@ -513,7 +513,7 @@ asmlinkage long sys32_sendfile(int out_fd, int in_fd,
+               return -EFAULT;
+       set_fs(KERNEL_DS);
+-      ret = sys_sendfile(out_fd, in_fd, offset ? (off_t __user *)&of : NULL,
++      ret = sys_sendfile(out_fd, in_fd, offset ? (off_t __force_user *)&of : NULL,
+                          count);
+       set_fs(old_fs);
+diff --git a/arch/x86/include/asm/alternative-asm.h b/arch/x86/include/asm/alternative-asm.h
+index e2077d3..b7a8919 100644
+--- a/arch/x86/include/asm/alternative-asm.h
++++ b/arch/x86/include/asm/alternative-asm.h
+@@ -8,10 +8,10 @@
+ #ifdef CONFIG_SMP
+       .macro LOCK_PREFIX
+-1:    lock
++672:  lock
+       .section .smp_locks,"a"
+       .align 4
+-      X86_ALIGN 1b
++      X86_ALIGN 672b
+       .previous
+       .endm
+ #else
+@@ -19,4 +19,43 @@
+       .endm
+ #endif
++#ifdef CONFIG_PAX_KERNEXEC_PLUGIN
++      .macro pax_force_retaddr_bts rip=0
++      btsq $63,\rip(%rsp)
++      .endm
++#ifdef CONFIG_PAX_KERNEXEC_PLUGIN_METHOD_BTS
++      .macro pax_force_retaddr rip=0, reload=0
++      btsq $63,\rip(%rsp)
++      .endm
++      .macro pax_force_fptr ptr
++      btsq $63,\ptr
++      .endm
++      .macro pax_set_fptr_mask
++      .endm
++#endif
++#ifdef CONFIG_PAX_KERNEXEC_PLUGIN_METHOD_OR
++      .macro pax_force_retaddr rip=0, reload=0
++      .if \reload
++      pax_set_fptr_mask
++      .endif
++      orq %r10,\rip(%rsp)
++      .endm
++      .macro pax_force_fptr ptr
++      orq %r10,\ptr
++      .endm
++      .macro pax_set_fptr_mask
++      movabs $0x8000000000000000,%r10
++      .endm
++#endif
++#else
++      .macro pax_force_retaddr rip=0, reload=0
++      .endm
++      .macro pax_force_fptr ptr
++      .endm
++      .macro pax_force_retaddr_bts rip=0
++      .endm
++      .macro pax_set_fptr_mask
++      .endm
++#endif
++
+ #endif  /*  __ASSEMBLY__  */
+diff --git a/arch/x86/include/asm/alternative.h b/arch/x86/include/asm/alternative.h
+index c240efc..fdfadf3 100644
+--- a/arch/x86/include/asm/alternative.h
++++ b/arch/x86/include/asm/alternative.h
+@@ -85,7 +85,7 @@ static inline void alternatives_smp_switch(int smp) {}
+       "        .byte 662b-661b\n"                     /* sourcelen       */   \
+       "        .byte 664f-663f\n"                     /* replacementlen  */   \
+       ".previous\n"                                                   \
+-      ".section .altinstr_replacement, \"ax\"\n"                      \
++      ".section .altinstr_replacement, \"a\"\n"                       \
+       "663:\n\t" newinstr "\n664:\n"          /* replacement     */   \
+       ".previous"
+diff --git a/arch/x86/include/asm/apic.h b/arch/x86/include/asm/apic.h
+index 474d80d..1f97d58 100644
+--- a/arch/x86/include/asm/apic.h
++++ b/arch/x86/include/asm/apic.h
+@@ -46,7 +46,7 @@ static inline void generic_apic_probe(void)
+ #ifdef CONFIG_X86_LOCAL_APIC
+-extern unsigned int apic_verbosity;
++extern int apic_verbosity;
+ extern int local_apic_timer_c2_ok;
+ extern int disable_apic;
+diff --git a/arch/x86/include/asm/apm.h b/arch/x86/include/asm/apm.h
+index 20370c6..a2eb9b0 100644
+--- a/arch/x86/include/asm/apm.h
++++ b/arch/x86/include/asm/apm.h
+@@ -34,7 +34,7 @@ static inline void apm_bios_call_asm(u32 func, u32 ebx_in, u32 ecx_in,
+       __asm__ __volatile__(APM_DO_ZERO_SEGS
+               "pushl %%edi\n\t"
+               "pushl %%ebp\n\t"
+-              "lcall *%%cs:apm_bios_entry\n\t"
++              "lcall *%%ss:apm_bios_entry\n\t"
+               "setc %%al\n\t"
+               "popl %%ebp\n\t"
+               "popl %%edi\n\t"
+@@ -58,7 +58,7 @@ static inline u8 apm_bios_call_simple_asm(u32 func, u32 ebx_in,
+       __asm__ __volatile__(APM_DO_ZERO_SEGS
+               "pushl %%edi\n\t"
+               "pushl %%ebp\n\t"
+-              "lcall *%%cs:apm_bios_entry\n\t"
++              "lcall *%%ss:apm_bios_entry\n\t"
+               "setc %%bl\n\t"
+               "popl %%ebp\n\t"
+               "popl %%edi\n\t"
+diff --git a/arch/x86/include/asm/atomic_32.h b/arch/x86/include/asm/atomic_32.h
+index dc5a667..939040c 100644
+--- a/arch/x86/include/asm/atomic_32.h
++++ b/arch/x86/include/asm/atomic_32.h
+@@ -25,6 +25,17 @@ static inline int atomic_read(const atomic_t *v)
+ }
+ /**
++ * atomic_read_unchecked - read atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically reads the value of @v.
++ */
++static inline int atomic_read_unchecked(const atomic_unchecked_t *v)
++{
++      return v->counter;
++}
++
++/**
+  * atomic_set - set atomic variable
+  * @v: pointer of type atomic_t
+  * @i: required value
+@@ -37,6 +48,18 @@ static inline void atomic_set(atomic_t *v, int i)
+ }
+ /**
++ * atomic_set_unchecked - set atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ * @i: required value
++ *
++ * Atomically sets the value of @v to @i.
++ */
++static inline void atomic_set_unchecked(atomic_unchecked_t *v, int i)
++{
++      v->counter = i;
++}
++
++/**
+  * atomic_add - add integer to atomic variable
+  * @i: integer value to add
+  * @v: pointer of type atomic_t
+@@ -45,7 +68,29 @@ static inline void atomic_set(atomic_t *v, int i)
+  */
+ static inline void atomic_add(int i, atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "addl %1,%0"
++      asm volatile(LOCK_PREFIX "addl %1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "subl %1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "+m" (v->counter)
++                   : "ir" (i));
++}
++
++/**
++ * atomic_add_unchecked - add integer to atomic variable
++ * @i: integer value to add
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically adds @i to @v.
++ */
++static inline void atomic_add_unchecked(int i, atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "addl %1,%0\n"
+                    : "+m" (v->counter)
+                    : "ir" (i));
+ }
+@@ -59,7 +104,29 @@ static inline void atomic_add(int i, atomic_t *v)
+  */
+ static inline void atomic_sub(int i, atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "subl %1,%0"
++      asm volatile(LOCK_PREFIX "subl %1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "addl %1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "+m" (v->counter)
++                   : "ir" (i));
++}
++
++/**
++ * atomic_sub_unchecked - subtract integer from atomic variable
++ * @i: integer value to subtract
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically subtracts @i from @v.
++ */
++static inline void atomic_sub_unchecked(int i, atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "subl %1,%0\n"
+                    : "+m" (v->counter)
+                    : "ir" (i));
+ }
+@@ -77,7 +144,16 @@ static inline int atomic_sub_and_test(int i, atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "subl %2,%0; sete %1"
++      asm volatile(LOCK_PREFIX "subl %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "addl %2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "+m" (v->counter), "=qm" (c)
+                    : "ir" (i) : "memory");
+       return c;
+@@ -91,7 +167,27 @@ static inline int atomic_sub_and_test(int i, atomic_t *v)
+  */
+ static inline void atomic_inc(atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "incl %0"
++      asm volatile(LOCK_PREFIX "incl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "decl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "+m" (v->counter));
++}
++
++/**
++ * atomic_inc_unchecked - increment atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically increments @v by 1.
++ */
++static inline void atomic_inc_unchecked(atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "incl %0\n"
+                    : "+m" (v->counter));
+ }
+@@ -103,7 +199,27 @@ static inline void atomic_inc(atomic_t *v)
+  */
+ static inline void atomic_dec(atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "decl %0"
++      asm volatile(LOCK_PREFIX "decl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "incl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "+m" (v->counter));
++}
++
++/**
++ * atomic_dec_unchecked - decrement atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically decrements @v by 1.
++ */
++static inline void atomic_dec_unchecked(atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "decl %0\n"
+                    : "+m" (v->counter));
+ }
+@@ -119,7 +235,16 @@ static inline int atomic_dec_and_test(atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "decl %0; sete %1"
++      asm volatile(LOCK_PREFIX "decl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "incl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "+m" (v->counter), "=qm" (c)
+                    : : "memory");
+       return c != 0;
+@@ -137,7 +262,35 @@ static inline int atomic_inc_and_test(atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "incl %0; sete %1"
++      asm volatile(LOCK_PREFIX "incl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "decl %0\n"
++                   "into\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
++                   : "+m" (v->counter), "=qm" (c)
++                   : : "memory");
++      return c != 0;
++}
++
++/**
++ * atomic_inc_and_test_unchecked - increment and test
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically increments @v by 1
++ * and returns true if the result is zero, or false for all
++ * other cases.
++ */
++static inline int atomic_inc_and_test_unchecked(atomic_unchecked_t *v)
++{
++      unsigned char c;
++
++      asm volatile(LOCK_PREFIX "incl %0\n"
++                   "sete %1\n"
+                    : "+m" (v->counter), "=qm" (c)
+                    : : "memory");
+       return c != 0;
+@@ -156,7 +309,16 @@ static inline int atomic_add_negative(int i, atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "addl %2,%0; sets %1"
++      asm volatile(LOCK_PREFIX "addl %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "subl %2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sets %1\n"
+                    : "+m" (v->counter), "=qm" (c)
+                    : "ir" (i) : "memory");
+       return c;
+@@ -179,7 +341,15 @@ static inline int atomic_add_return(int i, atomic_t *v)
+ #endif
+       /* Modern 486+ processor */
+       __i = i;
+-      asm volatile(LOCK_PREFIX "xaddl %0, %1"
++      asm volatile(LOCK_PREFIX "xaddl %0, %1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "movl %0, %1\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+r" (i), "+m" (v->counter)
+                    : : "memory");
+       return i + __i;
+@@ -195,6 +365,38 @@ no_xadd: /* Legacy 386 processor */
+ }
+ /**
++ * atomic_add_return_unchecked - add integer and return
++ * @v: pointer of type atomic_unchecked_t
++ * @i: integer value to add
++ *
++ * Atomically adds @i to @v and returns @i + @v
++ */
++static inline int atomic_add_return_unchecked(int i, atomic_unchecked_t *v)
++{
++      int __i;
++#ifdef CONFIG_M386
++      unsigned long flags;
++      if (unlikely(boot_cpu_data.x86 <= 3))
++              goto no_xadd;
++#endif
++      /* Modern 486+ processor */
++      __i = i;
++      asm volatile(LOCK_PREFIX "xaddl %0, %1"
++                   : "+r" (i), "+m" (v->counter)
++                   : : "memory");
++      return i + __i;
++
++#ifdef CONFIG_M386
++no_xadd: /* Legacy 386 processor */
++      local_irq_save(flags);
++      __i = atomic_read_unchecked(v);
++      atomic_set_unchecked(v, i + __i);
++      local_irq_restore(flags);
++      return i + __i;
++#endif
++}
++
++/**
+  * atomic_sub_return - subtract integer and return
+  * @v: pointer of type atomic_t
+  * @i: integer value to subtract
+@@ -211,11 +413,21 @@ static inline int atomic_cmpxchg(atomic_t *v, int old, int new)
+       return cmpxchg(&v->counter, old, new);
+ }
++static inline int atomic_cmpxchg_unchecked(atomic_unchecked_t *v, int old, int new)
++{
++      return cmpxchg(&v->counter, old, new);
++}
++
+ static inline int atomic_xchg(atomic_t *v, int new)
+ {
+       return xchg(&v->counter, new);
+ }
++static inline int atomic_xchg_unchecked(atomic_unchecked_t *v, int new)
++{
++      return xchg(&v->counter, new);
++}
++
+ /**
+  * atomic_add_unless - add unless the number is already a given value
+  * @v: pointer of type atomic_t
+@@ -227,22 +439,39 @@ static inline int atomic_xchg(atomic_t *v, int new)
+  */
+ static inline int atomic_add_unless(atomic_t *v, int a, int u)
+ {
+-      int c, old;
++      int c, old, new;
+       c = atomic_read(v);
+       for (;;) {
+-              if (unlikely(c == (u)))
++              if (unlikely(c == u))
+                       break;
+-              old = atomic_cmpxchg((v), c, c + (a));
++
++              asm volatile("addl %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                           "jno 0f\n"
++                           "subl %2,%0\n"
++                           "int $4\n0:\n"
++                           _ASM_EXTABLE(0b, 0b)
++#endif
++
++                           : "=r" (new)
++                           : "0" (c), "ir" (a));
++
++              old = atomic_cmpxchg(v, c, new);
+               if (likely(old == c))
+                       break;
+               c = old;
+       }
+-      return c != (u);
++      return c != u;
+ }
+ #define atomic_inc_not_zero(v) atomic_add_unless((v), 1, 0)
+ #define atomic_inc_return(v)  (atomic_add_return(1, v))
++static inline int atomic_inc_return_unchecked(atomic_unchecked_t *v)
++{
++      return atomic_add_return_unchecked(1, v);
++}
+ #define atomic_dec_return(v)  (atomic_sub_return(1, v))
+ /* These are x86-specific, used by some header files */
+@@ -266,9 +495,18 @@ typedef struct {
+       u64 __aligned(8) counter;
+ } atomic64_t;
++#ifdef CONFIG_PAX_REFCOUNT
++typedef struct {
++      u64 __aligned(8) counter;
++} atomic64_unchecked_t;
++#else
++typedef atomic64_t atomic64_unchecked_t;
++#endif
++
+ #define ATOMIC64_INIT(val)    { (val) }
+ extern u64 atomic64_cmpxchg(atomic64_t *ptr, u64 old_val, u64 new_val);
++extern u64 atomic64_cmpxchg_unchecked(atomic64_unchecked_t *ptr, u64 old_val, u64 new_val);
+ /**
+  * atomic64_xchg - xchg atomic64 variable
+@@ -279,6 +517,7 @@ extern u64 atomic64_cmpxchg(atomic64_t *ptr, u64 old_val, u64 new_val);
+  * the old value.
+  */
+ extern u64 atomic64_xchg(atomic64_t *ptr, u64 new_val);
++extern u64 atomic64_xchg_unchecked(atomic64_unchecked_t *ptr, u64 new_val);
+ /**
+  * atomic64_set - set atomic64 variable
+@@ -290,6 +529,15 @@ extern u64 atomic64_xchg(atomic64_t *ptr, u64 new_val);
+ extern void atomic64_set(atomic64_t *ptr, u64 new_val);
+ /**
++ * atomic64_unchecked_set - set atomic64 variable
++ * @ptr:      pointer to type atomic64_unchecked_t
++ * @new_val:  value to assign
++ *
++ * Atomically sets the value of @ptr to @new_val.
++ */
++extern void atomic64_set_unchecked(atomic64_unchecked_t *ptr, u64 new_val);
++
++/**
+  * atomic64_read - read atomic64 variable
+  * @ptr:      pointer to type atomic64_t
+  *
+@@ -317,7 +565,33 @@ static inline u64 atomic64_read(atomic64_t *ptr)
+       return res;
+ }
+-extern u64 atomic64_read(atomic64_t *ptr);
++/**
++ * atomic64_read_unchecked - read atomic64 variable
++ * @ptr:      pointer to type atomic64_unchecked_t
++ *
++ * Atomically reads the value of @ptr and returns it.
++ */
++static inline u64 atomic64_read_unchecked(atomic64_unchecked_t *ptr)
++{
++      u64 res;
++
++      /*
++       * Note, we inline this atomic64_unchecked_t primitive because
++       * it only clobbers EAX/EDX and leaves the others
++       * untouched. We also (somewhat subtly) rely on the
++       * fact that cmpxchg8b returns the current 64-bit value
++       * of the memory location we are touching:
++       */
++      asm volatile(
++              "mov %%ebx, %%eax\n\t"
++              "mov %%ecx, %%edx\n\t"
++              LOCK_PREFIX "cmpxchg8b %1\n"
++                      : "=&A" (res)
++                      : "m" (*ptr)
++              );
++
++      return res;
++}
+ /**
+  * atomic64_add_return - add and return
+@@ -332,8 +606,11 @@ extern u64 atomic64_add_return(u64 delta, atomic64_t *ptr);
+  * Other variants with different arithmetic operators:
+  */
+ extern u64 atomic64_sub_return(u64 delta, atomic64_t *ptr);
++extern u64 atomic64_sub_return_unchecked(u64 delta, atomic64_unchecked_t *ptr);
+ extern u64 atomic64_inc_return(atomic64_t *ptr);
++extern u64 atomic64_inc_return_unchecked(atomic64_unchecked_t *ptr);
+ extern u64 atomic64_dec_return(atomic64_t *ptr);
++extern u64 atomic64_dec_return_unchecked(atomic64_unchecked_t *ptr);
+ /**
+  * atomic64_add - add integer to atomic64 variable
+@@ -345,6 +622,15 @@ extern u64 atomic64_dec_return(atomic64_t *ptr);
+ extern void atomic64_add(u64 delta, atomic64_t *ptr);
+ /**
++ * atomic64_add_unchecked - add integer to atomic64 variable
++ * @delta: integer value to add
++ * @ptr:   pointer to type atomic64_unchecked_t
++ *
++ * Atomically adds @delta to @ptr.
++ */
++extern void atomic64_add_unchecked(u64 delta, atomic64_unchecked_t *ptr);
++
++/**
+  * atomic64_sub - subtract the atomic64 variable
+  * @delta: integer value to subtract
+  * @ptr:   pointer to type atomic64_t
+@@ -354,6 +640,15 @@ extern void atomic64_add(u64 delta, atomic64_t *ptr);
+ extern void atomic64_sub(u64 delta, atomic64_t *ptr);
+ /**
++ * atomic64_sub_unchecked - subtract the atomic64 variable
++ * @delta: integer value to subtract
++ * @ptr:   pointer to type atomic64_unchecked_t
++ *
++ * Atomically subtracts @delta from @ptr.
++ */
++extern void atomic64_sub_unchecked(u64 delta, atomic64_unchecked_t *ptr);
++
++/**
+  * atomic64_sub_and_test - subtract value from variable and test result
+  * @delta: integer value to subtract
+  * @ptr:   pointer to type atomic64_t
+@@ -373,6 +668,14 @@ extern int atomic64_sub_and_test(u64 delta, atomic64_t *ptr);
+ extern void atomic64_inc(atomic64_t *ptr);
+ /**
++ * atomic64_inc_unchecked - increment atomic64 variable
++ * @ptr: pointer to type atomic64_unchecked_t
++ *
++ * Atomically increments @ptr by 1.
++ */
++extern void atomic64_inc_unchecked(atomic64_unchecked_t *ptr);
++
++/**
+  * atomic64_dec - decrement atomic64 variable
+  * @ptr: pointer to type atomic64_t
+  *
+@@ -381,6 +684,14 @@ extern void atomic64_inc(atomic64_t *ptr);
+ extern void atomic64_dec(atomic64_t *ptr);
+ /**
++ * atomic64_dec_unchecked - decrement atomic64 variable
++ * @ptr: pointer to type atomic64_unchecked_t
++ *
++ * Atomically decrements @ptr by 1.
++ */
++extern void atomic64_dec_unchecked(atomic64_unchecked_t *ptr);
++
++/**
+  * atomic64_dec_and_test - decrement and test
+  * @ptr: pointer to type atomic64_t
+  *
+diff --git a/arch/x86/include/asm/atomic_64.h b/arch/x86/include/asm/atomic_64.h
+index d605dc2..fafd7bd 100644
+--- a/arch/x86/include/asm/atomic_64.h
++++ b/arch/x86/include/asm/atomic_64.h
+@@ -24,6 +24,17 @@ static inline int atomic_read(const atomic_t *v)
+ }
+ /**
++ * atomic_read_unchecked - read atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically reads the value of @v.
++ */
++static inline int atomic_read_unchecked(const atomic_unchecked_t *v)
++{
++      return v->counter;
++}
++
++/**
+  * atomic_set - set atomic variable
+  * @v: pointer of type atomic_t
+  * @i: required value
+@@ -36,6 +47,18 @@ static inline void atomic_set(atomic_t *v, int i)
+ }
+ /**
++ * atomic_set_unchecked - set atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ * @i: required value
++ *
++ * Atomically sets the value of @v to @i.
++ */
++static inline void atomic_set_unchecked(atomic_unchecked_t *v, int i)
++{
++      v->counter = i;
++}
++
++/**
+  * atomic_add - add integer to atomic variable
+  * @i: integer value to add
+  * @v: pointer of type atomic_t
+@@ -44,7 +67,29 @@ static inline void atomic_set(atomic_t *v, int i)
+  */
+ static inline void atomic_add(int i, atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "addl %1,%0"
++      asm volatile(LOCK_PREFIX "addl %1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "subl %1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "=m" (v->counter)
++                   : "ir" (i), "m" (v->counter));
++}
++
++/**
++ * atomic_add_unchecked - add integer to atomic variable
++ * @i: integer value to add
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically adds @i to @v.
++ */
++static inline void atomic_add_unchecked(int i, atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "addl %1,%0\n"
+                    : "=m" (v->counter)
+                    : "ir" (i), "m" (v->counter));
+ }
+@@ -58,7 +103,29 @@ static inline void atomic_add(int i, atomic_t *v)
+  */
+ static inline void atomic_sub(int i, atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "subl %1,%0"
++      asm volatile(LOCK_PREFIX "subl %1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "addl %1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "=m" (v->counter)
++                   : "ir" (i), "m" (v->counter));
++}
++
++/**
++ * atomic_sub_unchecked - subtract the atomic variable
++ * @i: integer value to subtract
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically subtracts @i from @v.
++ */
++static inline void atomic_sub_unchecked(int i, atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "subl %1,%0\n"
+                    : "=m" (v->counter)
+                    : "ir" (i), "m" (v->counter));
+ }
+@@ -76,7 +143,16 @@ static inline int atomic_sub_and_test(int i, atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "subl %2,%0; sete %1"
++      asm volatile(LOCK_PREFIX "subl %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "addl %2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "ir" (i), "m" (v->counter) : "memory");
+       return c;
+@@ -90,7 +166,28 @@ static inline int atomic_sub_and_test(int i, atomic_t *v)
+  */
+ static inline void atomic_inc(atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "incl %0"
++      asm volatile(LOCK_PREFIX "incl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "decl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "=m" (v->counter)
++                   : "m" (v->counter));
++}
++
++/**
++ * atomic_inc_unchecked - increment atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically increments @v by 1.
++ */
++static inline void atomic_inc_unchecked(atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "incl %0\n"
+                    : "=m" (v->counter)
+                    : "m" (v->counter));
+ }
+@@ -103,7 +200,28 @@ static inline void atomic_inc(atomic_t *v)
+  */
+ static inline void atomic_dec(atomic_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "decl %0"
++      asm volatile(LOCK_PREFIX "decl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "incl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "=m" (v->counter)
++                   : "m" (v->counter));
++}
++
++/**
++ * atomic_dec_unchecked - decrement atomic variable
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically decrements @v by 1.
++ */
++static inline void atomic_dec_unchecked(atomic_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "decl %0\n"
+                    : "=m" (v->counter)
+                    : "m" (v->counter));
+ }
+@@ -120,7 +238,16 @@ static inline int atomic_dec_and_test(atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "decl %0; sete %1"
++      asm volatile(LOCK_PREFIX "decl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "incl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "m" (v->counter) : "memory");
+       return c != 0;
+@@ -138,7 +265,35 @@ static inline int atomic_inc_and_test(atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "incl %0; sete %1"
++      asm volatile(LOCK_PREFIX "incl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "decl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
++                   : "=m" (v->counter), "=qm" (c)
++                   : "m" (v->counter) : "memory");
++      return c != 0;
++}
++
++/**
++ * atomic_inc_and_test_unchecked - increment and test
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically increments @v by 1
++ * and returns true if the result is zero, or false for all
++ * other cases.
++ */
++static inline int atomic_inc_and_test_unchecked(atomic_unchecked_t *v)
++{
++      unsigned char c;
++
++      asm volatile(LOCK_PREFIX "incl %0\n"
++                   "sete %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "m" (v->counter) : "memory");
+       return c != 0;
+@@ -157,7 +312,16 @@ static inline int atomic_add_negative(int i, atomic_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "addl %2,%0; sets %1"
++      asm volatile(LOCK_PREFIX "addl %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "subl %2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sets %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "ir" (i), "m" (v->counter) : "memory");
+       return c;
+@@ -173,7 +337,31 @@ static inline int atomic_add_negative(int i, atomic_t *v)
+ static inline int atomic_add_return(int i, atomic_t *v)
+ {
+       int __i = i;
+-      asm volatile(LOCK_PREFIX "xaddl %0, %1"
++      asm volatile(LOCK_PREFIX "xaddl %0, %1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "movl %0, %1\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "+r" (i), "+m" (v->counter)
++                   : : "memory");
++      return i + __i;
++}
++
++/**
++ * atomic_add_return_unchecked - add and return
++ * @i: integer value to add
++ * @v: pointer of type atomic_unchecked_t
++ *
++ * Atomically adds @i to @v and returns @i + @v
++ */
++static inline int atomic_add_return_unchecked(int i, atomic_unchecked_t *v)
++{
++      int __i = i;
++      asm volatile(LOCK_PREFIX "xaddl %0, %1\n"
+                    : "+r" (i), "+m" (v->counter)
+                    : : "memory");
+       return i + __i;
+@@ -185,6 +373,10 @@ static inline int atomic_sub_return(int i, atomic_t *v)
+ }
+ #define atomic_inc_return(v)  (atomic_add_return(1, v))
++static inline int atomic_inc_return_unchecked(atomic_unchecked_t *v)
++{
++      return atomic_add_return_unchecked(1, v);
++}
+ #define atomic_dec_return(v)  (atomic_sub_return(1, v))
+ /* The 64-bit atomic type */
+@@ -204,6 +396,18 @@ static inline long atomic64_read(const atomic64_t *v)
+ }
+ /**
++ * atomic64_read_unchecked - read atomic64 variable
++ * @v: pointer of type atomic64_unchecked_t
++ *
++ * Atomically reads the value of @v.
++ * Doesn't imply a read memory barrier.
++ */
++static inline long atomic64_read_unchecked(const atomic64_unchecked_t *v)
++{
++      return v->counter;
++}
++
++/**
+  * atomic64_set - set atomic64 variable
+  * @v: pointer to type atomic64_t
+  * @i: required value
+@@ -216,6 +420,18 @@ static inline void atomic64_set(atomic64_t *v, long i)
+ }
+ /**
++ * atomic64_set_unchecked - set atomic64 variable
++ * @v: pointer to type atomic64_unchecked_t
++ * @i: required value
++ *
++ * Atomically sets the value of @v to @i.
++ */
++static inline void atomic64_set_unchecked(atomic64_unchecked_t *v, long i)
++{
++      v->counter = i;
++}
++
++/**
+  * atomic64_add - add integer to atomic64 variable
+  * @i: integer value to add
+  * @v: pointer to type atomic64_t
+@@ -224,6 +440,28 @@ static inline void atomic64_set(atomic64_t *v, long i)
+  */
+ static inline void atomic64_add(long i, atomic64_t *v)
+ {
++      asm volatile(LOCK_PREFIX "addq %1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "subq %1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "=m" (v->counter)
++                   : "er" (i), "m" (v->counter));
++}
++
++/**
++ * atomic64_add_unchecked - add integer to atomic64 variable
++ * @i: integer value to add
++ * @v: pointer to type atomic64_unchecked_t
++ *
++ * Atomically adds @i to @v.
++ */
++static inline void atomic64_add_unchecked(long i, atomic64_unchecked_t *v)
++{
+       asm volatile(LOCK_PREFIX "addq %1,%0"
+                    : "=m" (v->counter)
+                    : "er" (i), "m" (v->counter));
+@@ -238,7 +476,15 @@ static inline void atomic64_add(long i, atomic64_t *v)
+  */
+ static inline void atomic64_sub(long i, atomic64_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "subq %1,%0"
++      asm volatile(LOCK_PREFIX "subq %1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "addq %1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "=m" (v->counter)
+                    : "er" (i), "m" (v->counter));
+ }
+@@ -256,7 +502,16 @@ static inline int atomic64_sub_and_test(long i, atomic64_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "subq %2,%0; sete %1"
++      asm volatile(LOCK_PREFIX "subq %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "addq %2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "er" (i), "m" (v->counter) : "memory");
+       return c;
+@@ -270,6 +525,27 @@ static inline int atomic64_sub_and_test(long i, atomic64_t *v)
+  */
+ static inline void atomic64_inc(atomic64_t *v)
+ {
++      asm volatile(LOCK_PREFIX "incq %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "decq %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "=m" (v->counter)
++                   : "m" (v->counter));
++}
++
++/**
++ * atomic64_inc_unchecked - increment atomic64 variable
++ * @v: pointer to type atomic64_unchecked_t
++ *
++ * Atomically increments @v by 1.
++ */
++static inline void atomic64_inc_unchecked(atomic64_unchecked_t *v)
++{
+       asm volatile(LOCK_PREFIX "incq %0"
+                    : "=m" (v->counter)
+                    : "m" (v->counter));
+@@ -283,7 +559,28 @@ static inline void atomic64_inc(atomic64_t *v)
+  */
+ static inline void atomic64_dec(atomic64_t *v)
+ {
+-      asm volatile(LOCK_PREFIX "decq %0"
++      asm volatile(LOCK_PREFIX "decq %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "incq %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "=m" (v->counter)
++                   : "m" (v->counter));
++}
++
++/**
++ * atomic64_dec_unchecked - decrement atomic64 variable
++ * @v: pointer to type atomic64_t
++ *
++ * Atomically decrements @v by 1.
++ */
++static inline void atomic64_dec_unchecked(atomic64_unchecked_t *v)
++{
++      asm volatile(LOCK_PREFIX "decq %0\n"
+                    : "=m" (v->counter)
+                    : "m" (v->counter));
+ }
+@@ -300,7 +597,16 @@ static inline int atomic64_dec_and_test(atomic64_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "decq %0; sete %1"
++      asm volatile(LOCK_PREFIX "decq %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "incq %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "m" (v->counter) : "memory");
+       return c != 0;
+@@ -318,7 +624,16 @@ static inline int atomic64_inc_and_test(atomic64_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "incq %0; sete %1"
++      asm volatile(LOCK_PREFIX "incq %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "decq %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "m" (v->counter) : "memory");
+       return c != 0;
+@@ -337,7 +652,16 @@ static inline int atomic64_add_negative(long i, atomic64_t *v)
+ {
+       unsigned char c;
+-      asm volatile(LOCK_PREFIX "addq %2,%0; sets %1"
++      asm volatile(LOCK_PREFIX "addq %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "subq %2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sets %1\n"
+                    : "=m" (v->counter), "=qm" (c)
+                    : "er" (i), "m" (v->counter) : "memory");
+       return c;
+@@ -353,7 +677,31 @@ static inline int atomic64_add_negative(long i, atomic64_t *v)
+ static inline long atomic64_add_return(long i, atomic64_t *v)
+ {
+       long __i = i;
+-      asm volatile(LOCK_PREFIX "xaddq %0, %1;"
++      asm volatile(LOCK_PREFIX "xaddq %0, %1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "movq %0, %1\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   : "+r" (i), "+m" (v->counter)
++                   : : "memory");
++      return i + __i;
++}
++
++/**
++ * atomic64_add_return_unchecked - add and return
++ * @i: integer value to add
++ * @v: pointer to type atomic64_unchecked_t
++ *
++ * Atomically adds @i to @v and returns @i + @v
++ */
++static inline long atomic64_add_return_unchecked(long i, atomic64_unchecked_t *v)
++{
++      long __i = i;
++      asm volatile(LOCK_PREFIX "xaddq %0, %1"
+                    : "+r" (i), "+m" (v->counter)
+                    : : "memory");
+       return i + __i;
+@@ -365,6 +713,10 @@ static inline long atomic64_sub_return(long i, atomic64_t *v)
+ }
+ #define atomic64_inc_return(v)  (atomic64_add_return(1, (v)))
++static inline long atomic64_inc_return_unchecked(atomic64_unchecked_t *v)
++{
++      return atomic64_add_return_unchecked(1, v);
++}
+ #define atomic64_dec_return(v)  (atomic64_sub_return(1, (v)))
+ static inline long atomic64_cmpxchg(atomic64_t *v, long old, long new)
+@@ -372,21 +724,41 @@ static inline long atomic64_cmpxchg(atomic64_t *v, long old, long new)
+       return cmpxchg(&v->counter, old, new);
+ }
++static inline long atomic64_cmpxchg_unchecked(atomic64_unchecked_t *v, long old, long new)
++{
++      return cmpxchg(&v->counter, old, new);
++}
++
+ static inline long atomic64_xchg(atomic64_t *v, long new)
+ {
+       return xchg(&v->counter, new);
+ }
++static inline long atomic64_xchg_unchecked(atomic64_unchecked_t *v, long new)
++{
++      return xchg(&v->counter, new);
++}
++
+ static inline long atomic_cmpxchg(atomic_t *v, int old, int new)
+ {
+       return cmpxchg(&v->counter, old, new);
+ }
++static inline long atomic_cmpxchg_unchecked(atomic_unchecked_t *v, int old, int new)
++{
++      return cmpxchg(&v->counter, old, new);
++}
++
+ static inline long atomic_xchg(atomic_t *v, int new)
+ {
+       return xchg(&v->counter, new);
+ }
++static inline long atomic_xchg_unchecked(atomic_unchecked_t *v, int new)
++{
++      return xchg(&v->counter, new);
++}
++
+ /**
+  * atomic_add_unless - add unless the number is a given value
+  * @v: pointer of type atomic_t
+@@ -398,17 +770,30 @@ static inline long atomic_xchg(atomic_t *v, int new)
+  */
+ static inline int atomic_add_unless(atomic_t *v, int a, int u)
+ {
+-      int c, old;
++      int c, old, new;
+       c = atomic_read(v);
+       for (;;) {
+-              if (unlikely(c == (u)))
++              if (unlikely(c == u))
+                       break;
+-              old = atomic_cmpxchg((v), c, c + (a));
++
++              asm volatile("addl %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                           "jno 0f\n"
++                           "subl %2,%0\n"
++                           "int $4\n0:\n"
++                           _ASM_EXTABLE(0b, 0b)
++#endif
++
++                           : "=r" (new)
++                           : "0" (c), "ir" (a));
++
++              old = atomic_cmpxchg(v, c, new);
+               if (likely(old == c))
+                       break;
+               c = old;
+       }
+-      return c != (u);
++      return c != u;
+ }
+ #define atomic_inc_not_zero(v) atomic_add_unless((v), 1, 0)
+@@ -424,17 +809,30 @@ static inline int atomic_add_unless(atomic_t *v, int a, int u)
+  */
+ static inline int atomic64_add_unless(atomic64_t *v, long a, long u)
+ {
+-      long c, old;
++      long c, old, new;
+       c = atomic64_read(v);
+       for (;;) {
+-              if (unlikely(c == (u)))
++              if (unlikely(c == u))
+                       break;
+-              old = atomic64_cmpxchg((v), c, c + (a));
++
++              asm volatile("addq %2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                           "jno 0f\n"
++                           "subq %2,%0\n"
++                           "int $4\n0:\n"
++                           _ASM_EXTABLE(0b, 0b)
++#endif
++
++                           : "=r" (new)
++                           : "0" (c), "er" (a));
++
++              old = atomic64_cmpxchg(v, c, new);
+               if (likely(old == c))
+                       break;
+               c = old;
+       }
+-      return c != (u);
++      return c != u;
+ }
+ /**
+diff --git a/arch/x86/include/asm/bitops.h b/arch/x86/include/asm/bitops.h
+index 02b47a6..d5c4b15 100644
+--- a/arch/x86/include/asm/bitops.h
++++ b/arch/x86/include/asm/bitops.h
+@@ -38,7 +38,7 @@
+  * a mask operation on a byte.
+  */
+ #define IS_IMMEDIATE(nr)              (__builtin_constant_p(nr))
+-#define CONST_MASK_ADDR(nr, addr)     BITOP_ADDR((void *)(addr) + ((nr)>>3))
++#define CONST_MASK_ADDR(nr, addr)     BITOP_ADDR((volatile void *)(addr) + ((nr)>>3))
+ #define CONST_MASK(nr)                        (1 << ((nr) & 7))
+ /**
+diff --git a/arch/x86/include/asm/boot.h b/arch/x86/include/asm/boot.h
+index 7a10659..8bbf355 100644
+--- a/arch/x86/include/asm/boot.h
++++ b/arch/x86/include/asm/boot.h
+@@ -11,10 +11,15 @@
+ #include <asm/pgtable_types.h>
+ /* Physical address where kernel should be loaded. */
+-#define LOAD_PHYSICAL_ADDR ((CONFIG_PHYSICAL_START \
++#define ____LOAD_PHYSICAL_ADDR ((CONFIG_PHYSICAL_START \
+                               + (CONFIG_PHYSICAL_ALIGN - 1)) \
+                               & ~(CONFIG_PHYSICAL_ALIGN - 1))
++#ifndef __ASSEMBLY__
++extern unsigned char __LOAD_PHYSICAL_ADDR[];
++#define LOAD_PHYSICAL_ADDR ((unsigned long)__LOAD_PHYSICAL_ADDR)
++#endif
++
+ /* Minimum kernel alignment, as a power of two */
+ #ifdef CONFIG_X86_64
+ #define MIN_KERNEL_ALIGN_LG2  PMD_SHIFT
+diff --git a/arch/x86/include/asm/cache.h b/arch/x86/include/asm/cache.h
+index 549860d..7d45f68 100644
+--- a/arch/x86/include/asm/cache.h
++++ b/arch/x86/include/asm/cache.h
+@@ -5,9 +5,10 @@
+ /* L1 cache line size */
+ #define L1_CACHE_SHIFT        (CONFIG_X86_L1_CACHE_SHIFT)
+-#define L1_CACHE_BYTES        (1 << L1_CACHE_SHIFT)
++#define L1_CACHE_BYTES        (_AC(1,UL) << L1_CACHE_SHIFT)
+ #define __read_mostly __attribute__((__section__(".data.read_mostly")))
++#define __read_only __attribute__((__section__(".data.read_only")))
+ #ifdef CONFIG_X86_VSMP
+ /* vSMP Internode cacheline shift */
+diff --git a/arch/x86/include/asm/cacheflush.h b/arch/x86/include/asm/cacheflush.h
+index b54f6af..5b376a6 100644
+--- a/arch/x86/include/asm/cacheflush.h
++++ b/arch/x86/include/asm/cacheflush.h
+@@ -60,7 +60,7 @@ PAGEFLAG(WC, WC)
+ static inline unsigned long get_page_memtype(struct page *pg)
+ {
+       if (!PageUncached(pg) && !PageWC(pg))
+-              return -1;
++              return ~0UL;
+       else if (!PageUncached(pg) && PageWC(pg))
+               return _PAGE_CACHE_WC;
+       else if (PageUncached(pg) && !PageWC(pg))
+@@ -85,7 +85,7 @@ static inline void set_page_memtype(struct page *pg, unsigned long memtype)
+               SetPageWC(pg);
+               break;
+       default:
+-      case -1:
++      case ~0UL:
+               ClearPageUncached(pg);
+               ClearPageWC(pg);
+               break;
+diff --git a/arch/x86/include/asm/calling.h b/arch/x86/include/asm/calling.h
+index 0e63c9a..ab8d972 100644
+--- a/arch/x86/include/asm/calling.h
++++ b/arch/x86/include/asm/calling.h
+@@ -52,32 +52,32 @@ For 32-bit we have the following conventions - kernel is built with
+  * for assembly code:
+  */
+-#define R15             0
+-#define R14             8
+-#define R13            16
+-#define R12            24
+-#define RBP            32
+-#define RBX            40
++#define R15             (0)
++#define R14             (8)
++#define R13            (16)
++#define R12            (24)
++#define RBP            (32)
++#define RBX            (40)
+ /* arguments: interrupts/non tracing syscalls only save up to here: */
+-#define R11            48
+-#define R10            56
+-#define R9             64
+-#define R8             72
+-#define RAX            80
+-#define RCX            88
+-#define RDX            96
+-#define RSI           104
+-#define RDI           112
+-#define ORIG_RAX      120       /* + error_code */
++#define R11            (48)
++#define R10            (56)
++#define R9             (64)
++#define R8             (72)
++#define RAX            (80)
++#define RCX            (88)
++#define RDX            (96)
++#define RSI           (104)
++#define RDI           (112)
++#define ORIG_RAX      (120)       /* + error_code */
+ /* end of arguments */
+ /* cpu exception frame or undefined in case of fast syscall: */
+-#define RIP           128
+-#define CS            136
+-#define EFLAGS                144
+-#define RSP           152
+-#define SS            160
++#define RIP           (128)
++#define CS            (136)
++#define EFLAGS                (144)
++#define RSP           (152)
++#define SS            (160)
+ #define ARGOFFSET     R11
+ #define SWFRAME               ORIG_RAX
+diff --git a/arch/x86/include/asm/checksum_32.h b/arch/x86/include/asm/checksum_32.h
+index 46fc474..b02b0f9 100644
+--- a/arch/x86/include/asm/checksum_32.h
++++ b/arch/x86/include/asm/checksum_32.h
+@@ -31,6 +31,14 @@ asmlinkage __wsum csum_partial_copy_generic(const void *src, void *dst,
+                                           int len, __wsum sum,
+                                           int *src_err_ptr, int *dst_err_ptr);
++asmlinkage __wsum csum_partial_copy_generic_to_user(const void *src, void *dst,
++                                                int len, __wsum sum,
++                                                int *src_err_ptr, int *dst_err_ptr);
++
++asmlinkage __wsum csum_partial_copy_generic_from_user(const void *src, void *dst,
++                                                int len, __wsum sum,
++                                                int *src_err_ptr, int *dst_err_ptr);
++
+ /*
+  *    Note: when you get a NULL pointer exception here this means someone
+  *    passed in an incorrect kernel address to one of these functions.
+@@ -50,7 +58,7 @@ static inline __wsum csum_partial_copy_from_user(const void __user *src,
+                                                int *err_ptr)
+ {
+       might_sleep();
+-      return csum_partial_copy_generic((__force void *)src, dst,
++      return csum_partial_copy_generic_from_user((__force void *)src, dst,
+                                        len, sum, err_ptr, NULL);
+ }
+@@ -178,7 +186,7 @@ static inline __wsum csum_and_copy_to_user(const void *src,
+ {
+       might_sleep();
+       if (access_ok(VERIFY_WRITE, dst, len))
+-              return csum_partial_copy_generic(src, (__force void *)dst,
++              return csum_partial_copy_generic_to_user(src, (__force void *)dst,
+                                                len, sum, NULL, err_ptr);
+       if (len)
+diff --git a/arch/x86/include/asm/desc.h b/arch/x86/include/asm/desc.h
+index 617bd56..7b047a1 100644
+--- a/arch/x86/include/asm/desc.h
++++ b/arch/x86/include/asm/desc.h
+@@ -4,6 +4,7 @@
+ #include <asm/desc_defs.h>
+ #include <asm/ldt.h>
+ #include <asm/mmu.h>
++#include <asm/pgtable.h>
+ #include <linux/smp.h>
+ static inline void fill_ldt(struct desc_struct *desc,
+@@ -15,6 +16,7 @@ static inline void fill_ldt(struct desc_struct *desc,
+       desc->base1 = (info->base_addr & 0x00ff0000) >> 16;
+       desc->type = (info->read_exec_only ^ 1) << 1;
+       desc->type |= info->contents << 2;
++      desc->type |= info->seg_not_present ^ 1;
+       desc->s = 1;
+       desc->dpl = 0x3;
+       desc->p = info->seg_not_present ^ 1;
+@@ -31,16 +33,12 @@ static inline void fill_ldt(struct desc_struct *desc,
+ }
+ extern struct desc_ptr idt_descr;
+-extern gate_desc idt_table[];
+-
+-struct gdt_page {
+-      struct desc_struct gdt[GDT_ENTRIES];
+-} __attribute__((aligned(PAGE_SIZE)));
+-DECLARE_PER_CPU_PAGE_ALIGNED(struct gdt_page, gdt_page);
++extern gate_desc idt_table[256];
++extern struct desc_struct cpu_gdt_table[NR_CPUS][PAGE_SIZE / sizeof(struct desc_struct)];
+ static inline struct desc_struct *get_cpu_gdt_table(unsigned int cpu)
+ {
+-      return per_cpu(gdt_page, cpu).gdt;
++      return cpu_gdt_table[cpu];
+ }
+ #ifdef CONFIG_X86_64
+@@ -65,9 +63,14 @@ static inline void pack_gate(gate_desc *gate, unsigned char type,
+                            unsigned long base, unsigned dpl, unsigned flags,
+                            unsigned short seg)
+ {
+-      gate->a = (seg << 16) | (base & 0xffff);
+-      gate->b = (base & 0xffff0000) |
+-                (((0x80 | type | (dpl << 5)) & 0xff) << 8);
++      gate->gate.offset_low = base;
++      gate->gate.seg = seg;
++      gate->gate.reserved = 0;
++      gate->gate.type = type;
++      gate->gate.s = 0;
++      gate->gate.dpl = dpl;
++      gate->gate.p = 1;
++      gate->gate.offset_high = base >> 16;
+ }
+ #endif
+@@ -115,13 +118,17 @@ static inline void paravirt_free_ldt(struct desc_struct *ldt, unsigned entries)
+ static inline void native_write_idt_entry(gate_desc *idt, int entry,
+                                         const gate_desc *gate)
+ {
++      pax_open_kernel();
+       memcpy(&idt[entry], gate, sizeof(*gate));
++      pax_close_kernel();
+ }
+ static inline void native_write_ldt_entry(struct desc_struct *ldt, int entry,
+                                         const void *desc)
+ {
++      pax_open_kernel();
+       memcpy(&ldt[entry], desc, 8);
++      pax_close_kernel();
+ }
+ static inline void native_write_gdt_entry(struct desc_struct *gdt, int entry,
+@@ -139,7 +146,10 @@ static inline void native_write_gdt_entry(struct desc_struct *gdt, int entry,
+               size = sizeof(struct desc_struct);
+               break;
+       }
++
++      pax_open_kernel();
+       memcpy(&gdt[entry], desc, size);
++      pax_close_kernel();
+ }
+ static inline void pack_descriptor(struct desc_struct *desc, unsigned long base,
+@@ -211,7 +221,9 @@ static inline void native_set_ldt(const void *addr, unsigned int entries)
+ static inline void native_load_tr_desc(void)
+ {
++      pax_open_kernel();
+       asm volatile("ltr %w0"::"q" (GDT_ENTRY_TSS*8));
++      pax_close_kernel();
+ }
+ static inline void native_load_gdt(const struct desc_ptr *dtr)
+@@ -246,8 +258,10 @@ static inline void native_load_tls(struct thread_struct *t, unsigned int cpu)
+       unsigned int i;
+       struct desc_struct *gdt = get_cpu_gdt_table(cpu);
++      pax_open_kernel();
+       for (i = 0; i < GDT_ENTRY_TLS_ENTRIES; i++)
+               gdt[GDT_ENTRY_TLS_MIN + i] = t->tls_array[i];
++      pax_close_kernel();
+ }
+ #define _LDT_empty(info)                              \
+@@ -309,7 +323,7 @@ static inline void set_desc_limit(struct desc_struct *desc, unsigned long limit)
+       desc->limit = (limit >> 16) & 0xf;
+ }
+-static inline void _set_gate(int gate, unsigned type, void *addr,
++static inline void _set_gate(int gate, unsigned type, const void *addr,
+                            unsigned dpl, unsigned ist, unsigned seg)
+ {
+       gate_desc s;
+@@ -327,7 +341,7 @@ static inline void _set_gate(int gate, unsigned type, void *addr,
+  * Pentium F0 0F bugfix can have resulted in the mapped
+  * IDT being write-protected.
+  */
+-static inline void set_intr_gate(unsigned int n, void *addr)
++static inline void set_intr_gate(unsigned int n, const void *addr)
+ {
+       BUG_ON((unsigned)n > 0xFF);
+       _set_gate(n, GATE_INTERRUPT, addr, 0, 0, __KERNEL_CS);
+@@ -356,19 +370,19 @@ static inline void alloc_intr_gate(unsigned int n, void *addr)
+ /*
+  * This routine sets up an interrupt gate at directory privilege level 3.
+  */
+-static inline void set_system_intr_gate(unsigned int n, void *addr)
++static inline void set_system_intr_gate(unsigned int n, const void *addr)
+ {
+       BUG_ON((unsigned)n > 0xFF);
+       _set_gate(n, GATE_INTERRUPT, addr, 0x3, 0, __KERNEL_CS);
+ }
+-static inline void set_system_trap_gate(unsigned int n, void *addr)
++static inline void set_system_trap_gate(unsigned int n, const void *addr)
+ {
+       BUG_ON((unsigned)n > 0xFF);
+       _set_gate(n, GATE_TRAP, addr, 0x3, 0, __KERNEL_CS);
+ }
+-static inline void set_trap_gate(unsigned int n, void *addr)
++static inline void set_trap_gate(unsigned int n, const void *addr)
+ {
+       BUG_ON((unsigned)n > 0xFF);
+       _set_gate(n, GATE_TRAP, addr, 0, 0, __KERNEL_CS);
+@@ -377,19 +391,31 @@ static inline void set_trap_gate(unsigned int n, void *addr)
+ static inline void set_task_gate(unsigned int n, unsigned int gdt_entry)
+ {
+       BUG_ON((unsigned)n > 0xFF);
+-      _set_gate(n, GATE_TASK, (void *)0, 0, 0, (gdt_entry<<3));
++      _set_gate(n, GATE_TASK, (const void *)0, 0, 0, (gdt_entry<<3));
+ }
+-static inline void set_intr_gate_ist(int n, void *addr, unsigned ist)
++static inline void set_intr_gate_ist(int n, const void *addr, unsigned ist)
+ {
+       BUG_ON((unsigned)n > 0xFF);
+       _set_gate(n, GATE_INTERRUPT, addr, 0, ist, __KERNEL_CS);
+ }
+-static inline void set_system_intr_gate_ist(int n, void *addr, unsigned ist)
++static inline void set_system_intr_gate_ist(int n, const void *addr, unsigned ist)
+ {
+       BUG_ON((unsigned)n > 0xFF);
+       _set_gate(n, GATE_INTERRUPT, addr, 0x3, ist, __KERNEL_CS);
+ }
++#ifdef CONFIG_X86_32
++static inline void set_user_cs(unsigned long base, unsigned long limit, int cpu)
++{
++      struct desc_struct d;
++
++      if (likely(limit))
++              limit = (limit - 1UL) >> PAGE_SHIFT;
++      pack_descriptor(&d, base, limit, 0xFB, 0xC);
++      write_gdt_entry(get_cpu_gdt_table(cpu), GDT_ENTRY_DEFAULT_USER_CS, &d, DESCTYPE_S);
++}
++#endif
++
+ #endif /* _ASM_X86_DESC_H */
+diff --git a/arch/x86/include/asm/desc_defs.h b/arch/x86/include/asm/desc_defs.h
+index 9d66848..6b4a691 100644
+--- a/arch/x86/include/asm/desc_defs.h
++++ b/arch/x86/include/asm/desc_defs.h
+@@ -31,6 +31,12 @@ struct desc_struct {
+                       unsigned base1: 8, type: 4, s: 1, dpl: 2, p: 1;
+                       unsigned limit: 4, avl: 1, l: 1, d: 1, g: 1, base2: 8;
+               };
++              struct {
++                      u16 offset_low;
++                      u16 seg;
++                      unsigned reserved: 8, type: 4, s: 1, dpl: 2, p: 1;
++                      unsigned offset_high: 16;
++              } gate;
+       };
+ } __attribute__((packed));
+diff --git a/arch/x86/include/asm/device.h b/arch/x86/include/asm/device.h
+index cee34e9..a7c3fa2 100644
+--- a/arch/x86/include/asm/device.h
++++ b/arch/x86/include/asm/device.h
+@@ -6,7 +6,7 @@ struct dev_archdata {
+       void    *acpi_handle;
+ #endif
+ #ifdef CONFIG_X86_64
+-struct dma_map_ops *dma_ops;
++      const struct dma_map_ops *dma_ops;
+ #endif
+ #ifdef CONFIG_DMAR
+       void *iommu; /* hook for IOMMU specific extension */
+diff --git a/arch/x86/include/asm/dma-mapping.h b/arch/x86/include/asm/dma-mapping.h
+index 6a25d5d..786b202 100644
+--- a/arch/x86/include/asm/dma-mapping.h
++++ b/arch/x86/include/asm/dma-mapping.h
+@@ -25,9 +25,9 @@ extern int iommu_merge;
+ extern struct device x86_dma_fallback_dev;
+ extern int panic_on_overflow;
+-extern struct dma_map_ops *dma_ops;
++extern const struct dma_map_ops *dma_ops;
+-static inline struct dma_map_ops *get_dma_ops(struct device *dev)
++static inline const struct dma_map_ops *get_dma_ops(struct device *dev)
+ {
+ #ifdef CONFIG_X86_32
+       return dma_ops;
+@@ -44,7 +44,7 @@ static inline struct dma_map_ops *get_dma_ops(struct device *dev)
+ /* Make sure we keep the same behaviour */
+ static inline int dma_mapping_error(struct device *dev, dma_addr_t dma_addr)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       if (ops->mapping_error)
+               return ops->mapping_error(dev, dma_addr);
+@@ -122,7 +122,7 @@ static inline void *
+ dma_alloc_coherent(struct device *dev, size_t size, dma_addr_t *dma_handle,
+               gfp_t gfp)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       void *memory;
+       gfp &= ~(__GFP_DMA | __GFP_HIGHMEM | __GFP_DMA32);
+@@ -149,7 +149,7 @@ dma_alloc_coherent(struct device *dev, size_t size, dma_addr_t *dma_handle,
+ static inline void dma_free_coherent(struct device *dev, size_t size,
+                                    void *vaddr, dma_addr_t bus)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       WARN_ON(irqs_disabled());       /* for portability */
+diff --git a/arch/x86/include/asm/e820.h b/arch/x86/include/asm/e820.h
+index 40b4e61..40d8133 100644
+--- a/arch/x86/include/asm/e820.h
++++ b/arch/x86/include/asm/e820.h
+@@ -133,7 +133,7 @@ extern char *default_machine_specific_memory_setup(void);
+ #define ISA_END_ADDRESS               0x100000
+ #define is_ISA_range(s, e) ((s) >= ISA_START_ADDRESS && (e) < ISA_END_ADDRESS)
+-#define BIOS_BEGIN            0x000a0000
++#define BIOS_BEGIN            0x000c0000
+ #define BIOS_END              0x00100000
+ #ifdef __KERNEL__
+diff --git a/arch/x86/include/asm/elf.h b/arch/x86/include/asm/elf.h
+index 8ac9d9a..0a6c96e 100644
+--- a/arch/x86/include/asm/elf.h
++++ b/arch/x86/include/asm/elf.h
+@@ -257,7 +257,25 @@ extern int force_personality32;
+    the loader.  We need to make sure that it is out of the way of the program
+    that it will "exec", and that there is sufficient room for the brk.  */
++#ifdef CONFIG_PAX_SEGMEXEC
++#define ELF_ET_DYN_BASE               ((current->mm->pax_flags & MF_PAX_SEGMEXEC) ? SEGMEXEC_TASK_SIZE/3*2 : TASK_SIZE/3*2)
++#else
+ #define ELF_ET_DYN_BASE               (TASK_SIZE / 3 * 2)
++#endif
++
++#ifdef CONFIG_PAX_ASLR
++#ifdef CONFIG_X86_32
++#define PAX_ELF_ET_DYN_BASE   0x10000000UL
++
++#define PAX_DELTA_MMAP_LEN    (current->mm->pax_flags & MF_PAX_SEGMEXEC ? 15 : 16)
++#define PAX_DELTA_STACK_LEN   (current->mm->pax_flags & MF_PAX_SEGMEXEC ? 15 : 16)
++#else
++#define PAX_ELF_ET_DYN_BASE   0x400000UL
++
++#define PAX_DELTA_MMAP_LEN    ((test_thread_flag(TIF_IA32)) ? 16 : TASK_SIZE_MAX_SHIFT - PAGE_SHIFT - 3)
++#define PAX_DELTA_STACK_LEN   ((test_thread_flag(TIF_IA32)) ? 16 : TASK_SIZE_MAX_SHIFT - PAGE_SHIFT - 3)
++#endif
++#endif
+ /* This yields a mask that user programs can use to figure out what
+    instruction set this CPU supports.  This could be done in user space,
+@@ -310,9 +328,7 @@ do {                                                                       \
+ #define ARCH_DLINFO                                                   \
+ do {                                                                  \
+-      if (vdso_enabled)                                               \
+-              NEW_AUX_ENT(AT_SYSINFO_EHDR,                            \
+-                          (unsigned long)current->mm->context.vdso);  \
++      NEW_AUX_ENT(AT_SYSINFO_EHDR, current->mm->context.vdso);        \
+ } while (0)
+ #define AT_SYSINFO            32
+@@ -323,7 +339,7 @@ do {                                                                       \
+ #endif /* !CONFIG_X86_32 */
+-#define VDSO_CURRENT_BASE     ((unsigned long)current->mm->context.vdso)
++#define VDSO_CURRENT_BASE     (current->mm->context.vdso)
+ #define VDSO_ENTRY                                                    \
+       ((unsigned long)VDSO32_SYMBOL(VDSO_CURRENT_BASE, vsyscall))
+@@ -337,7 +353,4 @@ extern int arch_setup_additional_pages(struct linux_binprm *bprm,
+ extern int syscall32_setup_pages(struct linux_binprm *, int exstack);
+ #define compat_arch_setup_additional_pages    syscall32_setup_pages
+-extern unsigned long arch_randomize_brk(struct mm_struct *mm);
+-#define arch_randomize_brk arch_randomize_brk
+-
+ #endif /* _ASM_X86_ELF_H */
+diff --git a/arch/x86/include/asm/emergency-restart.h b/arch/x86/include/asm/emergency-restart.h
+index cc70c1c..d96d011 100644
+--- a/arch/x86/include/asm/emergency-restart.h
++++ b/arch/x86/include/asm/emergency-restart.h
+@@ -15,6 +15,6 @@ enum reboot_type {
+ extern enum reboot_type reboot_type;
+-extern void machine_emergency_restart(void);
++extern void machine_emergency_restart(void) __noreturn;
+ #endif /* _ASM_X86_EMERGENCY_RESTART_H */
+diff --git a/arch/x86/include/asm/futex.h b/arch/x86/include/asm/futex.h
+index 1f11ce4..7caabd1 100644
+--- a/arch/x86/include/asm/futex.h
++++ b/arch/x86/include/asm/futex.h
+@@ -12,16 +12,18 @@
+ #include <asm/system.h>
+ #define __futex_atomic_op1(insn, ret, oldval, uaddr, oparg)   \
++      typecheck(u32 __user *, uaddr);                         \
+       asm volatile("1:\t" insn "\n"                           \
+                    "2:\t.section .fixup,\"ax\"\n"             \
+                    "3:\tmov\t%3, %1\n"                        \
+                    "\tjmp\t2b\n"                              \
+                    "\t.previous\n"                            \
+                    _ASM_EXTABLE(1b, 3b)                       \
+-                   : "=r" (oldval), "=r" (ret), "+m" (*uaddr) \
++                   : "=r" (oldval), "=r" (ret), "+m" (*(u32 __user *)____m(uaddr))\
+                    : "i" (-EFAULT), "0" (oparg), "1" (0))
+ #define __futex_atomic_op2(insn, ret, oldval, uaddr, oparg)   \
++      typecheck(u32 __user *, uaddr);                         \
+       asm volatile("1:\tmovl  %2, %0\n"                       \
+                    "\tmovl\t%0, %3\n"                         \
+                    "\t" insn "\n"                             \
+@@ -34,10 +36,10 @@
+                    _ASM_EXTABLE(1b, 4b)                       \
+                    _ASM_EXTABLE(2b, 4b)                       \
+                    : "=&a" (oldval), "=&r" (ret),             \
+-                     "+m" (*uaddr), "=&r" (tem)               \
++                     "+m" (*(u32 __user *)____m(uaddr)), "=&r" (tem)  \
+                    : "r" (oparg), "i" (-EFAULT), "1" (0))
+-static inline int futex_atomic_op_inuser(int encoded_op, int __user *uaddr)
++static inline int futex_atomic_op_inuser(int encoded_op, u32 __user *uaddr)
+ {
+       int op = (encoded_op >> 28) & 7;
+       int cmp = (encoded_op >> 24) & 15;
+@@ -61,10 +63,10 @@ static inline int futex_atomic_op_inuser(int encoded_op, int __user *uaddr)
+       switch (op) {
+       case FUTEX_OP_SET:
+-              __futex_atomic_op1("xchgl %0, %2", ret, oldval, uaddr, oparg);
++              __futex_atomic_op1(__copyuser_seg"xchgl %0, %2", ret, oldval, uaddr, oparg);
+               break;
+       case FUTEX_OP_ADD:
+-              __futex_atomic_op1(LOCK_PREFIX "xaddl %0, %2", ret, oldval,
++              __futex_atomic_op1(LOCK_PREFIX __copyuser_seg"xaddl %0, %2", ret, oldval,
+                                  uaddr, oparg);
+               break;
+       case FUTEX_OP_OR:
+@@ -109,7 +111,7 @@ static inline int futex_atomic_op_inuser(int encoded_op, int __user *uaddr)
+       return ret;
+ }
+-static inline int futex_atomic_cmpxchg_inatomic(int __user *uaddr, int oldval,
++static inline int futex_atomic_cmpxchg_inatomic(u32 __user *uaddr, int oldval,
+                                               int newval)
+ {
+@@ -119,16 +121,16 @@ static inline int futex_atomic_cmpxchg_inatomic(int __user *uaddr, int oldval,
+               return -ENOSYS;
+ #endif
+-      if (!access_ok(VERIFY_WRITE, uaddr, sizeof(int)))
++      if (!access_ok(VERIFY_WRITE, uaddr, sizeof(u32)))
+               return -EFAULT;
+-      asm volatile("1:\t" LOCK_PREFIX "cmpxchgl %3, %1\n"
++      asm volatile("1:\t" LOCK_PREFIX __copyuser_seg"cmpxchgl %3, %1\n"
+                    "2:\t.section .fixup, \"ax\"\n"
+                    "3:\tmov     %2, %0\n"
+                    "\tjmp     2b\n"
+                    "\t.previous\n"
+                    _ASM_EXTABLE(1b, 3b)
+-                   : "=a" (oldval), "+m" (*uaddr)
++                   : "=a" (oldval), "+m" (*(u32 *)____m(uaddr))
+                    : "i" (-EFAULT), "r" (newval), "0" (oldval)
+                    : "memory"
+       );
+diff --git a/arch/x86/include/asm/hw_irq.h b/arch/x86/include/asm/hw_irq.h
+index ba180d9..3bad351 100644
+--- a/arch/x86/include/asm/hw_irq.h
++++ b/arch/x86/include/asm/hw_irq.h
+@@ -92,8 +92,8 @@ extern void setup_ioapic_dest(void);
+ extern void enable_IO_APIC(void);
+ /* Statistics */
+-extern atomic_t irq_err_count;
+-extern atomic_t irq_mis_count;
++extern atomic_unchecked_t irq_err_count;
++extern atomic_unchecked_t irq_mis_count;
+ /* EISA */
+ extern void eisa_set_level_irq(unsigned int irq);
+diff --git a/arch/x86/include/asm/i387.h b/arch/x86/include/asm/i387.h
+index 0b20bbb..4cb1396 100644
+--- a/arch/x86/include/asm/i387.h
++++ b/arch/x86/include/asm/i387.h
+@@ -60,6 +60,11 @@ static inline int fxrstor_checking(struct i387_fxsave_struct *fx)
+ {
+       int err;
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      if ((unsigned long)fx < PAX_USER_SHADOW_BASE)
++              fx = (struct i387_fxsave_struct *)((void *)fx + PAX_USER_SHADOW_BASE);
++#endif
++
+       asm volatile("1:  rex64/fxrstor (%[fx])\n\t"
+                    "2:\n"
+                    ".section .fixup,\"ax\"\n"
+@@ -105,6 +110,11 @@ static inline int fxsave_user(struct i387_fxsave_struct __user *fx)
+ {
+       int err;
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      if ((unsigned long)fx < PAX_USER_SHADOW_BASE)
++              fx = (struct i387_fxsave_struct __user *)((void __user *)fx + PAX_USER_SHADOW_BASE);
++#endif
++
+       asm volatile("1:  rex64/fxsave (%[fx])\n\t"
+                    "2:\n"
+                    ".section .fixup,\"ax\"\n"
+@@ -195,13 +205,8 @@ static inline int fxrstor_checking(struct i387_fxsave_struct *fx)
+ }
+ /* We need a safe address that is cheap to find and that is already
+-   in L1 during context switch. The best choices are unfortunately
+-   different for UP and SMP */
+-#ifdef CONFIG_SMP
+-#define safe_address (__per_cpu_offset[0])
+-#else
+-#define safe_address (kstat_cpu(0).cpustat.user)
+-#endif
++   in L1 during context switch. */
++#define safe_address (init_tss[smp_processor_id()].x86_tss.sp0)
+ /*
+  * These must be called with preempt disabled
+@@ -291,7 +296,7 @@ static inline void kernel_fpu_begin(void)
+       struct thread_info *me = current_thread_info();
+       preempt_disable();
+       if (me->status & TS_USEDFPU)
+-              __save_init_fpu(me->task);
++              __save_init_fpu(current);
+       else
+               clts();
+ }
+diff --git a/arch/x86/include/asm/io_32.h b/arch/x86/include/asm/io_32.h
+index a299900..15c5410 100644
+--- a/arch/x86/include/asm/io_32.h
++++ b/arch/x86/include/asm/io_32.h
+@@ -3,6 +3,7 @@
+ #include <linux/string.h>
+ #include <linux/compiler.h>
++#include <asm/processor.h>
+ /*
+  * This file contains the definitions for the x86 IO instructions
+@@ -42,6 +43,17 @@
+ #ifdef __KERNEL__
++#define ARCH_HAS_VALID_PHYS_ADDR_RANGE
++static inline int valid_phys_addr_range(unsigned long addr, size_t count)
++{
++      return ((addr + count + PAGE_SIZE - 1) >> PAGE_SHIFT) < (1ULL << (boot_cpu_data.x86_phys_bits - PAGE_SHIFT)) ? 1 : 0;
++}
++
++static inline int valid_mmap_phys_addr_range(unsigned long pfn, size_t count)
++{
++      return (pfn + (count >> PAGE_SHIFT)) < (1ULL << (boot_cpu_data.x86_phys_bits - PAGE_SHIFT)) ? 1 : 0;
++}
++
+ #include <asm-generic/iomap.h>
+ #include <linux/vmalloc.h>
+diff --git a/arch/x86/include/asm/io_64.h b/arch/x86/include/asm/io_64.h
+index 2440678..c158b88 100644
+--- a/arch/x86/include/asm/io_64.h
++++ b/arch/x86/include/asm/io_64.h
+@@ -140,6 +140,17 @@ __OUTS(l)
+ #include <linux/vmalloc.h>
++#define ARCH_HAS_VALID_PHYS_ADDR_RANGE
++static inline int valid_phys_addr_range(unsigned long addr, size_t count)
++{
++      return ((addr + count + PAGE_SIZE - 1) >> PAGE_SHIFT) < (1ULL << (boot_cpu_data.x86_phys_bits - PAGE_SHIFT)) ? 1 : 0;
++}
++
++static inline int valid_mmap_phys_addr_range(unsigned long pfn, size_t count)
++{
++      return (pfn + (count >> PAGE_SHIFT)) < (1ULL << (boot_cpu_data.x86_phys_bits - PAGE_SHIFT)) ? 1 : 0;
++}
++
+ #include <asm-generic/iomap.h>
+ void __memcpy_fromio(void *, unsigned long, unsigned);
+diff --git a/arch/x86/include/asm/iommu.h b/arch/x86/include/asm/iommu.h
+index fd6d21b..8b13915 100644
+--- a/arch/x86/include/asm/iommu.h
++++ b/arch/x86/include/asm/iommu.h
+@@ -3,7 +3,7 @@
+ extern void pci_iommu_shutdown(void);
+ extern void no_iommu_init(void);
+-extern struct dma_map_ops nommu_dma_ops;
++extern const struct dma_map_ops nommu_dma_ops;
+ extern int force_iommu, no_iommu;
+ extern int iommu_detected;
+ extern int iommu_pass_through;
+diff --git a/arch/x86/include/asm/irqflags.h b/arch/x86/include/asm/irqflags.h
+index 9e2b952..557206e 100644
+--- a/arch/x86/include/asm/irqflags.h
++++ b/arch/x86/include/asm/irqflags.h
+@@ -142,6 +142,11 @@ static inline unsigned long __raw_local_irq_save(void)
+       sti;                                    \
+       sysexit
++#define GET_CR0_INTO_RDI              mov %cr0, %rdi
++#define SET_RDI_INTO_CR0              mov %rdi, %cr0
++#define GET_CR3_INTO_RDI              mov %cr3, %rdi
++#define SET_RDI_INTO_CR3              mov %rdi, %cr3
++
+ #else
+ #define INTERRUPT_RETURN              iret
+ #define ENABLE_INTERRUPTS_SYSEXIT     sti; sysexit
+diff --git a/arch/x86/include/asm/kprobes.h b/arch/x86/include/asm/kprobes.h
+index 4fe681d..bb6d40c 100644
+--- a/arch/x86/include/asm/kprobes.h
++++ b/arch/x86/include/asm/kprobes.h
+@@ -34,13 +34,8 @@ typedef u8 kprobe_opcode_t;
+ #define BREAKPOINT_INSTRUCTION        0xcc
+ #define RELATIVEJUMP_INSTRUCTION 0xe9
+ #define MAX_INSN_SIZE 16
+-#define MAX_STACK_SIZE 64
+-#define MIN_STACK_SIZE(ADDR)                                         \
+-      (((MAX_STACK_SIZE) < (((unsigned long)current_thread_info()) + \
+-                            THREAD_SIZE - (unsigned long)(ADDR)))    \
+-       ? (MAX_STACK_SIZE)                                            \
+-       : (((unsigned long)current_thread_info()) +                   \
+-          THREAD_SIZE - (unsigned long)(ADDR)))
++#define MAX_STACK_SIZE 64UL
++#define MIN_STACK_SIZE(ADDR)  min(MAX_STACK_SIZE, current->thread.sp0 - (unsigned long)(ADDR))
+ #define flush_insn_slot(p)    do { } while (0)
+diff --git a/arch/x86/include/asm/kvm_host.h b/arch/x86/include/asm/kvm_host.h
+index 08bc2ff..2e88d1f 100644
+--- a/arch/x86/include/asm/kvm_host.h
++++ b/arch/x86/include/asm/kvm_host.h
+@@ -534,9 +534,9 @@ struct kvm_x86_ops {
+       bool (*gb_page_enable)(void);
+       const struct trace_print_flags *exit_reasons_str;
+-};
++} __do_const;
+-extern struct kvm_x86_ops *kvm_x86_ops;
++extern const struct kvm_x86_ops *kvm_x86_ops;
+ int kvm_mmu_module_init(void);
+ void kvm_mmu_module_exit(void);
+diff --git a/arch/x86/include/asm/local.h b/arch/x86/include/asm/local.h
+index 47b9b6f..815aaa1 100644
+--- a/arch/x86/include/asm/local.h
++++ b/arch/x86/include/asm/local.h
+@@ -18,26 +18,58 @@ typedef struct {
+ static inline void local_inc(local_t *l)
+ {
+-      asm volatile(_ASM_INC "%0"
++      asm volatile(_ASM_INC "%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_DEC "%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+m" (l->a.counter));
+ }
+ static inline void local_dec(local_t *l)
+ {
+-      asm volatile(_ASM_DEC "%0"
++      asm volatile(_ASM_DEC "%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_INC "%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+m" (l->a.counter));
+ }
+ static inline void local_add(long i, local_t *l)
+ {
+-      asm volatile(_ASM_ADD "%1,%0"
++      asm volatile(_ASM_ADD "%1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_SUB "%1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+m" (l->a.counter)
+                    : "ir" (i));
+ }
+ static inline void local_sub(long i, local_t *l)
+ {
+-      asm volatile(_ASM_SUB "%1,%0"
++      asm volatile(_ASM_SUB "%1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_ADD "%1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+m" (l->a.counter)
+                    : "ir" (i));
+ }
+@@ -55,7 +87,16 @@ static inline int local_sub_and_test(long i, local_t *l)
+ {
+       unsigned char c;
+-      asm volatile(_ASM_SUB "%2,%0; sete %1"
++      asm volatile(_ASM_SUB "%2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_ADD "%2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "+m" (l->a.counter), "=qm" (c)
+                    : "ir" (i) : "memory");
+       return c;
+@@ -73,7 +114,16 @@ static inline int local_dec_and_test(local_t *l)
+ {
+       unsigned char c;
+-      asm volatile(_ASM_DEC "%0; sete %1"
++      asm volatile(_ASM_DEC "%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_INC "%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "+m" (l->a.counter), "=qm" (c)
+                    : : "memory");
+       return c != 0;
+@@ -91,7 +141,16 @@ static inline int local_inc_and_test(local_t *l)
+ {
+       unsigned char c;
+-      asm volatile(_ASM_INC "%0; sete %1"
++      asm volatile(_ASM_INC "%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_DEC "%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sete %1\n"
+                    : "+m" (l->a.counter), "=qm" (c)
+                    : : "memory");
+       return c != 0;
+@@ -110,7 +169,16 @@ static inline int local_add_negative(long i, local_t *l)
+ {
+       unsigned char c;
+-      asm volatile(_ASM_ADD "%2,%0; sets %1"
++      asm volatile(_ASM_ADD "%2,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_SUB "%2,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   "sets %1\n"
+                    : "+m" (l->a.counter), "=qm" (c)
+                    : "ir" (i) : "memory");
+       return c;
+@@ -133,7 +201,15 @@ static inline long local_add_return(long i, local_t *l)
+ #endif
+       /* Modern 486+ processor */
+       __i = i;
+-      asm volatile(_ASM_XADD "%0, %1;"
++      asm volatile(_ASM_XADD "%0, %1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   _ASM_MOV "%0,%1\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+r" (i), "+m" (l->a.counter)
+                    : : "memory");
+       return i + __i;
+diff --git a/arch/x86/include/asm/microcode.h b/arch/x86/include/asm/microcode.h
+index ef51b50..514ba37 100644
+--- a/arch/x86/include/asm/microcode.h
++++ b/arch/x86/include/asm/microcode.h
+@@ -12,13 +12,13 @@ struct device;
+ enum ucode_state { UCODE_ERROR, UCODE_OK, UCODE_NFOUND };
+ struct microcode_ops {
+-      enum ucode_state (*request_microcode_user) (int cpu,
++      enum ucode_state (* const request_microcode_user) (int cpu,
+                               const void __user *buf, size_t size);
+-      enum ucode_state (*request_microcode_fw) (int cpu,
++      enum ucode_state (* const request_microcode_fw) (int cpu,
+                               struct device *device);
+-      void (*microcode_fini_cpu) (int cpu);
++      void (* const microcode_fini_cpu) (int cpu);
+       /*
+        * The generic 'microcode_core' part guarantees that
+@@ -38,18 +38,18 @@ struct ucode_cpu_info {
+ extern struct ucode_cpu_info ucode_cpu_info[];
+ #ifdef CONFIG_MICROCODE_INTEL
+-extern struct microcode_ops * __init init_intel_microcode(void);
++extern const struct microcode_ops * __init init_intel_microcode(void);
+ #else
+-static inline struct microcode_ops * __init init_intel_microcode(void)
++static inline const struct microcode_ops * __init init_intel_microcode(void)
+ {
+       return NULL;
+ }
+ #endif /* CONFIG_MICROCODE_INTEL */
+ #ifdef CONFIG_MICROCODE_AMD
+-extern struct microcode_ops * __init init_amd_microcode(void);
++extern const struct microcode_ops * __init init_amd_microcode(void);
+ #else
+-static inline struct microcode_ops * __init init_amd_microcode(void)
++static inline const struct microcode_ops * __init init_amd_microcode(void)
+ {
+       return NULL;
+ }
+diff --git a/arch/x86/include/asm/mman.h b/arch/x86/include/asm/mman.h
+index 593e51d..fa69c9a 100644
+--- a/arch/x86/include/asm/mman.h
++++ b/arch/x86/include/asm/mman.h
+@@ -5,4 +5,14 @@
+ #include <asm-generic/mman.h>
++#ifdef __KERNEL__
++#ifndef __ASSEMBLY__
++#ifdef CONFIG_X86_32
++#define arch_mmap_check       i386_mmap_check
++int i386_mmap_check(unsigned long addr, unsigned long len,
++              unsigned long flags);
++#endif
++#endif
++#endif
++
+ #endif /* _ASM_X86_MMAN_H */
+diff --git a/arch/x86/include/asm/mmu.h b/arch/x86/include/asm/mmu.h
+index 80a1dee..239c67d 100644
+--- a/arch/x86/include/asm/mmu.h
++++ b/arch/x86/include/asm/mmu.h
+@@ -9,10 +9,23 @@
+  * we put the segment information here.
+  */
+ typedef struct {
+-      void *ldt;
++      struct desc_struct *ldt;
+       int size;
+       struct mutex lock;
+-      void *vdso;
++      unsigned long vdso;
++
++#ifdef CONFIG_X86_32
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++      unsigned long user_cs_base;
++      unsigned long user_cs_limit;
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_SMP)
++      cpumask_t cpu_user_cs_mask;
++#endif
++
++#endif
++#endif
++
+ } mm_context_t;
+ #ifdef CONFIG_SMP
+diff --git a/arch/x86/include/asm/mmu_context.h b/arch/x86/include/asm/mmu_context.h
+index 8b5393e..8143173 100644
+--- a/arch/x86/include/asm/mmu_context.h
++++ b/arch/x86/include/asm/mmu_context.h
+@@ -24,6 +24,18 @@ void destroy_context(struct mm_struct *mm);
+ static inline void enter_lazy_tlb(struct mm_struct *mm, struct task_struct *tsk)
+ {
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      unsigned int i;
++      pgd_t *pgd;
++
++      pax_open_kernel();
++      pgd = get_cpu_pgd(smp_processor_id());
++      for (i = USER_PGD_PTRS; i < 2 * USER_PGD_PTRS; ++i)
++              set_pgd_batched(pgd+i, native_make_pgd(0));
++      pax_close_kernel();
++#endif
++
+ #ifdef CONFIG_SMP
+       if (percpu_read(cpu_tlbstate.state) == TLBSTATE_OK)
+               percpu_write(cpu_tlbstate.state, TLBSTATE_LAZY);
+@@ -34,16 +46,30 @@ static inline void switch_mm(struct mm_struct *prev, struct mm_struct *next,
+                            struct task_struct *tsk)
+ {
+       unsigned cpu = smp_processor_id();
++#if defined(CONFIG_X86_32) && (defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)) && defined(CONFIG_SMP)
++      int tlbstate = TLBSTATE_OK;
++#endif
+       if (likely(prev != next)) {
+ #ifdef CONFIG_SMP
++#if defined(CONFIG_X86_32) && (defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC))
++              tlbstate = percpu_read(cpu_tlbstate.state);
++#endif
+               percpu_write(cpu_tlbstate.state, TLBSTATE_OK);
+               percpu_write(cpu_tlbstate.active_mm, next);
+ #endif
+               cpumask_set_cpu(cpu, mm_cpumask(next));
+               /* Re-load page tables */
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              pax_open_kernel();
++              __clone_user_pgds(get_cpu_pgd(cpu), next->pgd, USER_PGD_PTRS);
++              __shadow_user_pgds(get_cpu_pgd(cpu) + USER_PGD_PTRS, next->pgd, USER_PGD_PTRS);
++              pax_close_kernel();
++              load_cr3(get_cpu_pgd(cpu));
++#else
+               load_cr3(next->pgd);
++#endif
+               /* stop flush ipis for the previous mm */
+               cpumask_clear_cpu(cpu, mm_cpumask(prev));
+@@ -53,9 +79,38 @@ static inline void switch_mm(struct mm_struct *prev, struct mm_struct *next,
+                */
+               if (unlikely(prev->context.ldt != next->context.ldt))
+                       load_LDT_nolock(&next->context);
+-      }
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_SMP)
++              if (!nx_enabled) {
++                      smp_mb__before_clear_bit();
++                      cpu_clear(cpu, prev->context.cpu_user_cs_mask);
++                      smp_mb__after_clear_bit();
++                      cpu_set(cpu, next->context.cpu_user_cs_mask);
++              }
++#endif
++
++#if defined(CONFIG_X86_32) && (defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC))
++              if (unlikely(prev->context.user_cs_base != next->context.user_cs_base ||
++                           prev->context.user_cs_limit != next->context.user_cs_limit))
++                      set_user_cs(next->context.user_cs_base, next->context.user_cs_limit, cpu);
+ #ifdef CONFIG_SMP
++              else if (unlikely(tlbstate != TLBSTATE_OK))
++                      set_user_cs(next->context.user_cs_base, next->context.user_cs_limit, cpu);
++#endif
++#endif
++
++      }
+       else {
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              pax_open_kernel();
++              __clone_user_pgds(get_cpu_pgd(cpu), next->pgd, USER_PGD_PTRS);
++              __shadow_user_pgds(get_cpu_pgd(cpu) + USER_PGD_PTRS, next->pgd, USER_PGD_PTRS);
++              pax_close_kernel();
++              load_cr3(get_cpu_pgd(cpu));
++#endif
++
++#ifdef CONFIG_SMP
+               percpu_write(cpu_tlbstate.state, TLBSTATE_OK);
+               BUG_ON(percpu_read(cpu_tlbstate.active_mm) != next);
+@@ -64,11 +119,28 @@ static inline void switch_mm(struct mm_struct *prev, struct mm_struct *next,
+                        * tlb flush IPI delivery. We must reload CR3
+                        * to make sure to use no freed page tables.
+                        */
++
++#ifndef CONFIG_PAX_PER_CPU_PGD
+                       load_cr3(next->pgd);
++#endif
++
+                       load_LDT_nolock(&next->context);
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_PAGEEXEC)
++                      if (!nx_enabled)
++                              cpu_set(cpu, next->context.cpu_user_cs_mask);
++#endif
++
++#if defined(CONFIG_X86_32) && (defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC))
++#ifdef CONFIG_PAX_PAGEEXEC
++                      if (!((next->pax_flags & MF_PAX_PAGEEXEC) && nx_enabled))
++#endif
++                              set_user_cs(next->context.user_cs_base, next->context.user_cs_limit, cpu);
++#endif
++
+               }
++#endif
+       }
+-#endif
+ }
+ #define activate_mm(prev, next)                       \
+diff --git a/arch/x86/include/asm/module.h b/arch/x86/include/asm/module.h
+index 3e2ce58..caaf478 100644
+--- a/arch/x86/include/asm/module.h
++++ b/arch/x86/include/asm/module.h
+@@ -5,6 +5,7 @@
+ #ifdef CONFIG_X86_64
+ /* X86_64 does not define MODULE_PROC_FAMILY */
++#define MODULE_PROC_FAMILY ""
+ #elif defined CONFIG_M386
+ #define MODULE_PROC_FAMILY "386 "
+ #elif defined CONFIG_M486
+@@ -59,13 +60,26 @@
+ #error unknown processor family
+ #endif
+-#ifdef CONFIG_X86_32
+-# ifdef CONFIG_4KSTACKS
+-#  define MODULE_STACKSIZE "4KSTACKS "
+-# else
+-#  define MODULE_STACKSIZE ""
+-# endif
+-# define MODULE_ARCH_VERMAGIC MODULE_PROC_FAMILY MODULE_STACKSIZE
++#if defined(CONFIG_X86_32) && defined(CONFIG_4KSTACKS)
++#define MODULE_STACKSIZE "4KSTACKS "
++#else
++#define MODULE_STACKSIZE ""
+ #endif
++#ifdef CONFIG_PAX_KERNEXEC_PLUGIN_METHOD_BTS
++#define MODULE_PAX_KERNEXEC "KERNEXEC_BTS "
++#elif defined(CONFIG_PAX_KERNEXEC_PLUGIN_METHOD_OR)
++#define MODULE_PAX_KERNEXEC "KERNEXEC_OR "
++#else
++#define MODULE_PAX_KERNEXEC ""
++#endif
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++#define MODULE_PAX_UDEREF "UDEREF "
++#else
++#define MODULE_PAX_UDEREF ""
++#endif
++
++#define MODULE_ARCH_VERMAGIC MODULE_PROC_FAMILY MODULE_STACKSIZE MODULE_PAX_KERNEXEC MODULE_PAX_UDEREF
++
+ #endif /* _ASM_X86_MODULE_H */
+diff --git a/arch/x86/include/asm/page_64_types.h b/arch/x86/include/asm/page_64_types.h
+index 7639dbf..e08a58c 100644
+--- a/arch/x86/include/asm/page_64_types.h
++++ b/arch/x86/include/asm/page_64_types.h
+@@ -56,7 +56,7 @@ void copy_page(void *to, void *from);
+ /* duplicated to the one in bootmem.h */
+ extern unsigned long max_pfn;
+-extern unsigned long phys_base;
++extern const unsigned long phys_base;
+ extern unsigned long __phys_addr(unsigned long);
+ #define __phys_reloc_hide(x)  (x)
+diff --git a/arch/x86/include/asm/paravirt.h b/arch/x86/include/asm/paravirt.h
+index efb3899..ef30687 100644
+--- a/arch/x86/include/asm/paravirt.h
++++ b/arch/x86/include/asm/paravirt.h
+@@ -648,6 +648,18 @@ static inline void set_pgd(pgd_t *pgdp, pgd_t pgd)
+                           val);
+ }
++static inline void set_pgd_batched(pgd_t *pgdp, pgd_t pgd)
++{
++      pgdval_t val = native_pgd_val(pgd);
++
++      if (sizeof(pgdval_t) > sizeof(long))
++              PVOP_VCALL3(pv_mmu_ops.set_pgd_batched, pgdp,
++                          val, (u64)val >> 32);
++      else
++              PVOP_VCALL2(pv_mmu_ops.set_pgd_batched, pgdp,
++                          val);
++}
++
+ static inline void pgd_clear(pgd_t *pgdp)
+ {
+       set_pgd(pgdp, __pgd(0));
+@@ -729,6 +741,21 @@ static inline void __set_fixmap(unsigned /* enum fixed_addresses */ idx,
+       pv_mmu_ops.set_fixmap(idx, phys, flags);
+ }
++#ifdef CONFIG_PAX_KERNEXEC
++static inline unsigned long pax_open_kernel(void)
++{
++      return PVOP_CALL0(unsigned long, pv_mmu_ops.pax_open_kernel);
++}
++
++static inline unsigned long pax_close_kernel(void)
++{
++      return PVOP_CALL0(unsigned long, pv_mmu_ops.pax_close_kernel);
++}
++#else
++static inline unsigned long pax_open_kernel(void) { return 0; }
++static inline unsigned long pax_close_kernel(void) { return 0; }
++#endif
++
+ #if defined(CONFIG_SMP) && defined(CONFIG_PARAVIRT_SPINLOCKS)
+ static inline int __raw_spin_is_locked(struct raw_spinlock *lock)
+@@ -945,7 +972,7 @@ extern void default_banner(void);
+ #define PARA_PATCH(struct, off)        ((PARAVIRT_PATCH_##struct + (off)) / 4)
+ #define PARA_SITE(ptype, clobbers, ops) _PVSITE(ptype, clobbers, ops, .long, 4)
+-#define PARA_INDIRECT(addr)   *%cs:addr
++#define PARA_INDIRECT(addr)   *%ss:addr
+ #endif
+ #define INTERRUPT_RETURN                                              \
+@@ -1022,6 +1049,21 @@ extern void default_banner(void);
+       PARA_SITE(PARA_PATCH(pv_cpu_ops, PV_CPU_irq_enable_sysexit),    \
+                 CLBR_NONE,                                            \
+                 jmp PARA_INDIRECT(pv_cpu_ops+PV_CPU_irq_enable_sysexit))
++
++#define GET_CR0_INTO_RDI                              \
++      call PARA_INDIRECT(pv_cpu_ops+PV_CPU_read_cr0); \
++      mov %rax,%rdi
++
++#define SET_RDI_INTO_CR0                              \
++      call PARA_INDIRECT(pv_cpu_ops+PV_CPU_write_cr0)
++
++#define GET_CR3_INTO_RDI                              \
++      call PARA_INDIRECT(pv_mmu_ops+PV_MMU_read_cr3); \
++      mov %rax,%rdi
++
++#define SET_RDI_INTO_CR3                              \
++      call PARA_INDIRECT(pv_mmu_ops+PV_MMU_write_cr3)
++
+ #endif        /* CONFIG_X86_32 */
+ #endif /* __ASSEMBLY__ */
+diff --git a/arch/x86/include/asm/paravirt_types.h b/arch/x86/include/asm/paravirt_types.h
+index 9357473..aeb2de5 100644
+--- a/arch/x86/include/asm/paravirt_types.h
++++ b/arch/x86/include/asm/paravirt_types.h
+@@ -78,19 +78,19 @@ struct pv_init_ops {
+        */
+       unsigned (*patch)(u8 type, u16 clobber, void *insnbuf,
+                         unsigned long addr, unsigned len);
+-};
++} __no_const;
+ struct pv_lazy_ops {
+       /* Set deferred update mode, used for batching operations. */
+       void (*enter)(void);
+       void (*leave)(void);
+-};
++} __no_const;
+ struct pv_time_ops {
+       unsigned long long (*sched_clock)(void);
+       unsigned long (*get_tsc_khz)(void);
+-};
++} __no_const;
+ struct pv_cpu_ops {
+       /* hooks for various privileged instructions */
+@@ -186,7 +186,7 @@ struct pv_cpu_ops {
+       void (*start_context_switch)(struct task_struct *prev);
+       void (*end_context_switch)(struct task_struct *next);
+-};
++} __no_const;
+ struct pv_irq_ops {
+       /*
+@@ -217,7 +217,7 @@ struct pv_apic_ops {
+                                unsigned long start_eip,
+                                unsigned long start_esp);
+ #endif
+-};
++} __no_const;
+ struct pv_mmu_ops {
+       unsigned long (*read_cr2)(void);
+@@ -301,6 +301,7 @@ struct pv_mmu_ops {
+       struct paravirt_callee_save make_pud;
+       void (*set_pgd)(pgd_t *pudp, pgd_t pgdval);
++      void (*set_pgd_batched)(pgd_t *pudp, pgd_t pgdval);
+ #endif        /* PAGETABLE_LEVELS == 4 */
+ #endif        /* PAGETABLE_LEVELS >= 3 */
+@@ -316,6 +317,12 @@ struct pv_mmu_ops {
+          an mfn.  We can tell which is which from the index. */
+       void (*set_fixmap)(unsigned /* enum fixed_addresses */ idx,
+                          phys_addr_t phys, pgprot_t flags);
++
++#ifdef CONFIG_PAX_KERNEXEC
++      unsigned long (*pax_open_kernel)(void);
++      unsigned long (*pax_close_kernel)(void);
++#endif
++
+ };
+ struct raw_spinlock;
+@@ -326,7 +333,7 @@ struct pv_lock_ops {
+       void (*spin_lock_flags)(struct raw_spinlock *lock, unsigned long flags);
+       int (*spin_trylock)(struct raw_spinlock *lock);
+       void (*spin_unlock)(struct raw_spinlock *lock);
+-};
++} __no_const;
+ /* This contains all the paravirt structures: we get a convenient
+  * number for each function using the offset which we use to indicate
+diff --git a/arch/x86/include/asm/pci_x86.h b/arch/x86/include/asm/pci_x86.h
+index b399988..3f47c38 100644
+--- a/arch/x86/include/asm/pci_x86.h
++++ b/arch/x86/include/asm/pci_x86.h
+@@ -89,16 +89,16 @@ extern int (*pcibios_enable_irq)(struct pci_dev *dev);
+ extern void (*pcibios_disable_irq)(struct pci_dev *dev);
+ struct pci_raw_ops {
+-      int (*read)(unsigned int domain, unsigned int bus, unsigned int devfn,
++      int (* const read)(unsigned int domain, unsigned int bus, unsigned int devfn,
+                                               int reg, int len, u32 *val);
+-      int (*write)(unsigned int domain, unsigned int bus, unsigned int devfn,
++      int (* const write)(unsigned int domain, unsigned int bus, unsigned int devfn,
+                                               int reg, int len, u32 val);
+ };
+-extern struct pci_raw_ops *raw_pci_ops;
+-extern struct pci_raw_ops *raw_pci_ext_ops;
++extern const struct pci_raw_ops *raw_pci_ops;
++extern const struct pci_raw_ops *raw_pci_ext_ops;
+-extern struct pci_raw_ops pci_direct_conf1;
++extern const struct pci_raw_ops pci_direct_conf1;
+ extern bool port_cf9_safe;
+ /* arch_initcall level */
+diff --git a/arch/x86/include/asm/percpu.h b/arch/x86/include/asm/percpu.h
+index b65a36d..50345a4 100644
+--- a/arch/x86/include/asm/percpu.h
++++ b/arch/x86/include/asm/percpu.h
+@@ -78,6 +78,7 @@ do {                                                 \
+       if (0) {                                        \
+               T__ tmp__;                              \
+               tmp__ = (val);                          \
++              (void)tmp__;                            \
+       }                                               \
+       switch (sizeof(var)) {                          \
+       case 1:                                         \
+diff --git a/arch/x86/include/asm/pgalloc.h b/arch/x86/include/asm/pgalloc.h
+index 271de94..ef944d6 100644
+--- a/arch/x86/include/asm/pgalloc.h
++++ b/arch/x86/include/asm/pgalloc.h
+@@ -63,6 +63,13 @@ static inline void pmd_populate_kernel(struct mm_struct *mm,
+                                      pmd_t *pmd, pte_t *pte)
+ {
+       paravirt_alloc_pte(mm, __pa(pte) >> PAGE_SHIFT);
++      set_pmd(pmd, __pmd(__pa(pte) | _KERNPG_TABLE));
++}
++
++static inline void pmd_populate_user(struct mm_struct *mm,
++                                     pmd_t *pmd, pte_t *pte)
++{
++      paravirt_alloc_pte(mm, __pa(pte) >> PAGE_SHIFT);
+       set_pmd(pmd, __pmd(__pa(pte) | _PAGE_TABLE));
+ }
+diff --git a/arch/x86/include/asm/pgtable-2level.h b/arch/x86/include/asm/pgtable-2level.h
+index 2334982..70bc412 100644
+--- a/arch/x86/include/asm/pgtable-2level.h
++++ b/arch/x86/include/asm/pgtable-2level.h
+@@ -18,7 +18,9 @@ static inline void native_set_pte(pte_t *ptep , pte_t pte)
+ static inline void native_set_pmd(pmd_t *pmdp, pmd_t pmd)
+ {
++      pax_open_kernel();
+       *pmdp = pmd;
++      pax_close_kernel();
+ }
+ static inline void native_set_pte_atomic(pte_t *ptep, pte_t pte)
+diff --git a/arch/x86/include/asm/pgtable-3level.h b/arch/x86/include/asm/pgtable-3level.h
+index 33927d2..ccde329 100644
+--- a/arch/x86/include/asm/pgtable-3level.h
++++ b/arch/x86/include/asm/pgtable-3level.h
+@@ -38,12 +38,16 @@ static inline void native_set_pte_atomic(pte_t *ptep, pte_t pte)
+ static inline void native_set_pmd(pmd_t *pmdp, pmd_t pmd)
+ {
++      pax_open_kernel();
+       set_64bit((unsigned long long *)(pmdp), native_pmd_val(pmd));
++      pax_close_kernel();
+ }
+ static inline void native_set_pud(pud_t *pudp, pud_t pud)
+ {
++      pax_open_kernel();
+       set_64bit((unsigned long long *)(pudp), native_pud_val(pud));
++      pax_close_kernel();
+ }
+ /*
+diff --git a/arch/x86/include/asm/pgtable.h b/arch/x86/include/asm/pgtable.h
+index af6fd36..867ff74 100644
+--- a/arch/x86/include/asm/pgtable.h
++++ b/arch/x86/include/asm/pgtable.h
+@@ -39,6 +39,7 @@ extern struct list_head pgd_list;
+ #ifndef __PAGETABLE_PUD_FOLDED
+ #define set_pgd(pgdp, pgd)            native_set_pgd(pgdp, pgd)
++#define set_pgd_batched(pgdp, pgd)    native_set_pgd_batched(pgdp, pgd)
+ #define pgd_clear(pgd)                        native_pgd_clear(pgd)
+ #endif
+@@ -74,12 +75,51 @@ extern struct list_head pgd_list;
+ #define arch_end_context_switch(prev) do {} while(0)
++#define pax_open_kernel()     native_pax_open_kernel()
++#define pax_close_kernel()    native_pax_close_kernel()
+ #endif        /* CONFIG_PARAVIRT */
++#define  __HAVE_ARCH_PAX_OPEN_KERNEL
++#define  __HAVE_ARCH_PAX_CLOSE_KERNEL
++
++#ifdef CONFIG_PAX_KERNEXEC
++static inline unsigned long native_pax_open_kernel(void)
++{
++      unsigned long cr0;
++
++      preempt_disable();
++      barrier();
++      cr0 = read_cr0() ^ X86_CR0_WP;
++      BUG_ON(unlikely(cr0 & X86_CR0_WP));
++      write_cr0(cr0);
++      return cr0 ^ X86_CR0_WP;
++}
++
++static inline unsigned long native_pax_close_kernel(void)
++{
++      unsigned long cr0;
++
++      cr0 = read_cr0() ^ X86_CR0_WP;
++      BUG_ON(unlikely(!(cr0 & X86_CR0_WP)));
++      write_cr0(cr0);
++      barrier();
++      preempt_enable_no_resched();
++      return cr0 ^ X86_CR0_WP;
++}
++#else
++static inline unsigned long native_pax_open_kernel(void) { return 0; }
++static inline unsigned long native_pax_close_kernel(void) { return 0; }
++#endif
++
+ /*
+  * The following only work if pte_present() is true.
+  * Undefined behaviour if not..
+  */
++static inline int pte_user(pte_t pte)
++{
++      return pte_val(pte) & _PAGE_USER;
++}
++
+ static inline int pte_dirty(pte_t pte)
+ {
+       return pte_flags(pte) & _PAGE_DIRTY;
+@@ -167,9 +207,29 @@ static inline pte_t pte_wrprotect(pte_t pte)
+       return pte_clear_flags(pte, _PAGE_RW);
+ }
++static inline pte_t pte_mkread(pte_t pte)
++{
++      return __pte(pte_val(pte) | _PAGE_USER);
++}
++
+ static inline pte_t pte_mkexec(pte_t pte)
+ {
+-      return pte_clear_flags(pte, _PAGE_NX);
++#ifdef CONFIG_X86_PAE
++      if (__supported_pte_mask & _PAGE_NX)
++              return pte_clear_flags(pte, _PAGE_NX);
++      else
++#endif
++              return pte_set_flags(pte, _PAGE_USER);
++}
++
++static inline pte_t pte_exprotect(pte_t pte)
++{
++#ifdef CONFIG_X86_PAE
++      if (__supported_pte_mask & _PAGE_NX)
++              return pte_set_flags(pte, _PAGE_NX);
++      else
++#endif
++              return pte_clear_flags(pte, _PAGE_USER);
+ }
+ static inline pte_t pte_mkdirty(pte_t pte)
+@@ -302,6 +362,15 @@ pte_t *populate_extra_pte(unsigned long vaddr);
+ #endif
+ #ifndef __ASSEMBLY__
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++extern pgd_t cpu_pgd[NR_CPUS][PTRS_PER_PGD];
++static inline pgd_t *get_cpu_pgd(unsigned int cpu)
++{
++      return cpu_pgd[cpu];
++}
++#endif
++
+ #include <linux/mm_types.h>
+ static inline int pte_none(pte_t pte)
+@@ -472,7 +541,7 @@ static inline pud_t *pud_offset(pgd_t *pgd, unsigned long address)
+ static inline int pgd_bad(pgd_t pgd)
+ {
+-      return (pgd_flags(pgd) & ~_PAGE_USER) != _KERNPG_TABLE;
++      return (pgd_flags(pgd) & ~(_PAGE_USER | _PAGE_NX)) != _KERNPG_TABLE;
+ }
+ static inline int pgd_none(pgd_t pgd)
+@@ -495,7 +564,12 @@ static inline int pgd_none(pgd_t pgd)
+  * pgd_offset() returns a (pgd_t *)
+  * pgd_index() is used get the offset into the pgd page's array of pgd_t's;
+  */
+-#define pgd_offset(mm, address) ((mm)->pgd + pgd_index((address)))
++#define pgd_offset(mm, address) ((mm)->pgd + pgd_index(address))
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++#define pgd_offset_cpu(cpu, address) (get_cpu_pgd(cpu) + pgd_index(address))
++#endif
++
+ /*
+  * a shortcut which implies the use of the kernel's pgd, instead
+  * of a process's
+@@ -506,6 +580,20 @@ static inline int pgd_none(pgd_t pgd)
+ #define KERNEL_PGD_BOUNDARY   pgd_index(PAGE_OFFSET)
+ #define KERNEL_PGD_PTRS               (PTRS_PER_PGD - KERNEL_PGD_BOUNDARY)
++#ifdef CONFIG_X86_32
++#define USER_PGD_PTRS         KERNEL_PGD_BOUNDARY
++#else
++#define TASK_SIZE_MAX_SHIFT CONFIG_TASK_SIZE_MAX_SHIFT
++#define USER_PGD_PTRS         (_AC(1,UL) << (TASK_SIZE_MAX_SHIFT - PGDIR_SHIFT))
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++#define PAX_USER_SHADOW_BASE  (_AC(1,UL) << TASK_SIZE_MAX_SHIFT)
++#else
++#define PAX_USER_SHADOW_BASE  (_AC(0,UL))
++#endif
++
++#endif
++
+ #ifndef __ASSEMBLY__
+ extern int direct_gbpages;
+@@ -611,11 +699,23 @@ static inline void ptep_set_wrprotect(struct mm_struct *mm,
+  * dst and src can be on the same page, but the range must not overlap,
+  * and must not cross a page boundary.
+  */
+-static inline void clone_pgd_range(pgd_t *dst, pgd_t *src, int count)
++static inline void clone_pgd_range(pgd_t *dst, const pgd_t *src, int count)
+ {
+-       memcpy(dst, src, count * sizeof(pgd_t));
++      pax_open_kernel();
++      while (count--)
++              *dst++ = *src++;
++      pax_close_kernel();
+ }
++#ifdef CONFIG_PAX_PER_CPU_PGD
++extern void __clone_user_pgds(pgd_t *dst, const pgd_t *src, int count);
++#endif
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++extern void __shadow_user_pgds(pgd_t *dst, const pgd_t *src, int count);
++#else
++static inline void __shadow_user_pgds(pgd_t *dst, const pgd_t *src, int count) {}
++#endif
+ #include <asm-generic/pgtable.h>
+ #endif        /* __ASSEMBLY__ */
+diff --git a/arch/x86/include/asm/pgtable_32.h b/arch/x86/include/asm/pgtable_32.h
+index 750f1bf..971e839 100644
+--- a/arch/x86/include/asm/pgtable_32.h
++++ b/arch/x86/include/asm/pgtable_32.h
+@@ -26,9 +26,6 @@
+ struct mm_struct;
+ struct vm_area_struct;
+-extern pgd_t swapper_pg_dir[1024];
+-extern pgd_t trampoline_pg_dir[1024];
+-
+ static inline void pgtable_cache_init(void) { }
+ static inline void check_pgt_cache(void) { }
+ void paging_init(void);
+@@ -49,6 +46,12 @@ extern void set_pmd_pfn(unsigned long, unsigned long, pgprot_t);
+ # include <asm/pgtable-2level.h>
+ #endif
++extern pgd_t swapper_pg_dir[PTRS_PER_PGD];
++extern pgd_t trampoline_pg_dir[PTRS_PER_PGD];
++#ifdef CONFIG_X86_PAE
++extern pmd_t swapper_pm_dir[PTRS_PER_PGD][PTRS_PER_PMD];
++#endif
++
+ #if defined(CONFIG_HIGHPTE)
+ #define __KM_PTE                      \
+       (in_nmi() ? KM_NMI_PTE :        \
+@@ -73,7 +76,9 @@ extern void set_pmd_pfn(unsigned long, unsigned long, pgprot_t);
+ /* Clear a kernel PTE and flush it from the TLB */
+ #define kpte_clear_flush(ptep, vaddr)         \
+ do {                                          \
++      pax_open_kernel();                      \
+       pte_clear(&init_mm, (vaddr), (ptep));   \
++      pax_close_kernel();                     \
+       __flush_tlb_one((vaddr));               \
+ } while (0)
+@@ -85,6 +90,9 @@ do {                                         \
+ #endif /* !__ASSEMBLY__ */
++#define HAVE_ARCH_UNMAPPED_AREA
++#define HAVE_ARCH_UNMAPPED_AREA_TOPDOWN
++
+ /*
+  * kern_addr_valid() is (1) for FLATMEM and (0) for
+  * SPARSEMEM and DISCONTIGMEM
+diff --git a/arch/x86/include/asm/pgtable_32_types.h b/arch/x86/include/asm/pgtable_32_types.h
+index 5e67c15..12d5c47 100644
+--- a/arch/x86/include/asm/pgtable_32_types.h
++++ b/arch/x86/include/asm/pgtable_32_types.h
+@@ -8,7 +8,7 @@
+  */
+ #ifdef CONFIG_X86_PAE
+ # include <asm/pgtable-3level_types.h>
+-# define PMD_SIZE     (1UL << PMD_SHIFT)
++# define PMD_SIZE     (_AC(1, UL) << PMD_SHIFT)
+ # define PMD_MASK     (~(PMD_SIZE - 1))
+ #else
+ # include <asm/pgtable-2level_types.h>
+@@ -46,6 +46,19 @@ extern bool __vmalloc_start_set; /* set once high_memory is set */
+ # define VMALLOC_END  (FIXADDR_START - 2 * PAGE_SIZE)
+ #endif
++#ifdef CONFIG_PAX_KERNEXEC
++#ifndef __ASSEMBLY__
++extern unsigned char MODULES_EXEC_VADDR[];
++extern unsigned char MODULES_EXEC_END[];
++#endif
++#include <asm/boot.h>
++#define ktla_ktva(addr)               (addr + LOAD_PHYSICAL_ADDR + PAGE_OFFSET)
++#define ktva_ktla(addr)               (addr - LOAD_PHYSICAL_ADDR - PAGE_OFFSET)
++#else
++#define ktla_ktva(addr)               (addr)
++#define ktva_ktla(addr)               (addr)
++#endif
++
+ #define MODULES_VADDR VMALLOC_START
+ #define MODULES_END   VMALLOC_END
+ #define MODULES_LEN   (MODULES_VADDR - MODULES_END)
+diff --git a/arch/x86/include/asm/pgtable_64.h b/arch/x86/include/asm/pgtable_64.h
+index c57a301..6b414ff 100644
+--- a/arch/x86/include/asm/pgtable_64.h
++++ b/arch/x86/include/asm/pgtable_64.h
+@@ -16,10 +16,14 @@
+ extern pud_t level3_kernel_pgt[512];
+ extern pud_t level3_ident_pgt[512];
++extern pud_t level3_vmalloc_start_pgt[512];
++extern pud_t level3_vmalloc_end_pgt[512];
++extern pud_t level3_vmemmap_pgt[512];
++extern pud_t level2_vmemmap_pgt[512];
+ extern pmd_t level2_kernel_pgt[512];
+ extern pmd_t level2_fixmap_pgt[512];
+-extern pmd_t level2_ident_pgt[512];
+-extern pgd_t init_level4_pgt[];
++extern pmd_t level2_ident_pgt[512*2];
++extern pgd_t init_level4_pgt[512];
+ #define swapper_pg_dir init_level4_pgt
+@@ -74,7 +78,9 @@ static inline pte_t native_ptep_get_and_clear(pte_t *xp)
+ static inline void native_set_pmd(pmd_t *pmdp, pmd_t pmd)
+ {
++      pax_open_kernel();
+       *pmdp = pmd;
++      pax_close_kernel();
+ }
+ static inline void native_pmd_clear(pmd_t *pmd)
+@@ -94,6 +100,13 @@ static inline void native_pud_clear(pud_t *pud)
+ static inline void native_set_pgd(pgd_t *pgdp, pgd_t pgd)
+ {
++      pax_open_kernel();
++      *pgdp = pgd;
++      pax_close_kernel();
++}
++
++static inline void native_set_pgd_batched(pgd_t *pgdp, pgd_t pgd)
++{
+       *pgdp = pgd;
+ }
+diff --git a/arch/x86/include/asm/pgtable_64_types.h b/arch/x86/include/asm/pgtable_64_types.h
+index 766ea16..5b96cb3 100644
+--- a/arch/x86/include/asm/pgtable_64_types.h
++++ b/arch/x86/include/asm/pgtable_64_types.h
+@@ -59,5 +59,10 @@ typedef struct { pteval_t pte; } pte_t;
+ #define MODULES_VADDR    _AC(0xffffffffa0000000, UL)
+ #define MODULES_END      _AC(0xffffffffff000000, UL)
+ #define MODULES_LEN   (MODULES_END - MODULES_VADDR)
++#define MODULES_EXEC_VADDR MODULES_VADDR
++#define MODULES_EXEC_END MODULES_END
++
++#define ktla_ktva(addr)               (addr)
++#define ktva_ktla(addr)               (addr)
+ #endif /* _ASM_X86_PGTABLE_64_DEFS_H */
+diff --git a/arch/x86/include/asm/pgtable_types.h b/arch/x86/include/asm/pgtable_types.h
+index d1f4a76..2f46ba1 100644
+--- a/arch/x86/include/asm/pgtable_types.h
++++ b/arch/x86/include/asm/pgtable_types.h
+@@ -16,12 +16,11 @@
+ #define _PAGE_BIT_PSE         7       /* 4 MB (or 2MB) page */
+ #define _PAGE_BIT_PAT         7       /* on 4KB pages */
+ #define _PAGE_BIT_GLOBAL      8       /* Global TLB entry PPro+ */
+-#define _PAGE_BIT_UNUSED1     9       /* available for programmer */
++#define _PAGE_BIT_SPECIAL     9       /* special mappings, no associated struct page */
+ #define _PAGE_BIT_IOMAP               10      /* flag used to indicate IO mapping */
+ #define _PAGE_BIT_HIDDEN      11      /* hidden by kmemcheck */
+ #define _PAGE_BIT_PAT_LARGE   12      /* On 2MB or 1GB pages */
+-#define _PAGE_BIT_SPECIAL     _PAGE_BIT_UNUSED1
+-#define _PAGE_BIT_CPA_TEST    _PAGE_BIT_UNUSED1
++#define _PAGE_BIT_CPA_TEST    _PAGE_BIT_SPECIAL
+ #define _PAGE_BIT_NX           63       /* No execute: only valid after cpuid check */
+ /* If _PAGE_BIT_PRESENT is clear, we use these: */
+@@ -39,7 +38,6 @@
+ #define _PAGE_DIRTY   (_AT(pteval_t, 1) << _PAGE_BIT_DIRTY)
+ #define _PAGE_PSE     (_AT(pteval_t, 1) << _PAGE_BIT_PSE)
+ #define _PAGE_GLOBAL  (_AT(pteval_t, 1) << _PAGE_BIT_GLOBAL)
+-#define _PAGE_UNUSED1 (_AT(pteval_t, 1) << _PAGE_BIT_UNUSED1)
+ #define _PAGE_IOMAP   (_AT(pteval_t, 1) << _PAGE_BIT_IOMAP)
+ #define _PAGE_PAT     (_AT(pteval_t, 1) << _PAGE_BIT_PAT)
+ #define _PAGE_PAT_LARGE (_AT(pteval_t, 1) << _PAGE_BIT_PAT_LARGE)
+@@ -55,8 +53,10 @@
+ #if defined(CONFIG_X86_64) || defined(CONFIG_X86_PAE)
+ #define _PAGE_NX      (_AT(pteval_t, 1) << _PAGE_BIT_NX)
+-#else
++#elif defined(CONFIG_KMEMCHECK)
+ #define _PAGE_NX      (_AT(pteval_t, 0))
++#else
++#define _PAGE_NX      (_AT(pteval_t, 1) << _PAGE_BIT_HIDDEN)
+ #endif
+ #define _PAGE_FILE    (_AT(pteval_t, 1) << _PAGE_BIT_FILE)
+@@ -93,6 +93,9 @@
+ #define PAGE_READONLY_EXEC    __pgprot(_PAGE_PRESENT | _PAGE_USER |   \
+                                        _PAGE_ACCESSED)
++#define PAGE_READONLY_NOEXEC PAGE_READONLY
++#define PAGE_SHARED_NOEXEC PAGE_SHARED
++
+ #define __PAGE_KERNEL_EXEC                                            \
+       (_PAGE_PRESENT | _PAGE_RW | _PAGE_DIRTY | _PAGE_ACCESSED | _PAGE_GLOBAL)
+ #define __PAGE_KERNEL         (__PAGE_KERNEL_EXEC | _PAGE_NX)
+@@ -103,8 +106,8 @@
+ #define __PAGE_KERNEL_WC              (__PAGE_KERNEL | _PAGE_CACHE_WC)
+ #define __PAGE_KERNEL_NOCACHE         (__PAGE_KERNEL | _PAGE_PCD | _PAGE_PWT)
+ #define __PAGE_KERNEL_UC_MINUS                (__PAGE_KERNEL | _PAGE_PCD)
+-#define __PAGE_KERNEL_VSYSCALL                (__PAGE_KERNEL_RX | _PAGE_USER)
+-#define __PAGE_KERNEL_VSYSCALL_NOCACHE        (__PAGE_KERNEL_VSYSCALL | _PAGE_PCD | _PAGE_PWT)
++#define __PAGE_KERNEL_VSYSCALL                (__PAGE_KERNEL_RO | _PAGE_USER)
++#define __PAGE_KERNEL_VSYSCALL_NOCACHE        (__PAGE_KERNEL_RO | _PAGE_PCD | _PAGE_PWT | _PAGE_USER)
+ #define __PAGE_KERNEL_LARGE           (__PAGE_KERNEL | _PAGE_PSE)
+ #define __PAGE_KERNEL_LARGE_NOCACHE   (__PAGE_KERNEL | _PAGE_CACHE_UC | _PAGE_PSE)
+ #define __PAGE_KERNEL_LARGE_EXEC      (__PAGE_KERNEL_EXEC | _PAGE_PSE)
+@@ -163,8 +166,8 @@
+  * bits are combined, this will alow user to access the high address mapped
+  * VDSO in the presence of CONFIG_COMPAT_VDSO
+  */
+-#define PTE_IDENT_ATTR         0x003          /* PRESENT+RW */
+-#define PDE_IDENT_ATTR         0x067          /* PRESENT+RW+USER+DIRTY+ACCESSED */
++#define PTE_IDENT_ATTR         0x063          /* PRESENT+RW+DIRTY+ACCESSED */
++#define PDE_IDENT_ATTR         0x063          /* PRESENT+RW+DIRTY+ACCESSED */
+ #define PGD_IDENT_ATTR         0x001          /* PRESENT (no other attributes) */
+ #endif
+@@ -202,7 +205,17 @@ static inline pgdval_t pgd_flags(pgd_t pgd)
+ {
+       return native_pgd_val(pgd) & PTE_FLAGS_MASK;
+ }
++#endif
++#if PAGETABLE_LEVELS == 3
++#include <asm-generic/pgtable-nopud.h>
++#endif
++
++#if PAGETABLE_LEVELS == 2
++#include <asm-generic/pgtable-nopmd.h>
++#endif
++
++#ifndef __ASSEMBLY__
+ #if PAGETABLE_LEVELS > 3
+ typedef struct { pudval_t pud; } pud_t;
+@@ -216,8 +229,6 @@ static inline pudval_t native_pud_val(pud_t pud)
+       return pud.pud;
+ }
+ #else
+-#include <asm-generic/pgtable-nopud.h>
+-
+ static inline pudval_t native_pud_val(pud_t pud)
+ {
+       return native_pgd_val(pud.pgd);
+@@ -237,8 +248,6 @@ static inline pmdval_t native_pmd_val(pmd_t pmd)
+       return pmd.pmd;
+ }
+ #else
+-#include <asm-generic/pgtable-nopmd.h>
+-
+ static inline pmdval_t native_pmd_val(pmd_t pmd)
+ {
+       return native_pgd_val(pmd.pud.pgd);
+@@ -278,7 +287,16 @@ typedef struct page *pgtable_t;
+ extern pteval_t __supported_pte_mask;
+ extern void set_nx(void);
++
++#ifdef CONFIG_X86_32
++#ifdef CONFIG_X86_PAE
+ extern int nx_enabled;
++#else
++#define nx_enabled (0)
++#endif
++#else
++#define nx_enabled (1)
++#endif
+ #define pgprot_writecombine   pgprot_writecombine
+ extern pgprot_t pgprot_writecombine(pgprot_t prot);
+diff --git a/arch/x86/include/asm/processor.h b/arch/x86/include/asm/processor.h
+index fa04dea..5f823fc 100644
+--- a/arch/x86/include/asm/processor.h
++++ b/arch/x86/include/asm/processor.h
+@@ -272,7 +272,7 @@ struct tss_struct {
+ } ____cacheline_aligned;
+-DECLARE_PER_CPU_SHARED_ALIGNED(struct tss_struct, init_tss);
++extern struct tss_struct init_tss[NR_CPUS];
+ /*
+  * Save the original ist values for checking stack pointers during debugging
+@@ -911,11 +911,18 @@ static inline void spin_lock_prefetch(const void *x)
+  */
+ #define TASK_SIZE             PAGE_OFFSET
+ #define TASK_SIZE_MAX         TASK_SIZE
++
++#ifdef CONFIG_PAX_SEGMEXEC
++#define SEGMEXEC_TASK_SIZE    (TASK_SIZE / 2)
++#define STACK_TOP             ((current->mm->pax_flags & MF_PAX_SEGMEXEC)?SEGMEXEC_TASK_SIZE:TASK_SIZE)
++#else
+ #define STACK_TOP             TASK_SIZE
+-#define STACK_TOP_MAX         STACK_TOP
++#endif
++
++#define STACK_TOP_MAX         TASK_SIZE
+ #define INIT_THREAD  {                                                          \
+-      .sp0                    = sizeof(init_stack) + (long)&init_stack, \
++      .sp0                    = sizeof(init_stack) + (long)&init_stack - 8, \
+       .vm86_info              = NULL,                                   \
+       .sysenter_cs            = __KERNEL_CS,                            \
+       .io_bitmap_ptr          = NULL,                                   \
+@@ -929,7 +936,7 @@ static inline void spin_lock_prefetch(const void *x)
+  */
+ #define INIT_TSS  {                                                     \
+       .x86_tss = {                                                      \
+-              .sp0            = sizeof(init_stack) + (long)&init_stack, \
++              .sp0            = sizeof(init_stack) + (long)&init_stack - 8, \
+               .ss0            = __KERNEL_DS,                            \
+               .ss1            = __KERNEL_CS,                            \
+               .io_bitmap_base = INVALID_IO_BITMAP_OFFSET,               \
+@@ -940,11 +947,7 @@ static inline void spin_lock_prefetch(const void *x)
+ extern unsigned long thread_saved_pc(struct task_struct *tsk);
+ #define THREAD_SIZE_LONGS      (THREAD_SIZE/sizeof(unsigned long))
+-#define KSTK_TOP(info)                                                 \
+-({                                                                     \
+-       unsigned long *__ptr = (unsigned long *)(info);                 \
+-       (unsigned long)(&__ptr[THREAD_SIZE_LONGS]);                     \
+-})
++#define KSTK_TOP(info)         ((container_of(info, struct task_struct, tinfo))->thread.sp0)
+ /*
+  * The below -8 is to reserve 8 bytes on top of the ring0 stack.
+@@ -959,7 +962,7 @@ extern unsigned long thread_saved_pc(struct task_struct *tsk);
+ #define task_pt_regs(task)                                             \
+ ({                                                                     \
+        struct pt_regs *__regs__;                                       \
+-       __regs__ = (struct pt_regs *)(KSTK_TOP(task_stack_page(task))-8); \
++       __regs__ = (struct pt_regs *)((task)->thread.sp0);              \
+        __regs__ - 1;                                                   \
+ })
+@@ -969,13 +972,13 @@ extern unsigned long thread_saved_pc(struct task_struct *tsk);
+ /*
+  * User space process size. 47bits minus one guard page.
+  */
+-#define TASK_SIZE_MAX ((1UL << 47) - PAGE_SIZE)
++#define TASK_SIZE_MAX ((1UL << TASK_SIZE_MAX_SHIFT) - PAGE_SIZE)
+ /* This decides where the kernel will search for a free chunk of vm
+  * space during mmap's.
+  */
+ #define IA32_PAGE_OFFSET      ((current->personality & ADDR_LIMIT_3GB) ? \
+-                                      0xc0000000 : 0xFFFFe000)
++                                      0xc0000000 : 0xFFFFf000)
+ #define TASK_SIZE             (test_thread_flag(TIF_IA32) ? \
+                                       IA32_PAGE_OFFSET : TASK_SIZE_MAX)
+@@ -986,11 +989,11 @@ extern unsigned long thread_saved_pc(struct task_struct *tsk);
+ #define STACK_TOP_MAX         TASK_SIZE_MAX
+ #define INIT_THREAD  { \
+-      .sp0 = (unsigned long)&init_stack + sizeof(init_stack) \
++      .sp0 = (unsigned long)&init_stack + sizeof(init_stack) - 16 \
+ }
+ #define INIT_TSS  { \
+-      .x86_tss.sp0 = (unsigned long)&init_stack + sizeof(init_stack) \
++      .x86_tss.sp0 = (unsigned long)&init_stack + sizeof(init_stack) - 16 \
+ }
+ /*
+@@ -1012,6 +1015,10 @@ extern void start_thread(struct pt_regs *regs, unsigned long new_ip,
+  */
+ #define TASK_UNMAPPED_BASE    (PAGE_ALIGN(TASK_SIZE / 3))
++#ifdef CONFIG_PAX_SEGMEXEC
++#define SEGMEXEC_TASK_UNMAPPED_BASE   (PAGE_ALIGN(SEGMEXEC_TASK_SIZE / 3))
++#endif
++
+ #define KSTK_EIP(task)                (task_pt_regs(task)->ip)
+ /* Get/set a process' ability to use the timestamp counter instruction */
+diff --git a/arch/x86/include/asm/ptrace.h b/arch/x86/include/asm/ptrace.h
+index 0f0d908..f2e3da2 100644
+--- a/arch/x86/include/asm/ptrace.h
++++ b/arch/x86/include/asm/ptrace.h
+@@ -151,28 +151,29 @@ static inline unsigned long regs_return_value(struct pt_regs *regs)
+ }
+ /*
+- * user_mode_vm(regs) determines whether a register set came from user mode.
++ * user_mode(regs) determines whether a register set came from user mode.
+  * This is true if V8086 mode was enabled OR if the register set was from
+  * protected mode with RPL-3 CS value.  This tricky test checks that with
+  * one comparison.  Many places in the kernel can bypass this full check
+- * if they have already ruled out V8086 mode, so user_mode(regs) can be used.
++ * if they have already ruled out V8086 mode, so user_mode_novm(regs) can
++ * be used.
+  */
+-static inline int user_mode(struct pt_regs *regs)
++static inline int user_mode_novm(struct pt_regs *regs)
+ {
+ #ifdef CONFIG_X86_32
+       return (regs->cs & SEGMENT_RPL_MASK) == USER_RPL;
+ #else
+-      return !!(regs->cs & 3);
++      return !!(regs->cs & SEGMENT_RPL_MASK);
+ #endif
+ }
+-static inline int user_mode_vm(struct pt_regs *regs)
++static inline int user_mode(struct pt_regs *regs)
+ {
+ #ifdef CONFIG_X86_32
+       return ((regs->cs & SEGMENT_RPL_MASK) | (regs->flags & X86_VM_MASK)) >=
+               USER_RPL;
+ #else
+-      return user_mode(regs);
++      return user_mode_novm(regs);
+ #endif
+ }
+diff --git a/arch/x86/include/asm/reboot.h b/arch/x86/include/asm/reboot.h
+index 562d4fd..6e39df1 100644
+--- a/arch/x86/include/asm/reboot.h
++++ b/arch/x86/include/asm/reboot.h
+@@ -6,19 +6,19 @@
+ struct pt_regs;
+ struct machine_ops {
+-      void (*restart)(char *cmd);
+-      void (*halt)(void);
+-      void (*power_off)(void);
++      void (* __noreturn restart)(char *cmd);
++      void (* __noreturn halt)(void);
++      void (* __noreturn power_off)(void);
+       void (*shutdown)(void);
+       void (*crash_shutdown)(struct pt_regs *);
+-      void (*emergency_restart)(void);
+-};
++      void (* __noreturn emergency_restart)(void);
++} __no_const;
+ extern struct machine_ops machine_ops;
+ void native_machine_crash_shutdown(struct pt_regs *regs);
+ void native_machine_shutdown(void);
+-void machine_real_restart(const unsigned char *code, int length);
++void machine_real_restart(const unsigned char *code, unsigned int length) __noreturn;
+ typedef void (*nmi_shootdown_cb)(int, struct die_args*);
+ void nmi_shootdown_cpus(nmi_shootdown_cb callback);
+diff --git a/arch/x86/include/asm/rwsem.h b/arch/x86/include/asm/rwsem.h
+index 606ede1..dbfff37 100644
+--- a/arch/x86/include/asm/rwsem.h
++++ b/arch/x86/include/asm/rwsem.h
+@@ -118,6 +118,14 @@ static inline void __down_read(struct rw_semaphore *sem)
+ {
+       asm volatile("# beginning down_read\n\t"
+                    LOCK_PREFIX _ASM_INC "(%1)\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX _ASM_DEC "(%1)\n\t"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    /* adds 0x00000001, returns the old value */
+                    "  jns        1f\n"
+                    "  call call_rwsem_down_read_failed\n"
+@@ -139,6 +147,14 @@ static inline int __down_read_trylock(struct rw_semaphore *sem)
+                    "1:\n\t"
+                    "  mov          %1,%2\n\t"
+                    "  add          %3,%2\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "sub %3,%2\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    "  jle          2f\n\t"
+                    LOCK_PREFIX "  cmpxchg  %2,%0\n\t"
+                    "  jnz          1b\n\t"
+@@ -160,6 +176,14 @@ static inline void __down_write_nested(struct rw_semaphore *sem, int subclass)
+       tmp = RWSEM_ACTIVE_WRITE_BIAS;
+       asm volatile("# beginning down_write\n\t"
+                    LOCK_PREFIX "  xadd      %1,(%2)\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "mov %1,(%2)\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    /* subtract 0x0000ffff, returns the old value */
+                    "  test      %1,%1\n\t"
+                    /* was the count 0 before? */
+@@ -198,6 +222,14 @@ static inline void __up_read(struct rw_semaphore *sem)
+       rwsem_count_t tmp = -RWSEM_ACTIVE_READ_BIAS;
+       asm volatile("# beginning __up_read\n\t"
+                    LOCK_PREFIX "  xadd      %1,(%2)\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "mov %1,(%2)\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    /* subtracts 1, returns the old value */
+                    "  jns        1f\n\t"
+                    "  call call_rwsem_wake\n"
+@@ -216,6 +248,14 @@ static inline void __up_write(struct rw_semaphore *sem)
+       rwsem_count_t tmp;
+       asm volatile("# beginning __up_write\n\t"
+                    LOCK_PREFIX "  xadd      %1,(%2)\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "mov %1,(%2)\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    /* tries to transition
+                       0xffff0001 -> 0x00000000 */
+                    "  jz       1f\n"
+@@ -234,6 +274,14 @@ static inline void __downgrade_write(struct rw_semaphore *sem)
+ {
+       asm volatile("# beginning __downgrade_write\n\t"
+                    LOCK_PREFIX _ASM_ADD "%2,(%1)\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX _ASM_SUB "%2,(%1)\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    /*
+                     * transitions 0xZZZZ0001 -> 0xYYYY0001 (i386)
+                     *     0xZZZZZZZZ00000001 -> 0xYYYYYYYY00000001 (x86_64)
+@@ -253,7 +301,15 @@ static inline void __downgrade_write(struct rw_semaphore *sem)
+ static inline void rwsem_atomic_add(rwsem_count_t delta,
+                                   struct rw_semaphore *sem)
+ {
+-      asm volatile(LOCK_PREFIX _ASM_ADD "%1,%0"
++      asm volatile(LOCK_PREFIX _ASM_ADD "%1,%0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX _ASM_SUB "%1,%0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+m" (sem->count)
+                    : "er" (delta));
+ }
+@@ -266,7 +322,15 @@ static inline rwsem_count_t rwsem_atomic_update(rwsem_count_t delta,
+ {
+       rwsem_count_t tmp = delta;
+-      asm volatile(LOCK_PREFIX "xadd %0,%1"
++      asm volatile(LOCK_PREFIX "xadd %0,%1\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   "mov %0,%1\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+r" (tmp), "+m" (sem->count)
+                    : : "memory");
+diff --git a/arch/x86/include/asm/segment.h b/arch/x86/include/asm/segment.h
+index 14e0ed8..7f7dd5e 100644
+--- a/arch/x86/include/asm/segment.h
++++ b/arch/x86/include/asm/segment.h
+@@ -62,10 +62,15 @@
+  *  26 - ESPFIX small SS
+  *  27 - per-cpu                      [ offset to per-cpu data area ]
+  *  28 - stack_canary-20              [ for stack protector ]
+- *  29 - unused
+- *  30 - unused
++ *  29 - PCI BIOS CS
++ *  30 - PCI BIOS DS
+  *  31 - TSS for double fault handler
+  */
++#define GDT_ENTRY_KERNEXEC_EFI_CS     (1)
++#define GDT_ENTRY_KERNEXEC_EFI_DS     (2)
++#define __KERNEXEC_EFI_CS     (GDT_ENTRY_KERNEXEC_EFI_CS*8)
++#define __KERNEXEC_EFI_DS     (GDT_ENTRY_KERNEXEC_EFI_DS*8)
++
+ #define GDT_ENTRY_TLS_MIN     6
+ #define GDT_ENTRY_TLS_MAX     (GDT_ENTRY_TLS_MIN + GDT_ENTRY_TLS_ENTRIES - 1)
+@@ -77,6 +82,8 @@
+ #define GDT_ENTRY_KERNEL_CS           (GDT_ENTRY_KERNEL_BASE + 0)
++#define GDT_ENTRY_KERNEXEC_KERNEL_CS  (4)
++
+ #define GDT_ENTRY_KERNEL_DS           (GDT_ENTRY_KERNEL_BASE + 1)
+ #define GDT_ENTRY_TSS                 (GDT_ENTRY_KERNEL_BASE + 4)
+@@ -88,7 +95,7 @@
+ #define GDT_ENTRY_ESPFIX_SS           (GDT_ENTRY_KERNEL_BASE + 14)
+ #define __ESPFIX_SS (GDT_ENTRY_ESPFIX_SS * 8)
+-#define GDT_ENTRY_PERCPU                      (GDT_ENTRY_KERNEL_BASE + 15)
++#define GDT_ENTRY_PERCPU              (GDT_ENTRY_KERNEL_BASE + 15)
+ #ifdef CONFIG_SMP
+ #define __KERNEL_PERCPU (GDT_ENTRY_PERCPU * 8)
+ #else
+@@ -102,6 +109,12 @@
+ #define __KERNEL_STACK_CANARY         0
+ #endif
++#define GDT_ENTRY_PCIBIOS_CS          (GDT_ENTRY_KERNEL_BASE + 17)
++#define __PCIBIOS_CS (GDT_ENTRY_PCIBIOS_CS * 8)
++
++#define GDT_ENTRY_PCIBIOS_DS          (GDT_ENTRY_KERNEL_BASE + 18)
++#define __PCIBIOS_DS (GDT_ENTRY_PCIBIOS_DS * 8)
++
+ #define GDT_ENTRY_DOUBLEFAULT_TSS     31
+ /*
+@@ -139,7 +152,7 @@
+  */
+ /* Matches PNP_CS32 and PNP_CS16 (they must be consecutive) */
+-#define SEGMENT_IS_PNP_CODE(x)   (((x) & 0xf4) == GDT_ENTRY_PNPBIOS_BASE * 8)
++#define SEGMENT_IS_PNP_CODE(x)   (((x) & 0xFFFCU) == PNP_CS32 || ((x) & 0xFFFCU) == PNP_CS16)
+ #else
+@@ -163,6 +176,8 @@
+ #define __USER32_CS   (GDT_ENTRY_DEFAULT_USER32_CS * 8 + 3)
+ #define __USER32_DS   __USER_DS
++#define GDT_ENTRY_KERNEXEC_KERNEL_CS 7
++
+ #define GDT_ENTRY_TSS 8       /* needs two entries */
+ #define GDT_ENTRY_LDT 10 /* needs two entries */
+ #define GDT_ENTRY_TLS_MIN 12
+@@ -183,6 +198,7 @@
+ #endif
+ #define __KERNEL_CS   (GDT_ENTRY_KERNEL_CS * 8)
++#define __KERNEXEC_KERNEL_CS  (GDT_ENTRY_KERNEXEC_KERNEL_CS * 8)
+ #define __KERNEL_DS   (GDT_ENTRY_KERNEL_DS * 8)
+ #define __USER_DS     (GDT_ENTRY_DEFAULT_USER_DS* 8 + 3)
+ #define __USER_CS     (GDT_ENTRY_DEFAULT_USER_CS* 8 + 3)
+diff --git a/arch/x86/include/asm/smp.h b/arch/x86/include/asm/smp.h
+index 4c2f63c..5685db2 100644
+--- a/arch/x86/include/asm/smp.h
++++ b/arch/x86/include/asm/smp.h
+@@ -24,7 +24,7 @@ extern unsigned int num_processors;
+ DECLARE_PER_CPU(cpumask_var_t, cpu_sibling_map);
+ DECLARE_PER_CPU(cpumask_var_t, cpu_core_map);
+ DECLARE_PER_CPU(u16, cpu_llc_id);
+-DECLARE_PER_CPU(int, cpu_number);
++DECLARE_PER_CPU(unsigned int, cpu_number);
+ static inline struct cpumask *cpu_sibling_mask(int cpu)
+ {
+@@ -40,10 +40,7 @@ DECLARE_EARLY_PER_CPU(u16, x86_cpu_to_apicid);
+ DECLARE_EARLY_PER_CPU(u16, x86_bios_cpu_apicid);
+ /* Static state in head.S used to set up a CPU */
+-extern struct {
+-      void *sp;
+-      unsigned short ss;
+-} stack_start;
++extern unsigned long stack_start; /* Initial stack pointer address */
+ struct smp_ops {
+       void (*smp_prepare_boot_cpu)(void);
+@@ -60,7 +57,7 @@ struct smp_ops {
+       void (*send_call_func_ipi)(const struct cpumask *mask);
+       void (*send_call_func_single_ipi)(int cpu);
+-};
++} __no_const;
+ /* Globals due to paravirt */
+ extern void set_cpu_sibling_map(int cpu);
+@@ -175,14 +172,8 @@ extern unsigned disabled_cpus __cpuinitdata;
+ extern int safe_smp_processor_id(void);
+ #elif defined(CONFIG_X86_64_SMP)
+-#define raw_smp_processor_id() (percpu_read(cpu_number))
+-
+-#define stack_smp_processor_id()                                      \
+-({                                                            \
+-      struct thread_info *ti;                                         \
+-      __asm__("andq %%rsp,%0; ":"=r" (ti) : "0" (CURRENT_MASK));      \
+-      ti->cpu;                                                        \
+-})
++#define raw_smp_processor_id()                (percpu_read(cpu_number))
++#define stack_smp_processor_id()      raw_smp_processor_id()
+ #define safe_smp_processor_id()               smp_processor_id()
+ #endif
+diff --git a/arch/x86/include/asm/spinlock.h b/arch/x86/include/asm/spinlock.h
+index 4e77853..4359783 100644
+--- a/arch/x86/include/asm/spinlock.h
++++ b/arch/x86/include/asm/spinlock.h
+@@ -249,6 +249,14 @@ static inline int __raw_write_can_lock(raw_rwlock_t *lock)
+ static inline void __raw_read_lock(raw_rwlock_t *rw)
+ {
+       asm volatile(LOCK_PREFIX " subl $1,(%0)\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX " addl $1,(%0)\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    "jns 1f\n"
+                    "call __read_lock_failed\n\t"
+                    "1:\n"
+@@ -258,6 +266,14 @@ static inline void __raw_read_lock(raw_rwlock_t *rw)
+ static inline void __raw_write_lock(raw_rwlock_t *rw)
+ {
+       asm volatile(LOCK_PREFIX " subl %1,(%0)\n\t"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX " addl %1,(%0)\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    "jz 1f\n"
+                    "call __write_lock_failed\n\t"
+                    "1:\n"
+@@ -286,12 +302,29 @@ static inline int __raw_write_trylock(raw_rwlock_t *lock)
+ static inline void __raw_read_unlock(raw_rwlock_t *rw)
+ {
+-      asm volatile(LOCK_PREFIX "incl %0" :"+m" (rw->lock) : : "memory");
++      asm volatile(LOCK_PREFIX "incl %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "decl %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
++                   :"+m" (rw->lock) : : "memory");
+ }
+ static inline void __raw_write_unlock(raw_rwlock_t *rw)
+ {
+-      asm volatile(LOCK_PREFIX "addl %1, %0"
++      asm volatile(LOCK_PREFIX "addl %1, %0\n"
++
++#ifdef CONFIG_PAX_REFCOUNT
++                   "jno 0f\n"
++                   LOCK_PREFIX "subl %1, %0\n"
++                   "int $4\n0:\n"
++                   _ASM_EXTABLE(0b, 0b)
++#endif
++
+                    : "+m" (rw->lock) : "i" (RW_LOCK_BIAS) : "memory");
+ }
+diff --git a/arch/x86/include/asm/stackprotector.h b/arch/x86/include/asm/stackprotector.h
+index 1575177..cb23f52 100644
+--- a/arch/x86/include/asm/stackprotector.h
++++ b/arch/x86/include/asm/stackprotector.h
+@@ -48,7 +48,7 @@
+  * head_32 for boot CPU and setup_per_cpu_areas() for others.
+  */
+ #define GDT_STACK_CANARY_INIT                                         \
+-      [GDT_ENTRY_STACK_CANARY] = GDT_ENTRY_INIT(0x4090, 0, 0x18),
++      [GDT_ENTRY_STACK_CANARY] = GDT_ENTRY_INIT(0x4090, 0, 0x17),
+ /*
+  * Initialize the stackprotector canary value.
+@@ -113,7 +113,7 @@ static inline void setup_stack_canary_segment(int cpu)
+ static inline void load_stack_canary_segment(void)
+ {
+-#ifdef CONFIG_X86_32
++#if defined(CONFIG_X86_32) && !defined(CONFIG_PAX_MEMORY_UDEREF)
+       asm volatile ("mov %0, %%gs" : : "r" (0));
+ #endif
+ }
+diff --git a/arch/x86/include/asm/system.h b/arch/x86/include/asm/system.h
+index e0fbf29..858ef4a 100644
+--- a/arch/x86/include/asm/system.h
++++ b/arch/x86/include/asm/system.h
+@@ -132,7 +132,7 @@ do {                                                                       \
+            "thread_return:\n\t"                                         \
+            "movq "__percpu_arg([current_task])",%%rsi\n\t"              \
+            __switch_canary                                              \
+-           "movq %P[thread_info](%%rsi),%%r8\n\t"                       \
++           "movq "__percpu_arg([thread_info])",%%r8\n\t"                \
+            "movq %%rax,%%rdi\n\t"                                       \
+            "testl  %[_tif_fork],%P[ti_flags](%%r8)\n\t"         \
+            "jnz   ret_from_fork\n\t"                                    \
+@@ -143,7 +143,7 @@ do {                                                                       \
+              [threadrsp] "i" (offsetof(struct task_struct, thread.sp)), \
+              [ti_flags] "i" (offsetof(struct thread_info, flags)),      \
+              [_tif_fork] "i" (_TIF_FORK),                               \
+-             [thread_info] "i" (offsetof(struct task_struct, stack)),   \
++             [thread_info] "m" (per_cpu_var(current_tinfo)),            \
+              [current_task] "m" (per_cpu_var(current_task))             \
+              __switch_canary_iparam                                     \
+            : "memory", "cc" __EXTRA_CLOBBER)
+@@ -200,7 +200,7 @@ static inline unsigned long get_limit(unsigned long segment)
+ {
+       unsigned long __limit;
+       asm("lsll %1,%0" : "=r" (__limit) : "r" (segment));
+-      return __limit + 1;
++      return __limit;
+ }
+ static inline void native_clts(void)
+@@ -340,12 +340,12 @@ void enable_hlt(void);
+ void cpu_idle_wait(void);
+-extern unsigned long arch_align_stack(unsigned long sp);
++#define arch_align_stack(x) ((x) & ~0xfUL)
+ extern void free_init_pages(char *what, unsigned long begin, unsigned long end);
+ void default_idle(void);
+-void stop_this_cpu(void *dummy);
++void stop_this_cpu(void *dummy) __noreturn;
+ /*
+  * Force strict CPU ordering.
+diff --git a/arch/x86/include/asm/thread_info.h b/arch/x86/include/asm/thread_info.h
+index 19c3ce4..8962535 100644
+--- a/arch/x86/include/asm/thread_info.h
++++ b/arch/x86/include/asm/thread_info.h
+@@ -10,6 +10,7 @@
+ #include <linux/compiler.h>
+ #include <asm/page.h>
+ #include <asm/types.h>
++#include <asm/percpu.h>
+ /*
+  * low level task data that entry.S needs immediate access to
+@@ -24,7 +25,6 @@ struct exec_domain;
+ #include <asm/atomic.h>
+ struct thread_info {
+-      struct task_struct      *task;          /* main task structure */
+       struct exec_domain      *exec_domain;   /* execution domain */
+       __u32                   flags;          /* low level flags */
+       __u32                   status;         /* thread synchronous flags */
+@@ -34,18 +34,12 @@ struct thread_info {
+       mm_segment_t            addr_limit;
+       struct restart_block    restart_block;
+       void __user             *sysenter_return;
+-#ifdef CONFIG_X86_32
+-      unsigned long           previous_esp;   /* ESP of the previous stack in
+-                                                 case of nested (IRQ) stacks
+-                                              */
+-      __u8                    supervisor_stack[0];
+-#endif
++      unsigned long           lowest_stack;
+       int                     uaccess_err;
+ };
+-#define INIT_THREAD_INFO(tsk)                 \
++#define INIT_THREAD_INFO                      \
+ {                                             \
+-      .task           = &tsk,                 \
+       .exec_domain    = &default_exec_domain, \
+       .flags          = 0,                    \
+       .cpu            = 0,                    \
+@@ -56,7 +50,7 @@ struct thread_info {
+       },                                      \
+ }
+-#define init_thread_info      (init_thread_union.thread_info)
++#define init_thread_info      (init_thread_union.stack)
+ #define init_stack            (init_thread_union.stack)
+ #else /* !__ASSEMBLY__ */
+@@ -163,45 +157,40 @@ struct thread_info {
+ #define alloc_thread_info(tsk)                                                \
+       ((struct thread_info *)__get_free_pages(THREAD_FLAGS, THREAD_ORDER))
+-#ifdef CONFIG_X86_32
+-
+-#define STACK_WARN    (THREAD_SIZE/8)
+-/*
+- * macros/functions for gaining access to the thread information structure
+- *
+- * preempt_count needs to be 1 initially, until the scheduler is functional.
+- */
+-#ifndef __ASSEMBLY__
+-
+-
+-/* how to get the current stack pointer from C */
+-register unsigned long current_stack_pointer asm("esp") __used;
+-
+-/* how to get the thread information struct from C */
+-static inline struct thread_info *current_thread_info(void)
+-{
+-      return (struct thread_info *)
+-              (current_stack_pointer & ~(THREAD_SIZE - 1));
+-}
+-
+-#else /* !__ASSEMBLY__ */
+-
++#ifdef __ASSEMBLY__
+ /* how to get the thread information struct from ASM */
+ #define GET_THREAD_INFO(reg)   \
+-      movl $-THREAD_SIZE, reg; \
+-      andl %esp, reg
++      mov PER_CPU_VAR(current_tinfo), reg
+ /* use this one if reg already contains %esp */
+-#define GET_THREAD_INFO_WITH_ESP(reg) \
+-      andl $-THREAD_SIZE, reg
++#define GET_THREAD_INFO_WITH_ESP(reg) GET_THREAD_INFO(reg)
++#else
++/* how to get the thread information struct from C */
++DECLARE_PER_CPU(struct thread_info *, current_tinfo);
++
++static __always_inline struct thread_info *current_thread_info(void)
++{
++      return percpu_read_stable(current_tinfo);
++}
++#endif
++
++#ifdef CONFIG_X86_32
++
++#define STACK_WARN    (THREAD_SIZE/8)
++/*
++ * macros/functions for gaining access to the thread information structure
++ *
++ * preempt_count needs to be 1 initially, until the scheduler is functional.
++ */
++#ifndef __ASSEMBLY__
++
++/* how to get the current stack pointer from C */
++register unsigned long current_stack_pointer asm("esp") __used;
+ #endif
+ #else /* X86_32 */
+-#include <asm/percpu.h>
+-#define KERNEL_STACK_OFFSET (5*8)
+-
+ /*
+  * macros/functions for gaining access to the thread information structure
+  * preempt_count needs to be 1 initially, until the scheduler is functional.
+@@ -209,21 +198,8 @@ static inline struct thread_info *current_thread_info(void)
+ #ifndef __ASSEMBLY__
+ DECLARE_PER_CPU(unsigned long, kernel_stack);
+-static inline struct thread_info *current_thread_info(void)
+-{
+-      struct thread_info *ti;
+-      ti = (void *)(percpu_read_stable(kernel_stack) +
+-                    KERNEL_STACK_OFFSET - THREAD_SIZE);
+-      return ti;
+-}
+-
+-#else /* !__ASSEMBLY__ */
+-
+-/* how to get the thread information struct from ASM */
+-#define GET_THREAD_INFO(reg) \
+-      movq PER_CPU_VAR(kernel_stack),reg ; \
+-      subq $(THREAD_SIZE-KERNEL_STACK_OFFSET),reg
+-
++/* how to get the current stack pointer from C */
++register unsigned long current_stack_pointer asm("rsp") __used;
+ #endif
+ #endif /* !X86_32 */
+@@ -260,5 +236,16 @@ extern void arch_task_cache_init(void);
+ extern void free_thread_info(struct thread_info *ti);
+ extern int arch_dup_task_struct(struct task_struct *dst, struct task_struct *src);
+ #define arch_task_cache_init arch_task_cache_init
++
++#define __HAVE_THREAD_FUNCTIONS
++#define task_thread_info(task)        (&(task)->tinfo)
++#define task_stack_page(task) ((task)->stack)
++#define setup_thread_stack(p, org) do {} while (0)
++#define end_of_stack(p) ((unsigned long *)task_stack_page(p) + 1)
++
++#define __HAVE_ARCH_TASK_STRUCT_ALLOCATOR
++extern struct task_struct *alloc_task_struct(void);
++extern void free_task_struct(struct task_struct *);
++
+ #endif
+ #endif /* _ASM_X86_THREAD_INFO_H */
+diff --git a/arch/x86/include/asm/uaccess.h b/arch/x86/include/asm/uaccess.h
+index 61c5874..8a046e9 100644
+--- a/arch/x86/include/asm/uaccess.h
++++ b/arch/x86/include/asm/uaccess.h
+@@ -8,12 +8,15 @@
+ #include <linux/thread_info.h>
+ #include <linux/prefetch.h>
+ #include <linux/string.h>
++#include <linux/sched.h>
+ #include <asm/asm.h>
+ #include <asm/page.h>
+ #define VERIFY_READ 0
+ #define VERIFY_WRITE 1
++extern void check_object_size(const void *ptr, unsigned long n, bool to);
++
+ /*
+  * The fs value determines whether argument validity checking should be
+  * performed or not.  If get_fs() == USER_DS, checking is performed, with
+@@ -29,7 +32,12 @@
+ #define get_ds()      (KERNEL_DS)
+ #define get_fs()      (current_thread_info()->addr_limit)
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_MEMORY_UDEREF)
++void __set_fs(mm_segment_t x);
++void set_fs(mm_segment_t x);
++#else
+ #define set_fs(x)     (current_thread_info()->addr_limit = (x))
++#endif
+ #define segment_eq(a, b)      ((a).seg == (b).seg)
+@@ -77,7 +85,33 @@
+  * checks that the pointer is in the user space range - after calling
+  * this function, memory access functions may still return -EFAULT.
+  */
+-#define access_ok(type, addr, size) (likely(__range_not_ok(addr, size) == 0))
++#define __access_ok(type, addr, size) (likely(__range_not_ok(addr, size) == 0))
++#define access_ok(type, addr, size)                                   \
++({                                                                    \
++      long __size = size;                                             \
++      unsigned long __addr = (unsigned long)addr;                     \
++      unsigned long __addr_ao = __addr & PAGE_MASK;                   \
++      unsigned long __end_ao = __addr + __size - 1;                   \
++      bool __ret_ao = __range_not_ok(__addr, __size) == 0;            \
++      if (__ret_ao && unlikely((__end_ao ^ __addr_ao) & PAGE_MASK)) { \
++              while(__addr_ao <= __end_ao) {                          \
++                      char __c_ao;                                    \
++                      __addr_ao += PAGE_SIZE;                         \
++                      if (__size > PAGE_SIZE)                         \
++                              cond_resched();                         \
++                      if (__get_user(__c_ao, (char __user *)__addr))  \
++                              break;                                  \
++                      if (type != VERIFY_WRITE) {                     \
++                              __addr = __addr_ao;                     \
++                              continue;                               \
++                      }                                               \
++                      if (__put_user(__c_ao, (char __user *)__addr))  \
++                              break;                                  \
++                      __addr = __addr_ao;                             \
++              }                                                       \
++      }                                                               \
++      __ret_ao;                                                       \
++})
+ /*
+  * The exception table consists of pairs of addresses: the first is the
+@@ -183,12 +217,20 @@ extern int __get_user_bad(void);
+       asm volatile("call __put_user_" #size : "=a" (__ret_pu) \
+                    : "0" ((typeof(*(ptr)))(x)), "c" (ptr) : "ebx")
+-
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#define __copyuser_seg "gs;"
++#define __COPYUSER_SET_ES "pushl %%gs; popl %%es\n"
++#define __COPYUSER_RESTORE_ES "pushl %%ss; popl %%es\n"
++#else
++#define __copyuser_seg
++#define __COPYUSER_SET_ES
++#define __COPYUSER_RESTORE_ES
++#endif
+ #ifdef CONFIG_X86_32
+ #define __put_user_asm_u64(x, addr, err, errret)                      \
+-      asm volatile("1:        movl %%eax,0(%2)\n"                     \
+-                   "2:        movl %%edx,4(%2)\n"                     \
++      asm volatile("1:        "__copyuser_seg"movl %%eax,0(%2)\n"     \
++                   "2:        "__copyuser_seg"movl %%edx,4(%2)\n"     \
+                    "3:\n"                                             \
+                    ".section .fixup,\"ax\"\n"                         \
+                    "4:        movl %3,%0\n"                           \
+@@ -200,8 +242,8 @@ extern int __get_user_bad(void);
+                    : "A" (x), "r" (addr), "i" (errret), "0" (err))
+ #define __put_user_asm_ex_u64(x, addr)                                        \
+-      asm volatile("1:        movl %%eax,0(%1)\n"                     \
+-                   "2:        movl %%edx,4(%1)\n"                     \
++      asm volatile("1:        "__copyuser_seg"movl %%eax,0(%1)\n"     \
++                   "2:        "__copyuser_seg"movl %%edx,4(%1)\n"     \
+                    "3:\n"                                             \
+                    _ASM_EXTABLE(1b, 2b - 1b)                          \
+                    _ASM_EXTABLE(2b, 3b - 2b)                          \
+@@ -253,7 +295,7 @@ extern void __put_user_8(void);
+       __typeof__(*(ptr)) __pu_val;                            \
+       __chk_user_ptr(ptr);                                    \
+       might_fault();                                          \
+-      __pu_val = x;                                           \
++      __pu_val = (x);                                         \
+       switch (sizeof(*(ptr))) {                               \
+       case 1:                                                 \
+               __put_user_x(1, __pu_val, ptr, __ret_pu);       \
+@@ -374,7 +416,7 @@ do {                                                                       \
+ } while (0)
+ #define __get_user_asm(x, addr, err, itype, rtype, ltype, errret)     \
+-      asm volatile("1:        mov"itype" %2,%"rtype"1\n"              \
++      asm volatile("1:        "__copyuser_seg"mov"itype" %2,%"rtype"1\n"\
+                    "2:\n"                                             \
+                    ".section .fixup,\"ax\"\n"                         \
+                    "3:        mov %3,%0\n"                            \
+@@ -382,7 +424,7 @@ do {                                                                       \
+                    "  jmp 2b\n"                                       \
+                    ".previous\n"                                      \
+                    _ASM_EXTABLE(1b, 3b)                               \
+-                   : "=r" (err), ltype(x)                             \
++                   : "=r" (err), ltype (x)                            \
+                    : "m" (__m(addr)), "i" (errret), "0" (err))
+ #define __get_user_size_ex(x, ptr, size)                              \
+@@ -407,7 +449,7 @@ do {                                                                       \
+ } while (0)
+ #define __get_user_asm_ex(x, addr, itype, rtype, ltype)                       \
+-      asm volatile("1:        mov"itype" %1,%"rtype"0\n"              \
++      asm volatile("1:        "__copyuser_seg"mov"itype" %1,%"rtype"0\n"\
+                    "2:\n"                                             \
+                    _ASM_EXTABLE(1b, 2b - 1b)                          \
+                    : ltype(x) : "m" (__m(addr)))
+@@ -424,13 +466,24 @@ do {                                                                     \
+       int __gu_err;                                                   \
+       unsigned long __gu_val;                                         \
+       __get_user_size(__gu_val, (ptr), (size), __gu_err, -EFAULT);    \
+-      (x) = (__force __typeof__(*(ptr)))__gu_val;                     \
++      (x) = (__typeof__(*(ptr)))__gu_val;                             \
+       __gu_err;                                                       \
+ })
+ /* FIXME: this hack is definitely wrong -AK */
+ struct __large_struct { unsigned long buf[100]; };
+-#define __m(x) (*(struct __large_struct __user *)(x))
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#define ____m(x)                                      \
++({                                                    \
++      unsigned long ____x = (unsigned long)(x);       \
++      if (____x < PAX_USER_SHADOW_BASE)               \
++              ____x += PAX_USER_SHADOW_BASE;          \
++      (void __user *)____x;                           \
++})
++#else
++#define ____m(x) (x)
++#endif
++#define __m(x) (*(struct __large_struct __user *)____m(x))
+ /*
+  * Tell gcc we read from memory instead of writing: this is because
+@@ -438,7 +491,7 @@ struct __large_struct { unsigned long buf[100]; };
+  * aliasing issues.
+  */
+ #define __put_user_asm(x, addr, err, itype, rtype, ltype, errret)     \
+-      asm volatile("1:        mov"itype" %"rtype"1,%2\n"              \
++      asm volatile("1:        "__copyuser_seg"mov"itype" %"rtype"1,%2\n"\
+                    "2:\n"                                             \
+                    ".section .fixup,\"ax\"\n"                         \
+                    "3:        mov %3,%0\n"                            \
+@@ -446,10 +499,10 @@ struct __large_struct { unsigned long buf[100]; };
+                    ".previous\n"                                      \
+                    _ASM_EXTABLE(1b, 3b)                               \
+                    : "=r"(err)                                        \
+-                   : ltype(x), "m" (__m(addr)), "i" (errret), "0" (err))
++                   : ltype (x), "m" (__m(addr)), "i" (errret), "0" (err))
+ #define __put_user_asm_ex(x, addr, itype, rtype, ltype)                       \
+-      asm volatile("1:        mov"itype" %"rtype"0,%1\n"              \
++      asm volatile("1:        "__copyuser_seg"mov"itype" %"rtype"0,%1\n"\
+                    "2:\n"                                             \
+                    _ASM_EXTABLE(1b, 2b - 1b)                          \
+                    : : ltype(x), "m" (__m(addr)))
+@@ -488,8 +541,12 @@ struct __large_struct { unsigned long buf[100]; };
+  * On error, the variable @x is set to zero.
+  */
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#define __get_user(x, ptr)    get_user((x), (ptr))
++#else
+ #define __get_user(x, ptr)                                            \
+       __get_user_nocheck((x), (ptr), sizeof(*(ptr)))
++#endif
+ /**
+  * __put_user: - Write a simple value into user space, with less checking.
+@@ -511,8 +568,12 @@ struct __large_struct { unsigned long buf[100]; };
+  * Returns zero on success, or -EFAULT on error.
+  */
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#define __put_user(x, ptr)    put_user((x), (ptr))
++#else
+ #define __put_user(x, ptr)                                            \
+       __put_user_nocheck((__typeof__(*(ptr)))(x), (ptr), sizeof(*(ptr)))
++#endif
+ #define __get_user_unaligned __get_user
+ #define __put_user_unaligned __put_user
+@@ -530,7 +591,7 @@ struct __large_struct { unsigned long buf[100]; };
+ #define get_user_ex(x, ptr)   do {                                    \
+       unsigned long __gue_val;                                        \
+       __get_user_size_ex((__gue_val), (ptr), (sizeof(*(ptr))));       \
+-      (x) = (__force __typeof__(*(ptr)))__gue_val;                    \
++      (x) = (__typeof__(*(ptr)))__gue_val;                            \
+ } while (0)
+ #ifdef CONFIG_X86_WP_WORKS_OK
+@@ -567,6 +628,7 @@ extern struct movsl_mask {
+ #define ARCH_HAS_NOCACHE_UACCESS 1
++#define ARCH_HAS_SORT_EXTABLE
+ #ifdef CONFIG_X86_32
+ # include "uaccess_32.h"
+ #else
+diff --git a/arch/x86/include/asm/uaccess_32.h b/arch/x86/include/asm/uaccess_32.h
+index 632fb44..e30e334 100644
+--- a/arch/x86/include/asm/uaccess_32.h
++++ b/arch/x86/include/asm/uaccess_32.h
+@@ -44,6 +44,11 @@ unsigned long __must_check __copy_from_user_ll_nocache_nozero
+ static __always_inline unsigned long __must_check
+ __copy_to_user_inatomic(void __user *to, const void *from, unsigned long n)
+ {
++      pax_track_stack();
++
++      if ((long)n < 0)
++              return n;
++
+       if (__builtin_constant_p(n)) {
+               unsigned long ret;
+@@ -62,6 +67,8 @@ __copy_to_user_inatomic(void __user *to, const void *from, unsigned long n)
+                       return ret;
+               }
+       }
++      if (!__builtin_constant_p(n))
++              check_object_size(from, n, true);
+       return __copy_to_user_ll(to, from, n);
+ }
+@@ -83,12 +90,16 @@ static __always_inline unsigned long __must_check
+ __copy_to_user(void __user *to, const void *from, unsigned long n)
+ {
+       might_fault();
++
+       return __copy_to_user_inatomic(to, from, n);
+ }
+ static __always_inline unsigned long
+ __copy_from_user_inatomic(void *to, const void __user *from, unsigned long n)
+ {
++      if ((long)n < 0)
++              return n;
++
+       /* Avoid zeroing the tail if the copy fails..
+        * If 'n' is constant and 1, 2, or 4, we do still zero on a failure,
+        * but as the zeroing behaviour is only significant when n is not
+@@ -138,6 +149,12 @@ static __always_inline unsigned long
+ __copy_from_user(void *to, const void __user *from, unsigned long n)
+ {
+       might_fault();
++
++      pax_track_stack();
++
++      if ((long)n < 0)
++              return n;
++
+       if (__builtin_constant_p(n)) {
+               unsigned long ret;
+@@ -153,6 +170,8 @@ __copy_from_user(void *to, const void __user *from, unsigned long n)
+                       return ret;
+               }
+       }
++      if (!__builtin_constant_p(n))
++              check_object_size(to, n, false);
+       return __copy_from_user_ll(to, from, n);
+ }
+@@ -160,6 +179,10 @@ static __always_inline unsigned long __copy_from_user_nocache(void *to,
+                               const void __user *from, unsigned long n)
+ {
+       might_fault();
++
++      if ((long)n < 0)
++              return n;
++
+       if (__builtin_constant_p(n)) {
+               unsigned long ret;
+@@ -182,14 +205,62 @@ static __always_inline unsigned long
+ __copy_from_user_inatomic_nocache(void *to, const void __user *from,
+                                 unsigned long n)
+ {
+-       return __copy_from_user_ll_nocache_nozero(to, from, n);
++      if ((long)n < 0)
++              return n;
++
++      return __copy_from_user_ll_nocache_nozero(to, from, n);
++}
++
++/**
++ * copy_to_user: - Copy a block of data into user space.
++ * @to:   Destination address, in user space.
++ * @from: Source address, in kernel space.
++ * @n:    Number of bytes to copy.
++ *
++ * Context: User context only.  This function may sleep.
++ *
++ * Copy data from kernel space to user space.
++ *
++ * Returns number of bytes that could not be copied.
++ * On success, this will be zero.
++ */
++static __always_inline unsigned long __must_check
++copy_to_user(void __user *to, const void *from, unsigned long n)
++{
++      if (access_ok(VERIFY_WRITE, to, n))
++              n = __copy_to_user(to, from, n);
++      return n;
++}
++
++/**
++ * copy_from_user: - Copy a block of data from user space.
++ * @to:   Destination address, in kernel space.
++ * @from: Source address, in user space.
++ * @n:    Number of bytes to copy.
++ *
++ * Context: User context only.  This function may sleep.
++ *
++ * Copy data from user space to kernel space.
++ *
++ * Returns number of bytes that could not be copied.
++ * On success, this will be zero.
++ *
++ * If some data could not be copied, this function will pad the copied
++ * data to the requested size using zero bytes.
++ */
++static __always_inline unsigned long __must_check
++copy_from_user(void *to, const void __user *from, unsigned long n)
++{
++      if (access_ok(VERIFY_READ, from, n))
++              n = __copy_from_user(to, from, n);
++      else if ((long)n > 0) {
++              if (!__builtin_constant_p(n))
++                      check_object_size(to, n, false);
++              memset(to, 0, n);
++      }
++      return n;
+ }
+-unsigned long __must_check copy_to_user(void __user *to,
+-                                      const void *from, unsigned long n);
+-unsigned long __must_check copy_from_user(void *to,
+-                                        const void __user *from,
+-                                        unsigned long n);
+ long __must_check strncpy_from_user(char *dst, const char __user *src,
+                                   long count);
+ long __must_check __strncpy_from_user(char *dst,
+diff --git a/arch/x86/include/asm/uaccess_64.h b/arch/x86/include/asm/uaccess_64.h
+index db24b21..f595ae7 100644
+--- a/arch/x86/include/asm/uaccess_64.h
++++ b/arch/x86/include/asm/uaccess_64.h
+@@ -9,6 +9,9 @@
+ #include <linux/prefetch.h>
+ #include <linux/lockdep.h>
+ #include <asm/page.h>
++#include <asm/pgtable.h>
++
++#define set_fs(x)     (current_thread_info()->addr_limit = (x))
+ /*
+  * Copy To/From Userspace
+@@ -16,116 +19,205 @@
+ /* Handles exceptions in both to and from, but doesn't do access_ok */
+ __must_check unsigned long
+-copy_user_generic(void *to, const void *from, unsigned len);
++copy_user_generic(void *to, const void *from, unsigned long len);
+ __must_check unsigned long
+-copy_to_user(void __user *to, const void *from, unsigned len);
+-__must_check unsigned long
+-copy_from_user(void *to, const void __user *from, unsigned len);
+-__must_check unsigned long
+-copy_in_user(void __user *to, const void __user *from, unsigned len);
++copy_in_user(void __user *to, const void __user *from, unsigned long len);
+ static __always_inline __must_check
+-int __copy_from_user(void *dst, const void __user *src, unsigned size)
++unsigned long __copy_from_user(void *dst, const void __user *src, unsigned long size)
+ {
+-      int ret = 0;
++      unsigned ret = 0;
+       might_fault();
+-      if (!__builtin_constant_p(size))
+-              return copy_user_generic(dst, (__force void *)src, size);
++
++      if (size > INT_MAX)
++              return size;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if (!__access_ok(VERIFY_READ, src, size))
++              return size;
++#endif
++
++      if (!__builtin_constant_p(size)) {
++              check_object_size(dst, size, false);
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              if ((unsigned long)src < PAX_USER_SHADOW_BASE)
++                      src += PAX_USER_SHADOW_BASE;
++#endif
++
++              return copy_user_generic(dst, (__force_kernel const void *)src, size);
++      }
+       switch (size) {
+-      case 1:__get_user_asm(*(u8 *)dst, (u8 __user *)src,
++      case 1:__get_user_asm(*(u8 *)dst, (const u8 __user *)src,
+                             ret, "b", "b", "=q", 1);
+               return ret;
+-      case 2:__get_user_asm(*(u16 *)dst, (u16 __user *)src,
++      case 2:__get_user_asm(*(u16 *)dst, (const u16 __user *)src,
+                             ret, "w", "w", "=r", 2);
+               return ret;
+-      case 4:__get_user_asm(*(u32 *)dst, (u32 __user *)src,
++      case 4:__get_user_asm(*(u32 *)dst, (const u32 __user *)src,
+                             ret, "l", "k", "=r", 4);
+               return ret;
+-      case 8:__get_user_asm(*(u64 *)dst, (u64 __user *)src,
++      case 8:__get_user_asm(*(u64 *)dst, (const u64 __user *)src,
+                             ret, "q", "", "=r", 8);
+               return ret;
+       case 10:
+-              __get_user_asm(*(u64 *)dst, (u64 __user *)src,
++              __get_user_asm(*(u64 *)dst, (const u64 __user *)src,
+                              ret, "q", "", "=r", 10);
+               if (unlikely(ret))
+                       return ret;
+               __get_user_asm(*(u16 *)(8 + (char *)dst),
+-                             (u16 __user *)(8 + (char __user *)src),
++                             (const u16 __user *)(8 + (const char __user *)src),
+                              ret, "w", "w", "=r", 2);
+               return ret;
+       case 16:
+-              __get_user_asm(*(u64 *)dst, (u64 __user *)src,
++              __get_user_asm(*(u64 *)dst, (const u64 __user *)src,
+                              ret, "q", "", "=r", 16);
+               if (unlikely(ret))
+                       return ret;
+               __get_user_asm(*(u64 *)(8 + (char *)dst),
+-                             (u64 __user *)(8 + (char __user *)src),
++                             (const u64 __user *)(8 + (const char __user *)src),
+                              ret, "q", "", "=r", 8);
+               return ret;
+       default:
+-              return copy_user_generic(dst, (__force void *)src, size);
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              if ((unsigned long)src < PAX_USER_SHADOW_BASE)
++                      src += PAX_USER_SHADOW_BASE;
++#endif
++
++              return copy_user_generic(dst, (__force_kernel const void *)src, size);
+       }
+ }
+ static __always_inline __must_check
+-int __copy_to_user(void __user *dst, const void *src, unsigned size)
++unsigned long __copy_to_user(void __user *dst, const void *src, unsigned long size)
+ {
+-      int ret = 0;
++      unsigned ret = 0;
+       might_fault();
+-      if (!__builtin_constant_p(size))
+-              return copy_user_generic((__force void *)dst, src, size);
++
++      pax_track_stack();
++
++      if (size > INT_MAX)
++              return size;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if (!__access_ok(VERIFY_WRITE, dst, size))
++              return size;
++#endif
++
++      if (!__builtin_constant_p(size)) {
++              check_object_size(src, size, true);
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              if ((unsigned long)dst < PAX_USER_SHADOW_BASE)
++                      dst += PAX_USER_SHADOW_BASE;
++#endif
++
++              return copy_user_generic((__force_kernel void *)dst, src, size);
++      }
+       switch (size) {
+-      case 1:__put_user_asm(*(u8 *)src, (u8 __user *)dst,
++      case 1:__put_user_asm(*(const u8 *)src, (u8 __user *)dst,
+                             ret, "b", "b", "iq", 1);
+               return ret;
+-      case 2:__put_user_asm(*(u16 *)src, (u16 __user *)dst,
++      case 2:__put_user_asm(*(const u16 *)src, (u16 __user *)dst,
+                             ret, "w", "w", "ir", 2);
+               return ret;
+-      case 4:__put_user_asm(*(u32 *)src, (u32 __user *)dst,
++      case 4:__put_user_asm(*(const u32 *)src, (u32 __user *)dst,
+                             ret, "l", "k", "ir", 4);
+               return ret;
+-      case 8:__put_user_asm(*(u64 *)src, (u64 __user *)dst,
++      case 8:__put_user_asm(*(const u64 *)src, (u64 __user *)dst,
+                             ret, "q", "", "er", 8);
+               return ret;
+       case 10:
+-              __put_user_asm(*(u64 *)src, (u64 __user *)dst,
++              __put_user_asm(*(const u64 *)src, (u64 __user *)dst,
+                              ret, "q", "", "er", 10);
+               if (unlikely(ret))
+                       return ret;
+               asm("":::"memory");
+-              __put_user_asm(4[(u16 *)src], 4 + (u16 __user *)dst,
++              __put_user_asm(4[(const u16 *)src], 4 + (u16 __user *)dst,
+                              ret, "w", "w", "ir", 2);
+               return ret;
+       case 16:
+-              __put_user_asm(*(u64 *)src, (u64 __user *)dst,
++              __put_user_asm(*(const u64 *)src, (u64 __user *)dst,
+                              ret, "q", "", "er", 16);
+               if (unlikely(ret))
+                       return ret;
+               asm("":::"memory");
+-              __put_user_asm(1[(u64 *)src], 1 + (u64 __user *)dst,
++              __put_user_asm(1[(const u64 *)src], 1 + (u64 __user *)dst,
+                              ret, "q", "", "er", 8);
+               return ret;
+       default:
+-              return copy_user_generic((__force void *)dst, src, size);
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              if ((unsigned long)dst < PAX_USER_SHADOW_BASE)
++                      dst += PAX_USER_SHADOW_BASE;
++#endif
++
++              return copy_user_generic((__force_kernel void *)dst, src, size);
++      }
++}
++
++static __always_inline __must_check
++unsigned long copy_to_user(void __user *to, const void *from, unsigned long len)
++{
++      if (access_ok(VERIFY_WRITE, to, len))
++              len = __copy_to_user(to, from, len);
++      return len;
++}
++
++static __always_inline __must_check
++unsigned long copy_from_user(void *to, const void __user *from, unsigned long len)
++{
++      might_fault();
++
++      if (access_ok(VERIFY_READ, from, len))
++              len = __copy_from_user(to, from, len);
++      else if (len < INT_MAX) {
++              if (!__builtin_constant_p(len))
++                      check_object_size(to, len, false);
++              memset(to, 0, len);
+       }
++      return len;
+ }
+ static __always_inline __must_check
+-int __copy_in_user(void __user *dst, const void __user *src, unsigned size)
++unsigned long __copy_in_user(void __user *dst, const void __user *src, unsigned long size)
+ {
+-      int ret = 0;
++      unsigned ret = 0;
+       might_fault();
+-      if (!__builtin_constant_p(size))
+-              return copy_user_generic((__force void *)dst,
+-                                       (__force void *)src, size);
++
++      pax_track_stack();
++
++      if (size > INT_MAX)
++              return size;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if (!__access_ok(VERIFY_READ, src, size))
++              return size;
++      if (!__access_ok(VERIFY_WRITE, dst, size))
++              return size;
++#endif
++
++      if (!__builtin_constant_p(size)) {
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              if ((unsigned long)src < PAX_USER_SHADOW_BASE)
++                      src += PAX_USER_SHADOW_BASE;
++              if ((unsigned long)dst < PAX_USER_SHADOW_BASE)
++                      dst += PAX_USER_SHADOW_BASE;
++#endif
++
++              return copy_user_generic((__force_kernel void *)dst,
++                                       (__force_kernel const void *)src, size);
++      }
+       switch (size) {
+       case 1: {
+               u8 tmp;
+-              __get_user_asm(tmp, (u8 __user *)src,
++              __get_user_asm(tmp, (const u8 __user *)src,
+                              ret, "b", "b", "=q", 1);
+               if (likely(!ret))
+                       __put_user_asm(tmp, (u8 __user *)dst,
+@@ -134,7 +226,7 @@ int __copy_in_user(void __user *dst, const void __user *src, unsigned size)
+       }
+       case 2: {
+               u16 tmp;
+-              __get_user_asm(tmp, (u16 __user *)src,
++              __get_user_asm(tmp, (const u16 __user *)src,
+                              ret, "w", "w", "=r", 2);
+               if (likely(!ret))
+                       __put_user_asm(tmp, (u16 __user *)dst,
+@@ -144,7 +236,7 @@ int __copy_in_user(void __user *dst, const void __user *src, unsigned size)
+       case 4: {
+               u32 tmp;
+-              __get_user_asm(tmp, (u32 __user *)src,
++              __get_user_asm(tmp, (const u32 __user *)src,
+                              ret, "l", "k", "=r", 4);
+               if (likely(!ret))
+                       __put_user_asm(tmp, (u32 __user *)dst,
+@@ -153,7 +245,7 @@ int __copy_in_user(void __user *dst, const void __user *src, unsigned size)
+       }
+       case 8: {
+               u64 tmp;
+-              __get_user_asm(tmp, (u64 __user *)src,
++              __get_user_asm(tmp, (const u64 __user *)src,
+                              ret, "q", "", "=r", 8);
+               if (likely(!ret))
+                       __put_user_asm(tmp, (u64 __user *)dst,
+@@ -161,8 +253,16 @@ int __copy_in_user(void __user *dst, const void __user *src, unsigned size)
+               return ret;
+       }
+       default:
+-              return copy_user_generic((__force void *)dst,
+-                                       (__force void *)src, size);
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              if ((unsigned long)src < PAX_USER_SHADOW_BASE)
++                      src += PAX_USER_SHADOW_BASE;
++              if ((unsigned long)dst < PAX_USER_SHADOW_BASE)
++                      dst += PAX_USER_SHADOW_BASE;
++#endif
++
++              return copy_user_generic((__force_kernel void *)dst,
++                                       (__force_kernel const void *)src, size);
+       }
+ }
+@@ -176,33 +276,75 @@ __must_check long strlen_user(const char __user *str);
+ __must_check unsigned long clear_user(void __user *mem, unsigned long len);
+ __must_check unsigned long __clear_user(void __user *mem, unsigned long len);
+-__must_check long __copy_from_user_inatomic(void *dst, const void __user *src,
+-                                          unsigned size);
++static __must_check __always_inline unsigned long
++__copy_from_user_inatomic(void *dst, const void __user *src, unsigned long size)
++{
++      pax_track_stack();
++
++      if (size > INT_MAX)
++              return size;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if (!__access_ok(VERIFY_READ, src, size))
++              return size;
+-static __must_check __always_inline int
+-__copy_to_user_inatomic(void __user *dst, const void *src, unsigned size)
++      if ((unsigned long)src < PAX_USER_SHADOW_BASE)
++              src += PAX_USER_SHADOW_BASE;
++#endif
++
++      return copy_user_generic(dst, (__force_kernel const void *)src, size);
++}
++
++static __must_check __always_inline unsigned long
++__copy_to_user_inatomic(void __user *dst, const void *src, unsigned long size)
+ {
+-      return copy_user_generic((__force void *)dst, src, size);
++      if (size > INT_MAX)
++              return size;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if (!__access_ok(VERIFY_WRITE, dst, size))
++              return size;
++
++      if ((unsigned long)dst < PAX_USER_SHADOW_BASE)
++              dst += PAX_USER_SHADOW_BASE;
++#endif
++
++      return copy_user_generic((__force_kernel void *)dst, src, size);
+ }
+-extern long __copy_user_nocache(void *dst, const void __user *src,
+-                              unsigned size, int zerorest);
++extern unsigned long __copy_user_nocache(void *dst, const void __user *src,
++                              unsigned long size, int zerorest);
+-static inline int
+-__copy_from_user_nocache(void *dst, const void __user *src, unsigned size)
++static inline unsigned long __copy_from_user_nocache(void *dst, const void __user *src, unsigned long size)
+ {
+       might_sleep();
++
++      if (size > INT_MAX)
++              return size;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if (!__access_ok(VERIFY_READ, src, size))
++              return size;
++#endif
++
+       return __copy_user_nocache(dst, src, size, 1);
+ }
+-static inline int
+-__copy_from_user_inatomic_nocache(void *dst, const void __user *src,
+-                                unsigned size)
++static inline unsigned long __copy_from_user_inatomic_nocache(void *dst, const void __user *src,
++                                unsigned long size)
+ {
++      if (size > INT_MAX)
++              return size;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if (!__access_ok(VERIFY_READ, src, size))
++              return size;
++#endif
++
+       return __copy_user_nocache(dst, src, size, 0);
+ }
+-unsigned long
+-copy_user_handle_tail(char *to, char *from, unsigned len, unsigned zerorest);
++extern unsigned long
++copy_user_handle_tail(char __user *to, char __user *from, unsigned long len, unsigned zerorest);
+ #endif /* _ASM_X86_UACCESS_64_H */
+diff --git a/arch/x86/include/asm/vdso.h b/arch/x86/include/asm/vdso.h
+index 9064052..786cfbc 100644
+--- a/arch/x86/include/asm/vdso.h
++++ b/arch/x86/include/asm/vdso.h
+@@ -25,7 +25,7 @@ extern const char VDSO32_PRELINK[];
+ #define VDSO32_SYMBOL(base, name)                                     \
+ ({                                                                    \
+       extern const char VDSO32_##name[];                              \
+-      (void *)(VDSO32_##name - VDSO32_PRELINK + (unsigned long)(base)); \
++      (void __user *)(VDSO32_##name - VDSO32_PRELINK + (unsigned long)(base)); \
+ })
+ #endif
+diff --git a/arch/x86/include/asm/vgtod.h b/arch/x86/include/asm/vgtod.h
+index 3d61e20..9507180 100644
+--- a/arch/x86/include/asm/vgtod.h
++++ b/arch/x86/include/asm/vgtod.h
+@@ -14,6 +14,7 @@ struct vsyscall_gtod_data {
+       int             sysctl_enabled;
+       struct timezone sys_tz;
+       struct { /* extract of a clocksource struct */
++              char    name[8];
+               cycle_t (*vread)(void);
+               cycle_t cycle_last;
+               cycle_t mask;
+diff --git a/arch/x86/include/asm/vmi.h b/arch/x86/include/asm/vmi.h
+index 61e08c0..b0da582 100644
+--- a/arch/x86/include/asm/vmi.h
++++ b/arch/x86/include/asm/vmi.h
+@@ -191,6 +191,7 @@ struct vrom_header {
+       u8      reserved[96];   /* Reserved for headers */
+       char    vmi_init[8];    /* VMI_Init jump point */
+       char    get_reloc[8];   /* VMI_GetRelocationInfo jump point */
++      char    rom_data[8048]; /* rest of the option ROM */
+ } __attribute__((packed));
+ struct pnp_header {
+diff --git a/arch/x86/include/asm/vmi_time.h b/arch/x86/include/asm/vmi_time.h
+index c6e0bee..fcb9f74 100644
+--- a/arch/x86/include/asm/vmi_time.h
++++ b/arch/x86/include/asm/vmi_time.h
+@@ -43,7 +43,7 @@ extern struct vmi_timer_ops {
+       int (*wallclock_updated)(void);
+       void (*set_alarm)(u32 flags, u64 expiry, u64 period);
+       void (*cancel_alarm)(u32 flags);
+-} vmi_timer_ops;
++} __no_const vmi_timer_ops;
+ /* Prototypes */
+ extern void __init vmi_time_init(void);
+diff --git a/arch/x86/include/asm/vsyscall.h b/arch/x86/include/asm/vsyscall.h
+index d0983d2..1f7c9e9 100644
+--- a/arch/x86/include/asm/vsyscall.h
++++ b/arch/x86/include/asm/vsyscall.h
+@@ -15,9 +15,10 @@ enum vsyscall_num {
+ #ifdef __KERNEL__
+ #include <linux/seqlock.h>
++#include <linux/getcpu.h>
++#include <linux/time.h>
+ #define __section_vgetcpu_mode __attribute__ ((unused, __section__ (".vgetcpu_mode"), aligned(16)))
+-#define __section_jiffies __attribute__ ((unused, __section__ (".jiffies"), aligned(16)))
+ /* Definitions for CONFIG_GENERIC_TIME definitions */
+ #define __section_vsyscall_gtod_data __attribute__ \
+@@ -31,7 +32,6 @@ enum vsyscall_num {
+ #define VGETCPU_LSL   2
+ extern int __vgetcpu_mode;
+-extern volatile unsigned long __jiffies;
+ /* kernel space (writeable) */
+ extern int vgetcpu_mode;
+@@ -39,6 +39,9 @@ extern struct timezone sys_tz;
+ extern void map_vsyscall(void);
++extern int vgettimeofday(struct timeval * tv, struct timezone * tz);
++extern time_t vtime(time_t *t);
++extern long vgetcpu(unsigned *cpu, unsigned *node, struct getcpu_cache *tcache);
+ #endif /* __KERNEL__ */
+ #endif /* _ASM_X86_VSYSCALL_H */
+diff --git a/arch/x86/include/asm/x86_init.h b/arch/x86/include/asm/x86_init.h
+index 2c756fd..3377e37 100644
+--- a/arch/x86/include/asm/x86_init.h
++++ b/arch/x86/include/asm/x86_init.h
+@@ -28,7 +28,7 @@ struct x86_init_mpparse {
+       void (*mpc_oem_bus_info)(struct mpc_bus *m, char *name);
+       void (*find_smp_config)(unsigned int reserve);
+       void (*get_smp_config)(unsigned int early);
+-};
++} __no_const;
+ /**
+  * struct x86_init_resources - platform specific resource related ops
+@@ -42,7 +42,7 @@ struct x86_init_resources {
+       void (*probe_roms)(void);
+       void (*reserve_resources)(void);
+       char *(*memory_setup)(void);
+-};
++} __no_const;
+ /**
+  * struct x86_init_irqs - platform specific interrupt setup
+@@ -55,7 +55,7 @@ struct x86_init_irqs {
+       void (*pre_vector_init)(void);
+       void (*intr_init)(void);
+       void (*trap_init)(void);
+-};
++} __no_const;
+ /**
+  * struct x86_init_oem - oem platform specific customizing functions
+@@ -65,7 +65,7 @@ struct x86_init_irqs {
+ struct x86_init_oem {
+       void (*arch_setup)(void);
+       void (*banner)(void);
+-};
++} __no_const;
+ /**
+  * struct x86_init_paging - platform specific paging functions
+@@ -75,7 +75,7 @@ struct x86_init_oem {
+ struct x86_init_paging {
+       void (*pagetable_setup_start)(pgd_t *base);
+       void (*pagetable_setup_done)(pgd_t *base);
+-};
++} __no_const;
+ /**
+  * struct x86_init_timers - platform specific timer setup
+@@ -88,7 +88,7 @@ struct x86_init_timers {
+       void (*setup_percpu_clockev)(void);
+       void (*tsc_pre_init)(void);
+       void (*timer_init)(void);
+-};
++} __no_const;
+ /**
+  * struct x86_init_ops - functions for platform specific setup
+@@ -101,7 +101,7 @@ struct x86_init_ops {
+       struct x86_init_oem             oem;
+       struct x86_init_paging          paging;
+       struct x86_init_timers          timers;
+-};
++} __no_const;
+ /**
+  * struct x86_cpuinit_ops - platform specific cpu hotplug setups
+@@ -109,7 +109,7 @@ struct x86_init_ops {
+  */
+ struct x86_cpuinit_ops {
+       void (*setup_percpu_clockev)(void);
+-};
++} __no_const;
+ /**
+  * struct x86_platform_ops - platform specific runtime functions
+@@ -121,7 +121,7 @@ struct x86_platform_ops {
+       unsigned long (*calibrate_tsc)(void);
+       unsigned long (*get_wallclock)(void);
+       int (*set_wallclock)(unsigned long nowtime);
+-};
++} __no_const;
+ extern struct x86_init_ops x86_init;
+ extern struct x86_cpuinit_ops x86_cpuinit;
+diff --git a/arch/x86/include/asm/xsave.h b/arch/x86/include/asm/xsave.h
+index 727acc1..554f3eb 100644
+--- a/arch/x86/include/asm/xsave.h
++++ b/arch/x86/include/asm/xsave.h
+@@ -56,6 +56,12 @@ static inline int xrstor_checking(struct xsave_struct *fx)
+ static inline int xsave_user(struct xsave_struct __user *buf)
+ {
+       int err;
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      if ((unsigned long)buf < PAX_USER_SHADOW_BASE)
++              buf = (struct xsave_struct __user *)((void __user*)buf + PAX_USER_SHADOW_BASE);
++#endif
++
+       __asm__ __volatile__("1: .byte " REX_PREFIX "0x0f,0xae,0x27\n"
+                            "2:\n"
+                            ".section .fixup,\"ax\"\n"
+@@ -78,10 +84,15 @@ static inline int xsave_user(struct xsave_struct __user *buf)
+ static inline int xrestore_user(struct xsave_struct __user *buf, u64 mask)
+ {
+       int err;
+-      struct xsave_struct *xstate = ((__force struct xsave_struct *)buf);
++      struct xsave_struct *xstate = ((__force_kernel struct xsave_struct *)buf);
+       u32 lmask = mask;
+       u32 hmask = mask >> 32;
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      if ((unsigned long)xstate < PAX_USER_SHADOW_BASE)
++              xstate = (struct xsave_struct *)((void *)xstate + PAX_USER_SHADOW_BASE);
++#endif
++
+       __asm__ __volatile__("1: .byte " REX_PREFIX "0x0f,0xae,0x2f\n"
+                            "2:\n"
+                            ".section .fixup,\"ax\"\n"
+diff --git a/arch/x86/kernel/acpi/realmode/Makefile b/arch/x86/kernel/acpi/realmode/Makefile
+index 6a564ac..9b1340c 100644
+--- a/arch/x86/kernel/acpi/realmode/Makefile
++++ b/arch/x86/kernel/acpi/realmode/Makefile
+@@ -41,6 +41,9 @@ KBUILD_CFLAGS        := $(LINUXINCLUDE) -g -Os -D_SETUP -D_WAKEUP -D__KERNEL__ \
+                  $(call cc-option, -fno-stack-protector) \
+                  $(call cc-option, -mpreferred-stack-boundary=2)
+ KBUILD_CFLAGS += $(call cc-option, -m32)
++ifdef CONSTIFY_PLUGIN
++KBUILD_CFLAGS += $(CONSTIFY_PLUGIN) -fplugin-arg-constify_plugin-no-constify
++endif
+ KBUILD_AFLAGS := $(KBUILD_CFLAGS) -D__ASSEMBLY__
+ GCOV_PROFILE := n
+diff --git a/arch/x86/kernel/acpi/realmode/wakeup.S b/arch/x86/kernel/acpi/realmode/wakeup.S
+index 580b4e2..d4129e4 100644
+--- a/arch/x86/kernel/acpi/realmode/wakeup.S
++++ b/arch/x86/kernel/acpi/realmode/wakeup.S
+@@ -91,6 +91,9 @@ _start:
+       /* Do any other stuff... */
+ #ifndef CONFIG_64BIT
++      /* Recheck NX bit overrides (64bit path does this in trampoline) */
++      call    verify_cpu
++
+       /* This could also be done in C code... */
+       movl    pmode_cr3, %eax
+       movl    %eax, %cr3
+@@ -104,7 +107,7 @@ _start:
+       movl    %eax, %ecx
+       orl     %edx, %ecx
+       jz      1f
+-      movl    $0xc0000080, %ecx
++      mov     $MSR_EFER, %ecx
+       wrmsr
+ 1:
+@@ -114,6 +117,7 @@ _start:
+       movl    pmode_cr0, %eax
+       movl    %eax, %cr0
+       jmp     pmode_return
++# include "../../verify_cpu.S"
+ #else
+       pushw   $0
+       pushw   trampoline_segment
+diff --git a/arch/x86/kernel/acpi/sleep.c b/arch/x86/kernel/acpi/sleep.c
+index ca93638..7042f24 100644
+--- a/arch/x86/kernel/acpi/sleep.c
++++ b/arch/x86/kernel/acpi/sleep.c
+@@ -11,11 +11,12 @@
+ #include <linux/cpumask.h>
+ #include <asm/segment.h>
+ #include <asm/desc.h>
++#include <asm/e820.h>
+ #include "realmode/wakeup.h"
+ #include "sleep.h"
+-unsigned long acpi_wakeup_address;
++unsigned long acpi_wakeup_address = 0x2000;
+ unsigned long acpi_realmode_flags;
+ /* address in low memory of the wakeup routine. */
+@@ -98,9 +99,13 @@ int acpi_save_state_mem(void)
+ #else /* CONFIG_64BIT */
+       header->trampoline_segment = setup_trampoline() >> 4;
+ #ifdef CONFIG_SMP
+-      stack_start.sp = temp_stack + sizeof(temp_stack);
++      stack_start = (unsigned long)temp_stack + sizeof(temp_stack);
++
++      pax_open_kernel();
+       early_gdt_descr.address =
+                       (unsigned long)get_cpu_gdt_table(smp_processor_id());
++      pax_close_kernel();
++
+       initial_gs = per_cpu_offset(smp_processor_id());
+ #endif
+       initial_code = (unsigned long)wakeup_long64;
+@@ -134,14 +139,8 @@ void __init acpi_reserve_bootmem(void)
+               return;
+       }
+-      acpi_realmode = (unsigned long)alloc_bootmem_low(WAKEUP_SIZE);
+-
+-      if (!acpi_realmode) {
+-              printk(KERN_ERR "ACPI: Cannot allocate lowmem, S3 disabled.\n");
+-              return;
+-      }
+-
+-      acpi_wakeup_address = virt_to_phys((void *)acpi_realmode);
++      reserve_early(acpi_wakeup_address, acpi_wakeup_address + WAKEUP_SIZE, "ACPI Wakeup Code");
++      acpi_realmode = (unsigned long)__va(acpi_wakeup_address);;
+ }
+diff --git a/arch/x86/kernel/acpi/wakeup_32.S b/arch/x86/kernel/acpi/wakeup_32.S
+index 8ded418..079961e 100644
+--- a/arch/x86/kernel/acpi/wakeup_32.S
++++ b/arch/x86/kernel/acpi/wakeup_32.S
+@@ -30,13 +30,11 @@ wakeup_pmode_return:
+       # and restore the stack ... but you need gdt for this to work
+       movl    saved_context_esp, %esp
+-      movl    %cs:saved_magic, %eax
+-      cmpl    $0x12345678, %eax
++      cmpl    $0x12345678, saved_magic
+       jne     bogus_magic
+       # jump to place where we left off
+-      movl    saved_eip, %eax
+-      jmp     *%eax
++      jmp     *(saved_eip)
+ bogus_magic:
+       jmp     bogus_magic
+diff --git a/arch/x86/kernel/alternative.c b/arch/x86/kernel/alternative.c
+index de7353c..075da5f 100644
+--- a/arch/x86/kernel/alternative.c
++++ b/arch/x86/kernel/alternative.c
+@@ -407,7 +407,7 @@ void __init_or_module apply_paravirt(struct paravirt_patch_site *start,
+               BUG_ON(p->len > MAX_PATCH_LEN);
+               /* prep the buffer with the original instructions */
+-              memcpy(insnbuf, p->instr, p->len);
++              memcpy(insnbuf, ktla_ktva(p->instr), p->len);
+               used = pv_init_ops.patch(p->instrtype, p->clobbers, insnbuf,
+                                        (unsigned long)p->instr, p->len);
+@@ -475,7 +475,7 @@ void __init alternative_instructions(void)
+       if (smp_alt_once)
+               free_init_pages("SMP alternatives",
+                               (unsigned long)__smp_locks,
+-                              (unsigned long)__smp_locks_end);
++                              PAGE_ALIGN((unsigned long)__smp_locks_end));
+       restart_nmi();
+ }
+@@ -492,13 +492,17 @@ void __init alternative_instructions(void)
+  * instructions. And on the local CPU you need to be protected again NMI or MCE
+  * handlers seeing an inconsistent instruction while you patch.
+  */
+-static void *__init_or_module text_poke_early(void *addr, const void *opcode,
++static void *__kprobes text_poke_early(void *addr, const void *opcode,
+                                             size_t len)
+ {
+       unsigned long flags;
+       local_irq_save(flags);
+-      memcpy(addr, opcode, len);
++
++      pax_open_kernel();
++      memcpy(ktla_ktva(addr), opcode, len);
+       sync_core();
++      pax_close_kernel();
++
+       local_irq_restore(flags);
+       /* Could also do a CLFLUSH here to speed up CPU recovery; but
+          that causes hangs on some VIA CPUs. */
+@@ -520,35 +524,21 @@ static void *__init_or_module text_poke_early(void *addr, const void *opcode,
+  */
+ void *__kprobes text_poke(void *addr, const void *opcode, size_t len)
+ {
+-      unsigned long flags;
+-      char *vaddr;
++      unsigned char *vaddr = ktla_ktva(addr);
+       struct page *pages[2];
+-      int i;
++      size_t i;
+       if (!core_kernel_text((unsigned long)addr)) {
+-              pages[0] = vmalloc_to_page(addr);
+-              pages[1] = vmalloc_to_page(addr + PAGE_SIZE);
++              pages[0] = vmalloc_to_page(vaddr);
++              pages[1] = vmalloc_to_page(vaddr + PAGE_SIZE);
+       } else {
+-              pages[0] = virt_to_page(addr);
++              pages[0] = virt_to_page(vaddr);
+               WARN_ON(!PageReserved(pages[0]));
+-              pages[1] = virt_to_page(addr + PAGE_SIZE);
++              pages[1] = virt_to_page(vaddr + PAGE_SIZE);
+       }
+       BUG_ON(!pages[0]);
+-      local_irq_save(flags);
+-      set_fixmap(FIX_TEXT_POKE0, page_to_phys(pages[0]));
+-      if (pages[1])
+-              set_fixmap(FIX_TEXT_POKE1, page_to_phys(pages[1]));
+-      vaddr = (char *)fix_to_virt(FIX_TEXT_POKE0);
+-      memcpy(&vaddr[(unsigned long)addr & ~PAGE_MASK], opcode, len);
+-      clear_fixmap(FIX_TEXT_POKE0);
+-      if (pages[1])
+-              clear_fixmap(FIX_TEXT_POKE1);
+-      local_flush_tlb();
+-      sync_core();
+-      /* Could also do a CLFLUSH here to speed up CPU recovery; but
+-         that causes hangs on some VIA CPUs. */
++      text_poke_early(addr, opcode, len);
+       for (i = 0; i < len; i++)
+-              BUG_ON(((char *)addr)[i] != ((char *)opcode)[i]);
+-      local_irq_restore(flags);
++              BUG_ON((vaddr)[i] != ((const unsigned char *)opcode)[i]);
+       return addr;
+ }
+diff --git a/arch/x86/kernel/amd_iommu.c b/arch/x86/kernel/amd_iommu.c
+index 3a44b75..1601800 100644
+--- a/arch/x86/kernel/amd_iommu.c
++++ b/arch/x86/kernel/amd_iommu.c
+@@ -2076,7 +2076,7 @@ static void prealloc_protection_domains(void)
+       }
+ }
+-static struct dma_map_ops amd_iommu_dma_ops = {
++static const struct dma_map_ops amd_iommu_dma_ops = {
+       .alloc_coherent = alloc_coherent,
+       .free_coherent = free_coherent,
+       .map_page = map_page,
+diff --git a/arch/x86/kernel/apic/apic.c b/arch/x86/kernel/apic/apic.c
+index 1d2d670..8e3f477 100644
+--- a/arch/x86/kernel/apic/apic.c
++++ b/arch/x86/kernel/apic/apic.c
+@@ -170,7 +170,7 @@ int first_system_vector = 0xfe;
+ /*
+  * Debug level, exported for io_apic.c
+  */
+-unsigned int apic_verbosity;
++int apic_verbosity;
+ int pic_mode;
+@@ -1794,7 +1794,7 @@ void smp_error_interrupt(struct pt_regs *regs)
+       apic_write(APIC_ESR, 0);
+       v1 = apic_read(APIC_ESR);
+       ack_APIC_irq();
+-      atomic_inc(&irq_err_count);
++      atomic_inc_unchecked(&irq_err_count);
+       /*
+        * Here is what the APIC error bits mean:
+@@ -2184,6 +2184,8 @@ static int __cpuinit apic_cluster_num(void)
+       u16 *bios_cpu_apicid;
+       DECLARE_BITMAP(clustermap, NUM_APIC_CLUSTERS);
++      pax_track_stack();
++
+       bios_cpu_apicid = early_per_cpu_ptr(x86_bios_cpu_apicid);
+       bitmap_zero(clustermap, NUM_APIC_CLUSTERS);
+diff --git a/arch/x86/kernel/apic/io_apic.c b/arch/x86/kernel/apic/io_apic.c
+index 8928d97..f799cea 100644
+--- a/arch/x86/kernel/apic/io_apic.c
++++ b/arch/x86/kernel/apic/io_apic.c
+@@ -716,7 +716,7 @@ struct IO_APIC_route_entry **alloc_ioapic_entries(void)
+       ioapic_entries = kzalloc(sizeof(*ioapic_entries) * nr_ioapics,
+                               GFP_ATOMIC);
+       if (!ioapic_entries)
+-              return 0;
++              return NULL;
+       for (apic = 0; apic < nr_ioapics; apic++) {
+               ioapic_entries[apic] =
+@@ -733,7 +733,7 @@ nomem:
+               kfree(ioapic_entries[apic]);
+       kfree(ioapic_entries);
+-      return 0;
++      return NULL;
+ }
+ /*
+@@ -1150,7 +1150,7 @@ int IO_APIC_get_PCI_irq_vector(int bus, int slot, int pin,
+ }
+ EXPORT_SYMBOL(IO_APIC_get_PCI_irq_vector);
+-void lock_vector_lock(void)
++void lock_vector_lock(void) __acquires(vector_lock)
+ {
+       /* Used to the online set of cpus does not change
+        * during assign_irq_vector.
+@@ -1158,7 +1158,7 @@ void lock_vector_lock(void)
+       spin_lock(&vector_lock);
+ }
+-void unlock_vector_lock(void)
++void unlock_vector_lock(void) __releases(vector_lock)
+ {
+       spin_unlock(&vector_lock);
+ }
+@@ -2542,7 +2542,7 @@ static void ack_apic_edge(unsigned int irq)
+       ack_APIC_irq();
+ }
+-atomic_t irq_mis_count;
++atomic_unchecked_t irq_mis_count;
+ static void ack_apic_level(unsigned int irq)
+ {
+@@ -2626,7 +2626,7 @@ static void ack_apic_level(unsigned int irq)
+       /* Tail end of version 0x11 I/O APIC bug workaround */
+       if (!(v & (1 << (i & 0x1f)))) {
+-              atomic_inc(&irq_mis_count);
++              atomic_inc_unchecked(&irq_mis_count);
+               spin_lock(&ioapic_lock);
+               __mask_and_edge_IO_APIC_irq(cfg);
+               __unmask_and_level_IO_APIC_irq(cfg);
+diff --git a/arch/x86/kernel/apm_32.c b/arch/x86/kernel/apm_32.c
+index 151ace6..f317474 100644
+--- a/arch/x86/kernel/apm_32.c
++++ b/arch/x86/kernel/apm_32.c
+@@ -410,7 +410,7 @@ static DEFINE_SPINLOCK(user_list_lock);
+  * This is for buggy BIOS's that refer to (real mode) segment 0x40
+  * even though they are called in protected mode.
+  */
+-static struct desc_struct bad_bios_desc = GDT_ENTRY_INIT(0x4092,
++static const struct desc_struct bad_bios_desc = GDT_ENTRY_INIT(0x4093,
+                       (unsigned long)__va(0x400UL), PAGE_SIZE - 0x400 - 1);
+ static const char driver_version[] = "1.16ac";        /* no spaces */
+@@ -588,7 +588,10 @@ static long __apm_bios_call(void *_call)
+       BUG_ON(cpu != 0);
+       gdt = get_cpu_gdt_table(cpu);
+       save_desc_40 = gdt[0x40 / 8];
++
++      pax_open_kernel();
+       gdt[0x40 / 8] = bad_bios_desc;
++      pax_close_kernel();
+       apm_irq_save(flags);
+       APM_DO_SAVE_SEGS;
+@@ -597,7 +600,11 @@ static long __apm_bios_call(void *_call)
+                         &call->esi);
+       APM_DO_RESTORE_SEGS;
+       apm_irq_restore(flags);
++
++      pax_open_kernel();
+       gdt[0x40 / 8] = save_desc_40;
++      pax_close_kernel();
++
+       put_cpu();
+       return call->eax & 0xff;
+@@ -664,7 +671,10 @@ static long __apm_bios_call_simple(void *_call)
+       BUG_ON(cpu != 0);
+       gdt = get_cpu_gdt_table(cpu);
+       save_desc_40 = gdt[0x40 / 8];
++
++      pax_open_kernel();
+       gdt[0x40 / 8] = bad_bios_desc;
++      pax_close_kernel();
+       apm_irq_save(flags);
+       APM_DO_SAVE_SEGS;
+@@ -672,7 +682,11 @@ static long __apm_bios_call_simple(void *_call)
+                                        &call->eax);
+       APM_DO_RESTORE_SEGS;
+       apm_irq_restore(flags);
++
++      pax_open_kernel();
+       gdt[0x40 / 8] = save_desc_40;
++      pax_close_kernel();
++
+       put_cpu();
+       return error;
+ }
+@@ -975,7 +989,7 @@ recalc:
+ static void apm_power_off(void)
+ {
+-      unsigned char po_bios_call[] = {
++      const unsigned char po_bios_call[] = {
+               0xb8, 0x00, 0x10,       /* movw  $0x1000,ax  */
+               0x8e, 0xd0,             /* movw  ax,ss       */
+               0xbc, 0x00, 0xf0,       /* movw  $0xf000,sp  */
+@@ -2357,12 +2371,15 @@ static int __init apm_init(void)
+        * code to that CPU.
+        */
+       gdt = get_cpu_gdt_table(0);
++
++      pax_open_kernel();
+       set_desc_base(&gdt[APM_CS >> 3],
+                (unsigned long)__va((unsigned long)apm_info.bios.cseg << 4));
+       set_desc_base(&gdt[APM_CS_16 >> 3],
+                (unsigned long)__va((unsigned long)apm_info.bios.cseg_16 << 4));
+       set_desc_base(&gdt[APM_DS >> 3],
+                (unsigned long)__va((unsigned long)apm_info.bios.dseg << 4));
++      pax_close_kernel();
+       proc_create("apm", 0, NULL, &apm_file_ops);
+diff --git a/arch/x86/kernel/asm-offsets_32.c b/arch/x86/kernel/asm-offsets_32.c
+index dfdbf64..9b2b6ce 100644
+--- a/arch/x86/kernel/asm-offsets_32.c
++++ b/arch/x86/kernel/asm-offsets_32.c
+@@ -51,7 +51,6 @@ void foo(void)
+       OFFSET(CPUINFO_x86_vendor_id, cpuinfo_x86, x86_vendor_id);
+       BLANK();
+-      OFFSET(TI_task, thread_info, task);
+       OFFSET(TI_exec_domain, thread_info, exec_domain);
+       OFFSET(TI_flags, thread_info, flags);
+       OFFSET(TI_status, thread_info, status);
+@@ -60,6 +59,8 @@ void foo(void)
+       OFFSET(TI_restart_block, thread_info, restart_block);
+       OFFSET(TI_sysenter_return, thread_info, sysenter_return);
+       OFFSET(TI_cpu, thread_info, cpu);
++      OFFSET(TI_lowest_stack, thread_info, lowest_stack);
++      DEFINE(TI_task_thread_sp0, offsetof(struct task_struct, thread.sp0) - offsetof(struct task_struct, tinfo));
+       BLANK();
+       OFFSET(GDS_size, desc_ptr, size);
+@@ -99,6 +100,7 @@ void foo(void)
+       DEFINE(PAGE_SIZE_asm, PAGE_SIZE);
+       DEFINE(PAGE_SHIFT_asm, PAGE_SHIFT);
++      DEFINE(THREAD_SIZE_asm, THREAD_SIZE);
+       DEFINE(PTRS_PER_PTE, PTRS_PER_PTE);
+       DEFINE(PTRS_PER_PMD, PTRS_PER_PMD);
+       DEFINE(PTRS_PER_PGD, PTRS_PER_PGD);
+@@ -115,6 +117,11 @@ void foo(void)
+       OFFSET(PV_CPU_iret, pv_cpu_ops, iret);
+       OFFSET(PV_CPU_irq_enable_sysexit, pv_cpu_ops, irq_enable_sysexit);
+       OFFSET(PV_CPU_read_cr0, pv_cpu_ops, read_cr0);
++
++#ifdef CONFIG_PAX_KERNEXEC
++      OFFSET(PV_CPU_write_cr0, pv_cpu_ops, write_cr0);
++#endif
++
+ #endif
+ #ifdef CONFIG_XEN
+diff --git a/arch/x86/kernel/asm-offsets_64.c b/arch/x86/kernel/asm-offsets_64.c
+index 4a6aeed..371de20 100644
+--- a/arch/x86/kernel/asm-offsets_64.c
++++ b/arch/x86/kernel/asm-offsets_64.c
+@@ -44,6 +44,8 @@ int main(void)
+       ENTRY(addr_limit);
+       ENTRY(preempt_count);
+       ENTRY(status);
++      ENTRY(lowest_stack);
++      DEFINE(TI_task_thread_sp0, offsetof(struct task_struct, thread.sp0) - offsetof(struct task_struct, tinfo));
+ #ifdef CONFIG_IA32_EMULATION
+       ENTRY(sysenter_return);
+ #endif
+@@ -63,6 +65,18 @@ int main(void)
+       OFFSET(PV_CPU_irq_enable_sysexit, pv_cpu_ops, irq_enable_sysexit);
+       OFFSET(PV_CPU_swapgs, pv_cpu_ops, swapgs);
+       OFFSET(PV_MMU_read_cr2, pv_mmu_ops, read_cr2);
++
++#ifdef CONFIG_PAX_KERNEXEC
++      OFFSET(PV_CPU_read_cr0, pv_cpu_ops, read_cr0);
++      OFFSET(PV_CPU_write_cr0, pv_cpu_ops, write_cr0);
++#endif
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      OFFSET(PV_MMU_read_cr3, pv_mmu_ops, read_cr3);
++      OFFSET(PV_MMU_write_cr3, pv_mmu_ops, write_cr3);
++      OFFSET(PV_MMU_set_pgd_batched, pv_mmu_ops, set_pgd_batched);
++#endif
++
+ #endif
+@@ -115,6 +129,7 @@ int main(void)
+       ENTRY(cr8);
+       BLANK();
+ #undef ENTRY
++      DEFINE(TSS_size, sizeof(struct tss_struct));
+       DEFINE(TSS_ist, offsetof(struct tss_struct, x86_tss.ist));
+       BLANK();
+       DEFINE(crypto_tfm_ctx_offset, offsetof(struct crypto_tfm, __crt_ctx));
+@@ -130,6 +145,7 @@ int main(void)
+       BLANK();
+       DEFINE(PAGE_SIZE_asm, PAGE_SIZE);
++      DEFINE(THREAD_SIZE_asm, THREAD_SIZE);
+ #ifdef CONFIG_XEN
+       BLANK();
+       OFFSET(XEN_vcpu_info_mask, vcpu_info, evtchn_upcall_mask);
+diff --git a/arch/x86/kernel/cpu/Makefile b/arch/x86/kernel/cpu/Makefile
+index ff502cc..dc5133e 100644
+--- a/arch/x86/kernel/cpu/Makefile
++++ b/arch/x86/kernel/cpu/Makefile
+@@ -7,10 +7,6 @@ ifdef CONFIG_FUNCTION_TRACER
+ CFLAGS_REMOVE_common.o = -pg
+ endif
+-# Make sure load_percpu_segment has no stackprotector
+-nostackp := $(call cc-option, -fno-stack-protector)
+-CFLAGS_common.o               := $(nostackp)
+-
+ obj-y                 := intel_cacheinfo.o addon_cpuid_features.o
+ obj-y                 += proc.o capflags.o powerflags.o common.o
+ obj-y                 += vmware.o hypervisor.o sched.o
+diff --git a/arch/x86/kernel/cpu/amd.c b/arch/x86/kernel/cpu/amd.c
+index 6e082dc..a0b5f36 100644
+--- a/arch/x86/kernel/cpu/amd.c
++++ b/arch/x86/kernel/cpu/amd.c
+@@ -602,7 +602,7 @@ static unsigned int __cpuinit amd_size_cache(struct cpuinfo_x86 *c,
+                                                       unsigned int size)
+ {
+       /* AMD errata T13 (order #21922) */
+-      if ((c->x86 == 6)) {
++      if (c->x86 == 6) {
+               /* Duron Rev A0 */
+               if (c->x86_model == 3 && c->x86_mask == 0)
+                       size = 64;
+diff --git a/arch/x86/kernel/cpu/common.c b/arch/x86/kernel/cpu/common.c
+index 4e34d10..ba6bc97 100644
+--- a/arch/x86/kernel/cpu/common.c
++++ b/arch/x86/kernel/cpu/common.c
+@@ -83,60 +83,6 @@ static const struct cpu_dev __cpuinitconst default_cpu = {
+ static const struct cpu_dev *this_cpu __cpuinitdata = &default_cpu;
+-DEFINE_PER_CPU_PAGE_ALIGNED(struct gdt_page, gdt_page) = { .gdt = {
+-#ifdef CONFIG_X86_64
+-      /*
+-       * We need valid kernel segments for data and code in long mode too
+-       * IRET will check the segment types  kkeil 2000/10/28
+-       * Also sysret mandates a special GDT layout
+-       *
+-       * TLS descriptors are currently at a different place compared to i386.
+-       * Hopefully nobody expects them at a fixed place (Wine?)
+-       */
+-      [GDT_ENTRY_KERNEL32_CS]         = GDT_ENTRY_INIT(0xc09b, 0, 0xfffff),
+-      [GDT_ENTRY_KERNEL_CS]           = GDT_ENTRY_INIT(0xa09b, 0, 0xfffff),
+-      [GDT_ENTRY_KERNEL_DS]           = GDT_ENTRY_INIT(0xc093, 0, 0xfffff),
+-      [GDT_ENTRY_DEFAULT_USER32_CS]   = GDT_ENTRY_INIT(0xc0fb, 0, 0xfffff),
+-      [GDT_ENTRY_DEFAULT_USER_DS]     = GDT_ENTRY_INIT(0xc0f3, 0, 0xfffff),
+-      [GDT_ENTRY_DEFAULT_USER_CS]     = GDT_ENTRY_INIT(0xa0fb, 0, 0xfffff),
+-#else
+-      [GDT_ENTRY_KERNEL_CS]           = GDT_ENTRY_INIT(0xc09a, 0, 0xfffff),
+-      [GDT_ENTRY_KERNEL_DS]           = GDT_ENTRY_INIT(0xc092, 0, 0xfffff),
+-      [GDT_ENTRY_DEFAULT_USER_CS]     = GDT_ENTRY_INIT(0xc0fa, 0, 0xfffff),
+-      [GDT_ENTRY_DEFAULT_USER_DS]     = GDT_ENTRY_INIT(0xc0f2, 0, 0xfffff),
+-      /*
+-       * Segments used for calling PnP BIOS have byte granularity.
+-       * They code segments and data segments have fixed 64k limits,
+-       * the transfer segment sizes are set at run time.
+-       */
+-      /* 32-bit code */
+-      [GDT_ENTRY_PNPBIOS_CS32]        = GDT_ENTRY_INIT(0x409a, 0, 0xffff),
+-      /* 16-bit code */
+-      [GDT_ENTRY_PNPBIOS_CS16]        = GDT_ENTRY_INIT(0x009a, 0, 0xffff),
+-      /* 16-bit data */
+-      [GDT_ENTRY_PNPBIOS_DS]          = GDT_ENTRY_INIT(0x0092, 0, 0xffff),
+-      /* 16-bit data */
+-      [GDT_ENTRY_PNPBIOS_TS1]         = GDT_ENTRY_INIT(0x0092, 0, 0),
+-      /* 16-bit data */
+-      [GDT_ENTRY_PNPBIOS_TS2]         = GDT_ENTRY_INIT(0x0092, 0, 0),
+-      /*
+-       * The APM segments have byte granularity and their bases
+-       * are set at run time.  All have 64k limits.
+-       */
+-      /* 32-bit code */
+-      [GDT_ENTRY_APMBIOS_BASE]        = GDT_ENTRY_INIT(0x409a, 0, 0xffff),
+-      /* 16-bit code */
+-      [GDT_ENTRY_APMBIOS_BASE+1]      = GDT_ENTRY_INIT(0x009a, 0, 0xffff),
+-      /* data */
+-      [GDT_ENTRY_APMBIOS_BASE+2]      = GDT_ENTRY_INIT(0x4092, 0, 0xffff),
+-
+-      [GDT_ENTRY_ESPFIX_SS]           = GDT_ENTRY_INIT(0xc092, 0, 0xfffff),
+-      [GDT_ENTRY_PERCPU]              = GDT_ENTRY_INIT(0xc092, 0, 0xfffff),
+-      GDT_STACK_CANARY_INIT
+-#endif
+-} };
+-EXPORT_PER_CPU_SYMBOL_GPL(gdt_page);
+-
+ static int __init x86_xsave_setup(char *s)
+ {
+       setup_clear_cpu_cap(X86_FEATURE_XSAVE);
+@@ -344,7 +290,7 @@ void switch_to_new_gdt(int cpu)
+ {
+       struct desc_ptr gdt_descr;
+-      gdt_descr.address = (long)get_cpu_gdt_table(cpu);
++      gdt_descr.address = (unsigned long)get_cpu_gdt_table(cpu);
+       gdt_descr.size = GDT_SIZE - 1;
+       load_gdt(&gdt_descr);
+       /* Reload the per-cpu base */
+@@ -798,6 +744,10 @@ static void __cpuinit identify_cpu(struct cpuinfo_x86 *c)
+       /* Filter out anything that depends on CPUID levels we don't have */
+       filter_cpuid_features(c, true);
++#if defined(CONFIG_X86_32) && (defined(CONFIG_PAX_SEGMEXEC) || defined(CONFIG_PAX_KERNEXEC) || defined(CONFIG_PAX_MEMORY_UDEREF))
++      setup_clear_cpu_cap(X86_FEATURE_SEP);
++#endif
++
+       /* If the model name is still unset, do table lookup. */
+       if (!c->x86_model_id[0]) {
+               const char *p;
+@@ -980,6 +930,9 @@ static __init int setup_disablecpuid(char *arg)
+ }
+ __setup("clearcpuid=", setup_disablecpuid);
++DEFINE_PER_CPU(struct thread_info *, current_tinfo) = &init_task.tinfo;
++EXPORT_PER_CPU_SYMBOL(current_tinfo);
++
+ #ifdef CONFIG_X86_64
+ struct desc_ptr idt_descr = { NR_VECTORS * 16 - 1, (unsigned long) idt_table };
+@@ -995,7 +948,7 @@ DEFINE_PER_CPU(struct task_struct *, current_task) ____cacheline_aligned =
+ EXPORT_PER_CPU_SYMBOL(current_task);
+ DEFINE_PER_CPU(unsigned long, kernel_stack) =
+-      (unsigned long)&init_thread_union - KERNEL_STACK_OFFSET + THREAD_SIZE;
++      (unsigned long)&init_thread_union - 16 + THREAD_SIZE;
+ EXPORT_PER_CPU_SYMBOL(kernel_stack);
+ DEFINE_PER_CPU(char *, irq_stack_ptr) =
+@@ -1060,7 +1013,7 @@ struct pt_regs * __cpuinit idle_regs(struct pt_regs *regs)
+ {
+       memset(regs, 0, sizeof(struct pt_regs));
+       regs->fs = __KERNEL_PERCPU;
+-      regs->gs = __KERNEL_STACK_CANARY;
++      savesegment(gs, regs->gs);
+       return regs;
+ }
+@@ -1101,7 +1054,7 @@ void __cpuinit cpu_init(void)
+       int i;
+       cpu = stack_smp_processor_id();
+-      t = &per_cpu(init_tss, cpu);
++      t = init_tss + cpu;
+       orig_ist = &per_cpu(orig_ist, cpu);
+ #ifdef CONFIG_NUMA
+@@ -1127,7 +1080,7 @@ void __cpuinit cpu_init(void)
+       switch_to_new_gdt(cpu);
+       loadsegment(fs, 0);
+-      load_idt((const struct desc_ptr *)&idt_descr);
++      load_idt(&idt_descr);
+       memset(me->thread.tls_array, 0, GDT_ENTRY_TLS_ENTRIES * 8);
+       syscall_init();
+@@ -1136,7 +1089,6 @@ void __cpuinit cpu_init(void)
+       wrmsrl(MSR_KERNEL_GS_BASE, 0);
+       barrier();
+-      check_efer();
+       if (cpu != 0)
+               enable_x2apic();
+@@ -1199,7 +1151,7 @@ void __cpuinit cpu_init(void)
+ {
+       int cpu = smp_processor_id();
+       struct task_struct *curr = current;
+-      struct tss_struct *t = &per_cpu(init_tss, cpu);
++      struct tss_struct *t = init_tss + cpu;
+       struct thread_struct *thread = &curr->thread;
+       if (cpumask_test_and_set_cpu(cpu, cpu_initialized_mask)) {
+diff --git a/arch/x86/kernel/cpu/intel.c b/arch/x86/kernel/cpu/intel.c
+index 6a77cca..4f4fca0 100644
+--- a/arch/x86/kernel/cpu/intel.c
++++ b/arch/x86/kernel/cpu/intel.c
+@@ -162,7 +162,7 @@ static void __cpuinit trap_init_f00f_bug(void)
+        * Update the IDT descriptor and reload the IDT so that
+        * it uses the read-only mapped virtual address.
+        */
+-      idt_descr.address = fix_to_virt(FIX_F00F_IDT);
++      idt_descr.address = (struct desc_struct *)fix_to_virt(FIX_F00F_IDT);
+       load_idt(&idt_descr);
+ }
+ #endif
+diff --git a/arch/x86/kernel/cpu/intel_cacheinfo.c b/arch/x86/kernel/cpu/intel_cacheinfo.c
+index 417990f..96dc36b 100644
+--- a/arch/x86/kernel/cpu/intel_cacheinfo.c
++++ b/arch/x86/kernel/cpu/intel_cacheinfo.c
+@@ -921,7 +921,7 @@ static ssize_t store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static struct sysfs_ops sysfs_ops = {
++static const struct sysfs_ops sysfs_ops = {
+       .show   = show,
+       .store  = store,
+ };
+diff --git a/arch/x86/kernel/cpu/mcheck/mce-inject.c b/arch/x86/kernel/cpu/mcheck/mce-inject.c
+index 472763d..9831e11 100644
+--- a/arch/x86/kernel/cpu/mcheck/mce-inject.c
++++ b/arch/x86/kernel/cpu/mcheck/mce-inject.c
+@@ -211,7 +211,9 @@ static ssize_t mce_write(struct file *filp, const char __user *ubuf,
+ static int inject_init(void)
+ {
+       printk(KERN_INFO "Machine check injector initialized\n");
+-      mce_chrdev_ops.write = mce_write;
++      pax_open_kernel();
++      *(void **)&mce_chrdev_ops.write = mce_write;
++      pax_close_kernel();
+       register_die_notifier(&mce_raise_nb);
+       return 0;
+ }
+diff --git a/arch/x86/kernel/cpu/mcheck/mce.c b/arch/x86/kernel/cpu/mcheck/mce.c
+index 0f16a2b..21740f5 100644
+--- a/arch/x86/kernel/cpu/mcheck/mce.c
++++ b/arch/x86/kernel/cpu/mcheck/mce.c
+@@ -43,6 +43,7 @@
+ #include <asm/ipi.h>
+ #include <asm/mce.h>
+ #include <asm/msr.h>
++#include <asm/local.h>
+ #include "mce-internal.h"
+@@ -187,7 +188,7 @@ static void print_mce(struct mce *m)
+                       !(m->mcgstatus & MCG_STATUS_EIPV) ? " !INEXACT!" : "",
+                               m->cs, m->ip);
+-              if (m->cs == __KERNEL_CS)
++              if (m->cs == __KERNEL_CS || m->cs == __KERNEXEC_KERNEL_CS)
+                       print_symbol("{%s}", m->ip);
+               pr_cont("\n");
+       }
+@@ -221,10 +222,10 @@ static void print_mce_tail(void)
+ #define PANIC_TIMEOUT 5 /* 5 seconds */
+-static atomic_t mce_paniced;
++static atomic_unchecked_t mce_paniced;
+ static int fake_panic;
+-static atomic_t mce_fake_paniced;
++static atomic_unchecked_t mce_fake_paniced;
+ /* Panic in progress. Enable interrupts and wait for final IPI */
+ static void wait_for_panic(void)
+@@ -248,7 +249,7 @@ static void mce_panic(char *msg, struct mce *final, char *exp)
+               /*
+                * Make sure only one CPU runs in machine check panic
+                */
+-              if (atomic_inc_return(&mce_paniced) > 1)
++              if (atomic_inc_return_unchecked(&mce_paniced) > 1)
+                       wait_for_panic();
+               barrier();
+@@ -256,7 +257,7 @@ static void mce_panic(char *msg, struct mce *final, char *exp)
+               console_verbose();
+       } else {
+               /* Don't log too much for fake panic */
+-              if (atomic_inc_return(&mce_fake_paniced) > 1)
++              if (atomic_inc_return_unchecked(&mce_fake_paniced) > 1)
+                       return;
+       }
+       print_mce_head();
+@@ -616,7 +617,7 @@ static int mce_timed_out(u64 *t)
+        * might have been modified by someone else.
+        */
+       rmb();
+-      if (atomic_read(&mce_paniced))
++      if (atomic_read_unchecked(&mce_paniced))
+               wait_for_panic();
+       if (!monarch_timeout)
+               goto out;
+@@ -1394,7 +1395,7 @@ static void unexpected_machine_check(struct pt_regs *regs, long error_code)
+ }
+ /* Call the installed machine check handler for this CPU setup. */
+-void (*machine_check_vector)(struct pt_regs *, long error_code) =
++void (*machine_check_vector)(struct pt_regs *, long error_code) __read_only =
+                                               unexpected_machine_check;
+ /*
+@@ -1416,7 +1417,9 @@ void __cpuinit mcheck_init(struct cpuinfo_x86 *c)
+               return;
+       }
++      pax_open_kernel();
+       machine_check_vector = do_machine_check;
++      pax_close_kernel();
+       mce_init();
+       mce_cpu_features(c);
+@@ -1429,14 +1432,14 @@ void __cpuinit mcheck_init(struct cpuinfo_x86 *c)
+  */
+ static DEFINE_SPINLOCK(mce_state_lock);
+-static int            open_count;             /* #times opened */
++static local_t                open_count;             /* #times opened */
+ static int            open_exclu;             /* already open exclusive? */
+ static int mce_open(struct inode *inode, struct file *file)
+ {
+       spin_lock(&mce_state_lock);
+-      if (open_exclu || (open_count && (file->f_flags & O_EXCL))) {
++      if (open_exclu || (local_read(&open_count) && (file->f_flags & O_EXCL))) {
+               spin_unlock(&mce_state_lock);
+               return -EBUSY;
+@@ -1444,7 +1447,7 @@ static int mce_open(struct inode *inode, struct file *file)
+       if (file->f_flags & O_EXCL)
+               open_exclu = 1;
+-      open_count++;
++      local_inc(&open_count);
+       spin_unlock(&mce_state_lock);
+@@ -1455,7 +1458,7 @@ static int mce_release(struct inode *inode, struct file *file)
+ {
+       spin_lock(&mce_state_lock);
+-      open_count--;
++      local_dec(&open_count);
+       open_exclu = 0;
+       spin_unlock(&mce_state_lock);
+@@ -2082,7 +2085,7 @@ struct dentry *mce_get_debugfs_dir(void)
+ static void mce_reset(void)
+ {
+       cpu_missing = 0;
+-      atomic_set(&mce_fake_paniced, 0);
++      atomic_set_unchecked(&mce_fake_paniced, 0);
+       atomic_set(&mce_executing, 0);
+       atomic_set(&mce_callin, 0);
+       atomic_set(&global_nwo, 0);
+diff --git a/arch/x86/kernel/cpu/mcheck/mce_amd.c b/arch/x86/kernel/cpu/mcheck/mce_amd.c
+index ef3cd31..9d2f6ab 100644
+--- a/arch/x86/kernel/cpu/mcheck/mce_amd.c
++++ b/arch/x86/kernel/cpu/mcheck/mce_amd.c
+@@ -385,7 +385,7 @@ static ssize_t store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static struct sysfs_ops threshold_ops = {
++static const struct sysfs_ops threshold_ops = {
+       .show                   = show,
+       .store                  = store,
+ };
+diff --git a/arch/x86/kernel/cpu/mcheck/p5.c b/arch/x86/kernel/cpu/mcheck/p5.c
+index 5c0e653..0882b0a 100644
+--- a/arch/x86/kernel/cpu/mcheck/p5.c
++++ b/arch/x86/kernel/cpu/mcheck/p5.c
+@@ -12,6 +12,7 @@
+ #include <asm/system.h>
+ #include <asm/mce.h>
+ #include <asm/msr.h>
++#include <asm/pgtable.h>
+ /* By default disabled */
+ int mce_p5_enabled __read_mostly;
+@@ -50,7 +51,9 @@ void intel_p5_mcheck_init(struct cpuinfo_x86 *c)
+       if (!cpu_has(c, X86_FEATURE_MCE))
+               return;
++      pax_open_kernel();
+       machine_check_vector = pentium_machine_check;
++      pax_close_kernel();
+       /* Make sure the vector pointer is visible before we enable MCEs: */
+       wmb();
+diff --git a/arch/x86/kernel/cpu/mcheck/winchip.c b/arch/x86/kernel/cpu/mcheck/winchip.c
+index 54060f5..c1a7577 100644
+--- a/arch/x86/kernel/cpu/mcheck/winchip.c
++++ b/arch/x86/kernel/cpu/mcheck/winchip.c
+@@ -11,6 +11,7 @@
+ #include <asm/system.h>
+ #include <asm/mce.h>
+ #include <asm/msr.h>
++#include <asm/pgtable.h>
+ /* Machine check handler for WinChip C6: */
+ static void winchip_machine_check(struct pt_regs *regs, long error_code)
+@@ -24,7 +25,9 @@ void winchip_mcheck_init(struct cpuinfo_x86 *c)
+ {
+       u32 lo, hi;
++      pax_open_kernel();
+       machine_check_vector = winchip_machine_check;
++      pax_close_kernel();
+       /* Make sure the vector pointer is visible before we enable MCEs: */
+       wmb();
+diff --git a/arch/x86/kernel/cpu/mtrr/amd.c b/arch/x86/kernel/cpu/mtrr/amd.c
+index 33af141..92ba9cd 100644
+--- a/arch/x86/kernel/cpu/mtrr/amd.c
++++ b/arch/x86/kernel/cpu/mtrr/amd.c
+@@ -108,7 +108,7 @@ amd_validate_add_page(unsigned long base, unsigned long size, unsigned int type)
+       return 0;
+ }
+-static struct mtrr_ops amd_mtrr_ops = {
++static const struct mtrr_ops amd_mtrr_ops = {
+       .vendor            = X86_VENDOR_AMD,
+       .set               = amd_set_mtrr,
+       .get               = amd_get_mtrr,
+diff --git a/arch/x86/kernel/cpu/mtrr/centaur.c b/arch/x86/kernel/cpu/mtrr/centaur.c
+index de89f14..316fe3e 100644
+--- a/arch/x86/kernel/cpu/mtrr/centaur.c
++++ b/arch/x86/kernel/cpu/mtrr/centaur.c
+@@ -110,7 +110,7 @@ centaur_validate_add_page(unsigned long base, unsigned long size, unsigned int t
+       return 0;
+ }
+-static struct mtrr_ops centaur_mtrr_ops = {
++static const struct mtrr_ops centaur_mtrr_ops = {
+       .vendor            = X86_VENDOR_CENTAUR,
+       .set               = centaur_set_mcr,
+       .get               = centaur_get_mcr,
+diff --git a/arch/x86/kernel/cpu/mtrr/cyrix.c b/arch/x86/kernel/cpu/mtrr/cyrix.c
+index 228d982..68a3343 100644
+--- a/arch/x86/kernel/cpu/mtrr/cyrix.c
++++ b/arch/x86/kernel/cpu/mtrr/cyrix.c
+@@ -265,7 +265,7 @@ static void cyrix_set_all(void)
+       post_set();
+ }
+-static struct mtrr_ops cyrix_mtrr_ops = {
++static const struct mtrr_ops cyrix_mtrr_ops = {
+       .vendor            = X86_VENDOR_CYRIX,
+       .set_all           = cyrix_set_all,
+       .set               = cyrix_set_arr,
+diff --git a/arch/x86/kernel/cpu/mtrr/generic.c b/arch/x86/kernel/cpu/mtrr/generic.c
+index 55da0c5..4d75584 100644
+--- a/arch/x86/kernel/cpu/mtrr/generic.c
++++ b/arch/x86/kernel/cpu/mtrr/generic.c
+@@ -752,7 +752,7 @@ int positive_have_wrcomb(void)
+ /*
+  * Generic structure...
+  */
+-struct mtrr_ops generic_mtrr_ops = {
++const struct mtrr_ops generic_mtrr_ops = {
+       .use_intel_if           = 1,
+       .set_all                = generic_set_all,
+       .get                    = generic_get_mtrr,
+diff --git a/arch/x86/kernel/cpu/mtrr/main.c b/arch/x86/kernel/cpu/mtrr/main.c
+index fd60f09..c94ef52 100644
+--- a/arch/x86/kernel/cpu/mtrr/main.c
++++ b/arch/x86/kernel/cpu/mtrr/main.c
+@@ -60,14 +60,14 @@ static DEFINE_MUTEX(mtrr_mutex);
+ u64 size_or_mask, size_and_mask;
+ static bool mtrr_aps_delayed_init;
+-static struct mtrr_ops *mtrr_ops[X86_VENDOR_NUM];
++static const struct mtrr_ops *mtrr_ops[X86_VENDOR_NUM] __read_only;
+-struct mtrr_ops *mtrr_if;
++const struct mtrr_ops *mtrr_if;
+ static void set_mtrr(unsigned int reg, unsigned long base,
+                    unsigned long size, mtrr_type type);
+-void set_mtrr_ops(struct mtrr_ops *ops)
++void set_mtrr_ops(const struct mtrr_ops *ops)
+ {
+       if (ops->vendor && ops->vendor < X86_VENDOR_NUM)
+               mtrr_ops[ops->vendor] = ops;
+diff --git a/arch/x86/kernel/cpu/mtrr/mtrr.h b/arch/x86/kernel/cpu/mtrr/mtrr.h
+index a501dee..816c719 100644
+--- a/arch/x86/kernel/cpu/mtrr/mtrr.h
++++ b/arch/x86/kernel/cpu/mtrr/mtrr.h
+@@ -25,14 +25,14 @@ struct mtrr_ops {
+       int     (*validate_add_page)(unsigned long base, unsigned long size,
+                                    unsigned int type);
+       int     (*have_wrcomb)(void);
+-};
++} __do_const;
+ extern int generic_get_free_region(unsigned long base, unsigned long size,
+                                  int replace_reg);
+ extern int generic_validate_add_page(unsigned long base, unsigned long size,
+                                    unsigned int type);
+-extern struct mtrr_ops generic_mtrr_ops;
++extern const struct mtrr_ops generic_mtrr_ops;
+ extern int positive_have_wrcomb(void);
+@@ -53,10 +53,10 @@ void fill_mtrr_var_range(unsigned int index,
+               u32 base_lo, u32 base_hi, u32 mask_lo, u32 mask_hi);
+ void get_mtrr_state(void);
+-extern void set_mtrr_ops(struct mtrr_ops *ops);
++extern void set_mtrr_ops(const struct mtrr_ops *ops);
+ extern u64 size_or_mask, size_and_mask;
+-extern struct mtrr_ops *mtrr_if;
++extern const struct mtrr_ops *mtrr_if;
+ #define is_cpu(vnd)   (mtrr_if && mtrr_if->vendor == X86_VENDOR_##vnd)
+ #define use_intel()   (mtrr_if && mtrr_if->use_intel_if == 1)
+diff --git a/arch/x86/kernel/cpu/perf_event.c b/arch/x86/kernel/cpu/perf_event.c
+index 0ff02ca..fc49a60 100644
+--- a/arch/x86/kernel/cpu/perf_event.c
++++ b/arch/x86/kernel/cpu/perf_event.c
+@@ -723,10 +723,10 @@ x86_perf_event_update(struct perf_event *event,
+        * count to the generic event atomically:
+        */
+ again:
+-      prev_raw_count = atomic64_read(&hwc->prev_count);
++      prev_raw_count = atomic64_read_unchecked(&hwc->prev_count);
+       rdmsrl(hwc->event_base + idx, new_raw_count);
+-      if (atomic64_cmpxchg(&hwc->prev_count, prev_raw_count,
++      if (atomic64_cmpxchg_unchecked(&hwc->prev_count, prev_raw_count,
+                                       new_raw_count) != prev_raw_count)
+               goto again;
+@@ -741,7 +741,7 @@ again:
+       delta = (new_raw_count << shift) - (prev_raw_count << shift);
+       delta >>= shift;
+-      atomic64_add(delta, &event->count);
++      atomic64_add_unchecked(delta, &event->count);
+       atomic64_sub(delta, &hwc->period_left);
+       return new_raw_count;
+@@ -1353,7 +1353,7 @@ x86_perf_event_set_period(struct perf_event *event,
+        * The hw event starts counting from this event offset,
+        * mark it to be able to extra future deltas:
+        */
+-      atomic64_set(&hwc->prev_count, (u64)-left);
++      atomic64_set_unchecked(&hwc->prev_count, (u64)-left);
+       err = checking_wrmsrl(hwc->event_base + idx,
+                            (u64)(-left) & x86_pmu.event_mask);
+@@ -2357,7 +2357,7 @@ perf_callchain_user(struct pt_regs *regs, struct perf_callchain_entry *entry)
+                       break;
+               callchain_store(entry, frame.return_address);
+-              fp = frame.next_frame;
++              fp = (__force const void __user *)frame.next_frame;
+       }
+ }
+diff --git a/arch/x86/kernel/cpu/perfctr-watchdog.c b/arch/x86/kernel/cpu/perfctr-watchdog.c
+index 898df97..9e82503 100644
+--- a/arch/x86/kernel/cpu/perfctr-watchdog.c
++++ b/arch/x86/kernel/cpu/perfctr-watchdog.c
+@@ -30,11 +30,11 @@ struct nmi_watchdog_ctlblk {
+ /* Interface defining a CPU specific perfctr watchdog */
+ struct wd_ops {
+-      int (*reserve)(void);
+-      void (*unreserve)(void);
+-      int (*setup)(unsigned nmi_hz);
+-      void (*rearm)(struct nmi_watchdog_ctlblk *wd, unsigned nmi_hz);
+-      void (*stop)(void);
++      int (* const reserve)(void);
++      void (* const unreserve)(void);
++      int (* const setup)(unsigned nmi_hz);
++      void (* const rearm)(struct nmi_watchdog_ctlblk *wd, unsigned nmi_hz);
++      void (* const stop)(void);
+       unsigned perfctr;
+       unsigned evntsel;
+       u64 checkbit;
+@@ -645,6 +645,7 @@ static const struct wd_ops p4_wd_ops = {
+ #define ARCH_PERFMON_NMI_EVENT_SEL    ARCH_PERFMON_UNHALTED_CORE_CYCLES_SEL
+ #define ARCH_PERFMON_NMI_EVENT_UMASK  ARCH_PERFMON_UNHALTED_CORE_CYCLES_UMASK
++/* cannot be const */
+ static struct wd_ops intel_arch_wd_ops;
+ static int setup_intel_arch_watchdog(unsigned nmi_hz)
+@@ -697,6 +698,7 @@ static int setup_intel_arch_watchdog(unsigned nmi_hz)
+       return 1;
+ }
++/* cannot be const */
+ static struct wd_ops intel_arch_wd_ops __read_mostly = {
+       .reserve        = single_msr_reserve,
+       .unreserve      = single_msr_unreserve,
+diff --git a/arch/x86/kernel/crash.c b/arch/x86/kernel/crash.c
+index ff95824..2ffdcb5 100644
+--- a/arch/x86/kernel/crash.c
++++ b/arch/x86/kernel/crash.c
+@@ -41,7 +41,7 @@ static void kdump_nmi_callback(int cpu, struct die_args *args)
+       regs = args->regs;
+ #ifdef CONFIG_X86_32
+-      if (!user_mode_vm(regs)) {
++      if (!user_mode(regs)) {
+               crash_fixup_ss_esp(&fixed_regs, regs);
+               regs = &fixed_regs;
+       }
+diff --git a/arch/x86/kernel/doublefault_32.c b/arch/x86/kernel/doublefault_32.c
+index 37250fe..bf2ec74 100644
+--- a/arch/x86/kernel/doublefault_32.c
++++ b/arch/x86/kernel/doublefault_32.c
+@@ -11,7 +11,7 @@
+ #define DOUBLEFAULT_STACKSIZE (1024)
+ static unsigned long doublefault_stack[DOUBLEFAULT_STACKSIZE];
+-#define STACK_START (unsigned long)(doublefault_stack+DOUBLEFAULT_STACKSIZE)
++#define STACK_START (unsigned long)(doublefault_stack+DOUBLEFAULT_STACKSIZE-2)
+ #define ptr_ok(x) ((x) > PAGE_OFFSET && (x) < PAGE_OFFSET + MAXMEM)
+@@ -21,7 +21,7 @@ static void doublefault_fn(void)
+       unsigned long gdt, tss;
+       store_gdt(&gdt_desc);
+-      gdt = gdt_desc.address;
++      gdt = (unsigned long)gdt_desc.address;
+       printk(KERN_EMERG "PANIC: double fault, gdt at %08lx [%d bytes]\n", gdt, gdt_desc.size);
+@@ -58,10 +58,10 @@ struct tss_struct doublefault_tss __cacheline_aligned = {
+               /* 0x2 bit is always set */
+               .flags          = X86_EFLAGS_SF | 0x2,
+               .sp             = STACK_START,
+-              .es             = __USER_DS,
++              .es             = __KERNEL_DS,
+               .cs             = __KERNEL_CS,
+               .ss             = __KERNEL_DS,
+-              .ds             = __USER_DS,
++              .ds             = __KERNEL_DS,
+               .fs             = __KERNEL_PERCPU,
+               .__cr3          = __pa_nodebug(swapper_pg_dir),
+diff --git a/arch/x86/kernel/dumpstack.c b/arch/x86/kernel/dumpstack.c
+index 2d8a371..4fa6ae6 100644
+--- a/arch/x86/kernel/dumpstack.c
++++ b/arch/x86/kernel/dumpstack.c
+@@ -2,6 +2,9 @@
+  *  Copyright (C) 1991, 1992  Linus Torvalds
+  *  Copyright (C) 2000, 2001, 2002 Andi Kleen, SuSE Labs
+  */
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++#define __INCLUDED_BY_HIDESYM 1
++#endif
+ #include <linux/kallsyms.h>
+ #include <linux/kprobes.h>
+ #include <linux/uaccess.h>
+@@ -28,7 +31,7 @@ static int die_counter;
+ void printk_address(unsigned long address, int reliable)
+ {
+-      printk(" [<%p>] %s%pS\n", (void *) address,
++      printk(" [<%p>] %s%pA\n", (void *) address,
+                       reliable ? "" : "? ", (void *) address);
+ }
+@@ -36,9 +39,8 @@ void printk_address(unsigned long address, int reliable)
+ static void
+ print_ftrace_graph_addr(unsigned long addr, void *data,
+                       const struct stacktrace_ops *ops,
+-                      struct thread_info *tinfo, int *graph)
++                      struct task_struct *task, int *graph)
+ {
+-      struct task_struct *task = tinfo->task;
+       unsigned long ret_addr;
+       int index = task->curr_ret_stack;
+@@ -59,7 +61,7 @@ print_ftrace_graph_addr(unsigned long addr, void *data,
+ static inline void
+ print_ftrace_graph_addr(unsigned long addr, void *data,
+                       const struct stacktrace_ops *ops,
+-                      struct thread_info *tinfo, int *graph)
++                      struct task_struct *task, int *graph)
+ { }
+ #endif
+@@ -70,10 +72,8 @@ print_ftrace_graph_addr(unsigned long addr, void *data,
+  * severe exception (double fault, nmi, stack fault, debug, mce) hardware stack
+  */
+-static inline int valid_stack_ptr(struct thread_info *tinfo,
+-                      void *p, unsigned int size, void *end)
++static inline int valid_stack_ptr(void *t, void *p, unsigned int size, void *end)
+ {
+-      void *t = tinfo;
+       if (end) {
+               if (p < end && p >= (end-THREAD_SIZE))
+                       return 1;
+@@ -84,14 +84,14 @@ static inline int valid_stack_ptr(struct thread_info *tinfo,
+ }
+ unsigned long
+-print_context_stack(struct thread_info *tinfo,
++print_context_stack(struct task_struct *task, void *stack_start,
+               unsigned long *stack, unsigned long bp,
+               const struct stacktrace_ops *ops, void *data,
+               unsigned long *end, int *graph)
+ {
+       struct stack_frame *frame = (struct stack_frame *)bp;
+-      while (valid_stack_ptr(tinfo, stack, sizeof(*stack), end)) {
++      while (valid_stack_ptr(stack_start, stack, sizeof(*stack), end)) {
+               unsigned long addr;
+               addr = *stack;
+@@ -103,7 +103,7 @@ print_context_stack(struct thread_info *tinfo,
+                       } else {
+                               ops->address(data, addr, 0);
+                       }
+-                      print_ftrace_graph_addr(addr, data, ops, tinfo, graph);
++                      print_ftrace_graph_addr(addr, data, ops, task, graph);
+               }
+               stack++;
+       }
+@@ -180,7 +180,7 @@ void dump_stack(void)
+ #endif
+       printk("Pid: %d, comm: %.20s %s %s %.*s\n",
+-              current->pid, current->comm, print_tainted(),
++              task_pid_nr(current), current->comm, print_tainted(),
+               init_utsname()->release,
+               (int)strcspn(init_utsname()->version, " "),
+               init_utsname()->version);
+@@ -220,6 +220,8 @@ unsigned __kprobes long oops_begin(void)
+       return flags;
+ }
++extern void gr_handle_kernel_exploit(void);
++
+ void __kprobes oops_end(unsigned long flags, struct pt_regs *regs, int signr)
+ {
+       if (regs && kexec_should_crash(current))
+@@ -241,7 +243,10 @@ void __kprobes oops_end(unsigned long flags, struct pt_regs *regs, int signr)
+               panic("Fatal exception in interrupt");
+       if (panic_on_oops)
+               panic("Fatal exception");
+-      do_exit(signr);
++
++      gr_handle_kernel_exploit();
++
++      do_group_exit(signr);
+ }
+ int __kprobes __die(const char *str, struct pt_regs *regs, long err)
+@@ -295,7 +300,7 @@ void die(const char *str, struct pt_regs *regs, long err)
+       unsigned long flags = oops_begin();
+       int sig = SIGSEGV;
+-      if (!user_mode_vm(regs))
++      if (!user_mode(regs))
+               report_bug(regs->ip, regs);
+       if (__die(str, regs, err))
+diff --git a/arch/x86/kernel/dumpstack.h b/arch/x86/kernel/dumpstack.h
+index 81086c2..13e8b17 100644
+--- a/arch/x86/kernel/dumpstack.h
++++ b/arch/x86/kernel/dumpstack.h
+@@ -15,7 +15,7 @@
+ #endif
+ extern unsigned long
+-print_context_stack(struct thread_info *tinfo,
++print_context_stack(struct task_struct *task, void *stack_start,
+               unsigned long *stack, unsigned long bp,
+               const struct stacktrace_ops *ops, void *data,
+               unsigned long *end, int *graph);
+diff --git a/arch/x86/kernel/dumpstack_32.c b/arch/x86/kernel/dumpstack_32.c
+index f7dd2a7..504f53b 100644
+--- a/arch/x86/kernel/dumpstack_32.c
++++ b/arch/x86/kernel/dumpstack_32.c
+@@ -53,16 +53,12 @@ void dump_trace(struct task_struct *task, struct pt_regs *regs,
+ #endif
+       for (;;) {
+-              struct thread_info *context;
++              void *stack_start = (void *)((unsigned long)stack & ~(THREAD_SIZE-1));
++              bp = print_context_stack(task, stack_start, stack, bp, ops, data, NULL, &graph);
+-              context = (struct thread_info *)
+-                      ((unsigned long)stack & (~(THREAD_SIZE - 1)));
+-              bp = print_context_stack(context, stack, bp, ops,
+-                                       data, NULL, &graph);
+-
+-              stack = (unsigned long *)context->previous_esp;
+-              if (!stack)
++              if (stack_start == task_stack_page(task))
+                       break;
++              stack = *(unsigned long **)stack_start;
+               if (ops->stack(data, "IRQ") < 0)
+                       break;
+               touch_nmi_watchdog();
+@@ -112,11 +108,12 @@ void show_registers(struct pt_regs *regs)
+        * When in-kernel, we also print out the stack and code at the
+        * time of the fault..
+        */
+-      if (!user_mode_vm(regs)) {
++      if (!user_mode(regs)) {
+               unsigned int code_prologue = code_bytes * 43 / 64;
+               unsigned int code_len = code_bytes;
+               unsigned char c;
+               u8 *ip;
++              unsigned long cs_base = get_desc_base(&get_cpu_gdt_table(smp_processor_id())[(0xffff & regs->cs) >> 3]);
+               printk(KERN_EMERG "Stack:\n");
+               show_stack_log_lvl(NULL, regs, &regs->sp,
+@@ -124,10 +121,10 @@ void show_registers(struct pt_regs *regs)
+               printk(KERN_EMERG "Code: ");
+-              ip = (u8 *)regs->ip - code_prologue;
++              ip = (u8 *)regs->ip - code_prologue + cs_base;
+               if (ip < (u8 *)PAGE_OFFSET || probe_kernel_address(ip, c)) {
+                       /* try starting at IP */
+-                      ip = (u8 *)regs->ip;
++                      ip = (u8 *)regs->ip + cs_base;
+                       code_len = code_len - code_prologue + 1;
+               }
+               for (i = 0; i < code_len; i++, ip++) {
+@@ -136,7 +133,7 @@ void show_registers(struct pt_regs *regs)
+                               printk(" Bad EIP value.");
+                               break;
+                       }
+-                      if (ip == (u8 *)regs->ip)
++                      if (ip == (u8 *)regs->ip + cs_base)
+                               printk("<%02x> ", c);
+                       else
+                               printk("%02x ", c);
+@@ -145,10 +142,23 @@ void show_registers(struct pt_regs *regs)
+       printk("\n");
+ }
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++void pax_check_alloca(unsigned long size)
++{
++      unsigned long sp = (unsigned long)&sp, stack_left;
++
++      /* all kernel stacks are of the same size */
++      stack_left = sp & (THREAD_SIZE - 1);
++      BUG_ON(stack_left < 256 || size >= stack_left - 256);
++}
++EXPORT_SYMBOL(pax_check_alloca);
++#endif
++
+ int is_valid_bugaddr(unsigned long ip)
+ {
+       unsigned short ud2;
++      ip = ktla_ktva(ip);
+       if (ip < PAGE_OFFSET)
+               return 0;
+       if (probe_kernel_address((unsigned short *)ip, ud2))
+diff --git a/arch/x86/kernel/dumpstack_64.c b/arch/x86/kernel/dumpstack_64.c
+index a071e6b..36cd585 100644
+--- a/arch/x86/kernel/dumpstack_64.c
++++ b/arch/x86/kernel/dumpstack_64.c
+@@ -116,8 +116,8 @@ void dump_trace(struct task_struct *task, struct pt_regs *regs,
+       unsigned long *irq_stack_end =
+               (unsigned long *)per_cpu(irq_stack_ptr, cpu);
+       unsigned used = 0;
+-      struct thread_info *tinfo;
+       int graph = 0;
++      void *stack_start;
+       if (!task)
+               task = current;
+@@ -146,10 +146,10 @@ void dump_trace(struct task_struct *task, struct pt_regs *regs,
+        * current stack address. If the stacks consist of nested
+        * exceptions
+        */
+-      tinfo = task_thread_info(task);
+       for (;;) {
+               char *id;
+               unsigned long *estack_end;
++
+               estack_end = in_exception_stack(cpu, (unsigned long)stack,
+                                               &used, &id);
+@@ -157,7 +157,7 @@ void dump_trace(struct task_struct *task, struct pt_regs *regs,
+                       if (ops->stack(data, id) < 0)
+                               break;
+-                      bp = print_context_stack(tinfo, stack, bp, ops,
++                      bp = print_context_stack(task, estack_end - EXCEPTION_STKSZ, stack, bp, ops,
+                                                data, estack_end, &graph);
+                       ops->stack(data, "<EOE>");
+                       /*
+@@ -176,7 +176,7 @@ void dump_trace(struct task_struct *task, struct pt_regs *regs,
+                       if (stack >= irq_stack && stack < irq_stack_end) {
+                               if (ops->stack(data, "IRQ") < 0)
+                                       break;
+-                              bp = print_context_stack(tinfo, stack, bp,
++                              bp = print_context_stack(task, irq_stack, stack, bp,
+                                       ops, data, irq_stack_end, &graph);
+                               /*
+                                * We link to the next stack (which would be
+@@ -195,7 +195,8 @@ void dump_trace(struct task_struct *task, struct pt_regs *regs,
+       /*
+        * This handles the process stack:
+        */
+-      bp = print_context_stack(tinfo, stack, bp, ops, data, NULL, &graph);
++      stack_start = (void *)((unsigned long)stack & ~(THREAD_SIZE-1));
++      bp = print_context_stack(task, stack_start, stack, bp, ops, data, NULL, &graph);
+       put_cpu();
+ }
+ EXPORT_SYMBOL(dump_trace);
+@@ -304,3 +305,50 @@ int is_valid_bugaddr(unsigned long ip)
+       return ud2 == 0x0b0f;
+ }
++
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++void pax_check_alloca(unsigned long size)
++{
++      unsigned long sp = (unsigned long)&sp, stack_start, stack_end;
++      unsigned cpu, used;
++      char *id;
++
++      /* check the process stack first */
++      stack_start = (unsigned long)task_stack_page(current);
++      stack_end = stack_start + THREAD_SIZE;
++      if (likely(stack_start <= sp && sp < stack_end)) {
++              unsigned long stack_left = sp & (THREAD_SIZE - 1);
++              BUG_ON(stack_left < 256 || size >= stack_left - 256);
++              return;
++      }
++
++      cpu = get_cpu();
++
++      /* check the irq stacks */
++      stack_end = (unsigned long)per_cpu(irq_stack_ptr, cpu);
++      stack_start = stack_end - IRQ_STACK_SIZE;
++      if (stack_start <= sp && sp < stack_end) {
++              unsigned long stack_left = sp & (IRQ_STACK_SIZE - 1);
++              put_cpu();
++              BUG_ON(stack_left < 256 || size >= stack_left - 256);
++              return;
++      }
++
++      /* check the exception stacks */
++      used = 0;
++      stack_end = (unsigned long)in_exception_stack(cpu, sp, &used, &id);
++      stack_start = stack_end - EXCEPTION_STKSZ;
++      if (stack_end && stack_start <= sp && sp < stack_end) {
++              unsigned long stack_left = sp & (EXCEPTION_STKSZ - 1);
++              put_cpu();
++              BUG_ON(stack_left < 256 || size >= stack_left - 256);
++              return;
++      }
++
++      put_cpu();
++
++      /* unknown stack */
++      BUG();
++}
++EXPORT_SYMBOL(pax_check_alloca);
++#endif
+diff --git a/arch/x86/kernel/e820.c b/arch/x86/kernel/e820.c
+index a89739a..95e0c48 100644
+--- a/arch/x86/kernel/e820.c
++++ b/arch/x86/kernel/e820.c
+@@ -733,7 +733,7 @@ struct early_res {
+ };
+ static struct early_res early_res[MAX_EARLY_RES] __initdata = {
+       { 0, PAGE_SIZE, "BIOS data page" },     /* BIOS data page */
+-      {}
++      { 0, 0, {0}, 0 }
+ };
+ static int __init find_overlapped_early(u64 start, u64 end)
+diff --git a/arch/x86/kernel/early_printk.c b/arch/x86/kernel/early_printk.c
+index b9c830c..1e41a96 100644
+--- a/arch/x86/kernel/early_printk.c
++++ b/arch/x86/kernel/early_printk.c
+@@ -7,6 +7,7 @@
+ #include <linux/pci_regs.h>
+ #include <linux/pci_ids.h>
+ #include <linux/errno.h>
++#include <linux/sched.h>
+ #include <asm/io.h>
+ #include <asm/processor.h>
+ #include <asm/fcntl.h>
+@@ -170,6 +171,8 @@ asmlinkage void early_printk(const char *fmt, ...)
+       int n;
+       va_list ap;
++      pax_track_stack();
++
+       va_start(ap, fmt);
+       n = vscnprintf(buf, sizeof(buf), fmt, ap);
+       early_console->write(early_console, buf, n);
+diff --git a/arch/x86/kernel/efi_32.c b/arch/x86/kernel/efi_32.c
+index 5cab48e..b025f9b 100644
+--- a/arch/x86/kernel/efi_32.c
++++ b/arch/x86/kernel/efi_32.c
+@@ -38,70 +38,56 @@
+  */
+ static unsigned long efi_rt_eflags;
+-static pgd_t efi_bak_pg_dir_pointer[2];
++static pgd_t __initdata efi_bak_pg_dir_pointer[KERNEL_PGD_PTRS];
+-void efi_call_phys_prelog(void)
++void __init efi_call_phys_prelog(void)
+ {
+-      unsigned long cr4;
+-      unsigned long temp;
+       struct desc_ptr gdt_descr;
++#ifdef CONFIG_PAX_KERNEXEC
++      struct desc_struct d;
++#endif
++
+       local_irq_save(efi_rt_eflags);
+-      /*
+-       * If I don't have PAE, I should just duplicate two entries in page
+-       * directory. If I have PAE, I just need to duplicate one entry in
+-       * page directory.
+-       */
+-      cr4 = read_cr4_safe();
+-
+-      if (cr4 & X86_CR4_PAE) {
+-              efi_bak_pg_dir_pointer[0].pgd =
+-                  swapper_pg_dir[pgd_index(0)].pgd;
+-              swapper_pg_dir[0].pgd =
+-                  swapper_pg_dir[pgd_index(PAGE_OFFSET)].pgd;
+-      } else {
+-              efi_bak_pg_dir_pointer[0].pgd =
+-                  swapper_pg_dir[pgd_index(0)].pgd;
+-              efi_bak_pg_dir_pointer[1].pgd =
+-                  swapper_pg_dir[pgd_index(0x400000)].pgd;
+-              swapper_pg_dir[pgd_index(0)].pgd =
+-                  swapper_pg_dir[pgd_index(PAGE_OFFSET)].pgd;
+-              temp = PAGE_OFFSET + 0x400000;
+-              swapper_pg_dir[pgd_index(0x400000)].pgd =
+-                  swapper_pg_dir[pgd_index(temp)].pgd;
+-      }
++      clone_pgd_range(efi_bak_pg_dir_pointer, swapper_pg_dir, KERNEL_PGD_PTRS);
++      clone_pgd_range(swapper_pg_dir, swapper_pg_dir + KERNEL_PGD_BOUNDARY,
++                      min_t(unsigned long, KERNEL_PGD_PTRS, KERNEL_PGD_BOUNDARY));
+       /*
+        * After the lock is released, the original page table is restored.
+        */
+       __flush_tlb_all();
++#ifdef CONFIG_PAX_KERNEXEC
++      pack_descriptor(&d, 0, 0xFFFFF, 0x9B, 0xC);
++      write_gdt_entry(get_cpu_gdt_table(0), GDT_ENTRY_KERNEXEC_EFI_CS, &d, DESCTYPE_S);
++      pack_descriptor(&d, 0, 0xFFFFF, 0x93, 0xC);
++      write_gdt_entry(get_cpu_gdt_table(0), GDT_ENTRY_KERNEXEC_EFI_DS, &d, DESCTYPE_S);
++#endif
++
+       gdt_descr.address = __pa(get_cpu_gdt_table(0));
+       gdt_descr.size = GDT_SIZE - 1;
+       load_gdt(&gdt_descr);
+ }
+-void efi_call_phys_epilog(void)
++void __init efi_call_phys_epilog(void)
+ {
+-      unsigned long cr4;
+       struct desc_ptr gdt_descr;
++#ifdef CONFIG_PAX_KERNEXEC
++      struct desc_struct d;
++
++      memset(&d, 0, sizeof d);
++      write_gdt_entry(get_cpu_gdt_table(0), GDT_ENTRY_KERNEXEC_EFI_CS, &d, DESCTYPE_S);
++      write_gdt_entry(get_cpu_gdt_table(0), GDT_ENTRY_KERNEXEC_EFI_DS, &d, DESCTYPE_S);
++#endif
++
+       gdt_descr.address = (unsigned long)get_cpu_gdt_table(0);
+       gdt_descr.size = GDT_SIZE - 1;
+       load_gdt(&gdt_descr);
+-      cr4 = read_cr4_safe();
+-
+-      if (cr4 & X86_CR4_PAE) {
+-              swapper_pg_dir[pgd_index(0)].pgd =
+-                  efi_bak_pg_dir_pointer[0].pgd;
+-      } else {
+-              swapper_pg_dir[pgd_index(0)].pgd =
+-                  efi_bak_pg_dir_pointer[0].pgd;
+-              swapper_pg_dir[pgd_index(0x400000)].pgd =
+-                  efi_bak_pg_dir_pointer[1].pgd;
+-      }
++      clone_pgd_range(swapper_pg_dir, efi_bak_pg_dir_pointer, KERNEL_PGD_PTRS);
+       /*
+        * After the lock is released, the original page table is restored.
+diff --git a/arch/x86/kernel/efi_stub_32.S b/arch/x86/kernel/efi_stub_32.S
+index fbe66e6..c5c0dd2 100644
+--- a/arch/x86/kernel/efi_stub_32.S
++++ b/arch/x86/kernel/efi_stub_32.S
+@@ -6,7 +6,9 @@
+  */
+ #include <linux/linkage.h>
++#include <linux/init.h>
+ #include <asm/page_types.h>
++#include <asm/segment.h>
+ /*
+  * efi_call_phys(void *, ...) is a function with variable parameters.
+@@ -20,7 +22,7 @@
+  * service functions will comply with gcc calling convention, too.
+  */
+-.text
++__INIT
+ ENTRY(efi_call_phys)
+       /*
+        * 0. The function can only be called in Linux kernel. So CS has been
+@@ -36,9 +38,11 @@ ENTRY(efi_call_phys)
+        * The mapping of lower virtual memory has been created in prelog and
+        * epilog.
+        */
+-      movl    $1f, %edx
+-      subl    $__PAGE_OFFSET, %edx
+-      jmp     *%edx
++      movl    $(__KERNEXEC_EFI_DS), %edx
++      mov     %edx, %ds
++      mov     %edx, %es
++      mov     %edx, %ss
++      ljmp $(__KERNEXEC_EFI_CS),$1f-__PAGE_OFFSET
+ 1:
+       /*
+@@ -47,14 +51,8 @@ ENTRY(efi_call_phys)
+        * parameter 2, ..., param n. To make things easy, we save the return
+        * address of efi_call_phys in a global variable.
+        */
+-      popl    %edx
+-      movl    %edx, saved_return_addr
+-      /* get the function pointer into ECX*/
+-      popl    %ecx
+-      movl    %ecx, efi_rt_function_ptr
+-      movl    $2f, %edx
+-      subl    $__PAGE_OFFSET, %edx
+-      pushl   %edx
++      popl    (saved_return_addr)
++      popl    (efi_rt_function_ptr)
+       /*
+        * 3. Clear PG bit in %CR0.
+@@ -73,9 +71,8 @@ ENTRY(efi_call_phys)
+       /*
+        * 5. Call the physical function.
+        */
+-      jmp     *%ecx
++      call    *(efi_rt_function_ptr-__PAGE_OFFSET)
+-2:
+       /*
+        * 6. After EFI runtime service returns, control will return to
+        * following instruction. We'd better readjust stack pointer first.
+@@ -88,35 +85,32 @@ ENTRY(efi_call_phys)
+       movl    %cr0, %edx
+       orl     $0x80000000, %edx
+       movl    %edx, %cr0
+-      jmp     1f
+-1:
++
+       /*
+        * 8. Now restore the virtual mode from flat mode by
+        * adding EIP with PAGE_OFFSET.
+        */
+-      movl    $1f, %edx
+-      jmp     *%edx
++      ljmp $(__KERNEL_CS),$1f+__PAGE_OFFSET
+ 1:
++      movl    $(__KERNEL_DS), %edx
++      mov     %edx, %ds
++      mov     %edx, %es
++      mov     %edx, %ss
+       /*
+        * 9. Balance the stack. And because EAX contain the return value,
+        * we'd better not clobber it.
+        */
+-      leal    efi_rt_function_ptr, %edx
+-      movl    (%edx), %ecx
+-      pushl   %ecx
++      pushl   (efi_rt_function_ptr)
+       /*
+-       * 10. Push the saved return address onto the stack and return.
++       * 10. Return to the saved return address.
+        */
+-      leal    saved_return_addr, %edx
+-      movl    (%edx), %ecx
+-      pushl   %ecx
+-      ret
++      jmpl    *(saved_return_addr)
+ ENDPROC(efi_call_phys)
+ .previous
+-.data
++__INITDATA
+ saved_return_addr:
+       .long 0
+ efi_rt_function_ptr:
+diff --git a/arch/x86/kernel/efi_stub_64.S b/arch/x86/kernel/efi_stub_64.S
+index 4c07cca..2c8427d 100644
+--- a/arch/x86/kernel/efi_stub_64.S
++++ b/arch/x86/kernel/efi_stub_64.S
+@@ -7,6 +7,7 @@
+  */
+ #include <linux/linkage.h>
++#include <asm/alternative-asm.h>
+ #define SAVE_XMM                      \
+       mov %rsp, %rax;                 \
+@@ -40,6 +41,7 @@ ENTRY(efi_call0)
+       call *%rdi
+       addq $32, %rsp
+       RESTORE_XMM
++      pax_force_retaddr 0, 1
+       ret
+ ENDPROC(efi_call0)
+@@ -50,6 +52,7 @@ ENTRY(efi_call1)
+       call *%rdi
+       addq $32, %rsp
+       RESTORE_XMM
++      pax_force_retaddr 0, 1
+       ret
+ ENDPROC(efi_call1)
+@@ -60,6 +63,7 @@ ENTRY(efi_call2)
+       call *%rdi
+       addq $32, %rsp
+       RESTORE_XMM
++      pax_force_retaddr 0, 1
+       ret
+ ENDPROC(efi_call2)
+@@ -71,6 +75,7 @@ ENTRY(efi_call3)
+       call *%rdi
+       addq $32, %rsp
+       RESTORE_XMM
++      pax_force_retaddr 0, 1
+       ret
+ ENDPROC(efi_call3)
+@@ -83,6 +88,7 @@ ENTRY(efi_call4)
+       call *%rdi
+       addq $32, %rsp
+       RESTORE_XMM
++      pax_force_retaddr 0, 1
+       ret
+ ENDPROC(efi_call4)
+@@ -96,6 +102,7 @@ ENTRY(efi_call5)
+       call *%rdi
+       addq $48, %rsp
+       RESTORE_XMM
++      pax_force_retaddr 0, 1
+       ret
+ ENDPROC(efi_call5)
+@@ -112,5 +119,6 @@ ENTRY(efi_call6)
+       call *%rdi
+       addq $48, %rsp
+       RESTORE_XMM
++      pax_force_retaddr 0, 1
+       ret
+ ENDPROC(efi_call6)
+diff --git a/arch/x86/kernel/entry_32.S b/arch/x86/kernel/entry_32.S
+index c097e7d..c689cf4 100644
+--- a/arch/x86/kernel/entry_32.S
++++ b/arch/x86/kernel/entry_32.S
+@@ -185,13 +185,146 @@
+       /*CFI_REL_OFFSET gs, PT_GS*/
+ .endm
+ .macro SET_KERNEL_GS reg
++
++#ifdef CONFIG_CC_STACKPROTECTOR
+       movl $(__KERNEL_STACK_CANARY), \reg
++#elif defined(CONFIG_PAX_MEMORY_UDEREF)
++      movl $(__USER_DS), \reg
++#else
++      xorl \reg, \reg
++#endif
++
+       movl \reg, %gs
+ .endm
+ #endif        /* CONFIG_X86_32_LAZY_GS */
+-.macro SAVE_ALL
++.macro pax_enter_kernel
++#ifdef CONFIG_PAX_KERNEXEC
++      call pax_enter_kernel
++#endif
++.endm
++
++.macro pax_exit_kernel
++#ifdef CONFIG_PAX_KERNEXEC
++      call pax_exit_kernel
++#endif
++.endm
++
++#ifdef CONFIG_PAX_KERNEXEC
++ENTRY(pax_enter_kernel)
++#ifdef CONFIG_PARAVIRT
++      pushl %eax
++      pushl %ecx
++      call PARA_INDIRECT(pv_cpu_ops+PV_CPU_read_cr0)
++      mov %eax, %esi
++#else
++      mov %cr0, %esi
++#endif
++      bts $16, %esi
++      jnc 1f
++      mov %cs, %esi
++      cmp $__KERNEL_CS, %esi
++      jz 3f
++      ljmp $__KERNEL_CS, $3f
++1:    ljmp $__KERNEXEC_KERNEL_CS, $2f
++2:
++#ifdef CONFIG_PARAVIRT
++      mov %esi, %eax
++      call PARA_INDIRECT(pv_cpu_ops+PV_CPU_write_cr0)
++#else
++      mov %esi, %cr0
++#endif
++3:
++#ifdef CONFIG_PARAVIRT
++      popl %ecx
++      popl %eax
++#endif
++      ret
++ENDPROC(pax_enter_kernel)
++
++ENTRY(pax_exit_kernel)
++#ifdef CONFIG_PARAVIRT
++      pushl %eax
++      pushl %ecx
++#endif
++      mov %cs, %esi
++      cmp $__KERNEXEC_KERNEL_CS, %esi
++      jnz 2f
++#ifdef CONFIG_PARAVIRT
++      call PARA_INDIRECT(pv_cpu_ops+PV_CPU_read_cr0);
++      mov %eax, %esi
++#else
++      mov %cr0, %esi
++#endif
++      btr $16, %esi
++      ljmp $__KERNEL_CS, $1f
++1:
++#ifdef CONFIG_PARAVIRT
++      mov %esi, %eax
++      call PARA_INDIRECT(pv_cpu_ops+PV_CPU_write_cr0);
++#else
++      mov %esi, %cr0
++#endif
++2:
++#ifdef CONFIG_PARAVIRT
++      popl %ecx
++      popl %eax
++#endif
++      ret
++ENDPROC(pax_exit_kernel)
++#endif
++
++.macro pax_erase_kstack
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++      call pax_erase_kstack
++#endif
++.endm
++
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++/*
++ * ebp: thread_info
++ * ecx, edx: can be clobbered
++ */
++ENTRY(pax_erase_kstack)
++      pushl %edi
++      pushl %eax
++
++      mov TI_lowest_stack(%ebp), %edi
++      mov $-0xBEEF, %eax
++      std
++
++1:    mov %edi, %ecx
++      and $THREAD_SIZE_asm - 1, %ecx
++      shr $2, %ecx
++      repne scasl
++      jecxz 2f
++
++      cmp $2*16, %ecx
++      jc 2f
++
++      mov $2*16, %ecx
++      repe scasl
++      jecxz 2f
++      jne 1b
++
++2:    cld
++      mov %esp, %ecx
++      sub %edi, %ecx
++      shr $2, %ecx
++      rep stosl
++
++      mov TI_task_thread_sp0(%ebp), %edi
++      sub $128, %edi
++      mov %edi, TI_lowest_stack(%ebp)
++
++      popl %eax
++      popl %edi
++      ret
++ENDPROC(pax_erase_kstack)
++#endif
++
++.macro __SAVE_ALL _DS
+       cld
+       PUSH_GS
+       pushl %fs
+@@ -224,7 +357,7 @@
+       pushl %ebx
+       CFI_ADJUST_CFA_OFFSET 4
+       CFI_REL_OFFSET ebx, 0
+-      movl $(__USER_DS), %edx
++      movl $\_DS, %edx
+       movl %edx, %ds
+       movl %edx, %es
+       movl $(__KERNEL_PERCPU), %edx
+@@ -232,6 +365,15 @@
+       SET_KERNEL_GS %edx
+ .endm
++.macro SAVE_ALL
++#if defined(CONFIG_PAX_KERNEXEC) || defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC) || defined(CONFIG_PAX_MEMORY_UDEREF)
++      __SAVE_ALL __KERNEL_DS
++      pax_enter_kernel
++#else
++      __SAVE_ALL __USER_DS
++#endif
++.endm
++
+ .macro RESTORE_INT_REGS
+       popl %ebx
+       CFI_ADJUST_CFA_OFFSET -4
+@@ -331,7 +473,7 @@ ENTRY(ret_from_fork)
+       CFI_ADJUST_CFA_OFFSET -4
+       jmp syscall_exit
+       CFI_ENDPROC
+-END(ret_from_fork)
++ENDPROC(ret_from_fork)
+ /*
+  * Return to user mode is not as complex as all this looks,
+@@ -352,7 +494,15 @@ check_userspace:
+       movb PT_CS(%esp), %al
+       andl $(X86_EFLAGS_VM | SEGMENT_RPL_MASK), %eax
+       cmpl $USER_RPL, %eax
++
++#ifdef CONFIG_PAX_KERNEXEC
++      jae resume_userspace
++
++      PAX_EXIT_KERNEL
++      jmp resume_kernel
++#else
+       jb resume_kernel                # not returning to v8086 or userspace
++#endif
+ ENTRY(resume_userspace)
+       LOCKDEP_SYS_EXIT
+@@ -364,8 +514,8 @@ ENTRY(resume_userspace)
+       andl $_TIF_WORK_MASK, %ecx      # is there any work to be done on
+                                       # int/exception return?
+       jne work_pending
+-      jmp restore_all
+-END(ret_from_exception)
++      jmp restore_all_pax
++ENDPROC(ret_from_exception)
+ #ifdef CONFIG_PREEMPT
+ ENTRY(resume_kernel)
+@@ -380,7 +530,7 @@ need_resched:
+       jz restore_all
+       call preempt_schedule_irq
+       jmp need_resched
+-END(resume_kernel)
++ENDPROC(resume_kernel)
+ #endif
+       CFI_ENDPROC
+@@ -414,25 +564,36 @@ sysenter_past_esp:
+       /*CFI_REL_OFFSET cs, 0*/
+       /*
+        * Push current_thread_info()->sysenter_return to the stack.
+-       * A tiny bit of offset fixup is necessary - 4*4 means the 4 words
+-       * pushed above; +8 corresponds to copy_thread's esp0 setting.
+        */
+-      pushl (TI_sysenter_return-THREAD_SIZE+8+4*4)(%esp)
++      pushl $0
+       CFI_ADJUST_CFA_OFFSET 4
+       CFI_REL_OFFSET eip, 0
+       pushl %eax
+       CFI_ADJUST_CFA_OFFSET 4
+       SAVE_ALL
++      GET_THREAD_INFO(%ebp)
++      movl TI_sysenter_return(%ebp),%ebp
++      movl %ebp,PT_EIP(%esp)
+       ENABLE_INTERRUPTS(CLBR_NONE)
+ /*
+  * Load the potential sixth argument from user stack.
+  * Careful about security.
+  */
++      movl PT_OLDESP(%esp),%ebp
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      mov PT_OLDSS(%esp),%ds
++1:    movl %ds:(%ebp),%ebp
++      push %ss
++      pop %ds
++#else
+       cmpl $__PAGE_OFFSET-3,%ebp
+       jae syscall_fault
+ 1:    movl (%ebp),%ebp
++#endif
++
+       movl %ebp,PT_EBP(%esp)
+ .section __ex_table,"a"
+       .align 4
+@@ -455,12 +616,24 @@ sysenter_do_call:
+       testl $_TIF_ALLWORK_MASK, %ecx
+       jne sysexit_audit
+ sysenter_exit:
++
++#ifdef CONFIG_PAX_RANDKSTACK
++      pushl_cfi %eax
++      movl %esp, %eax
++      call pax_randomize_kstack
++      popl_cfi %eax
++#endif
++
++      pax_erase_kstack
++
+ /* if something modifies registers it must also disable sysexit */
+       movl PT_EIP(%esp), %edx
+       movl PT_OLDESP(%esp), %ecx
+       xorl %ebp,%ebp
+       TRACE_IRQS_ON
+ 1:    mov  PT_FS(%esp), %fs
++2:    mov  PT_DS(%esp), %ds
++3:    mov  PT_ES(%esp), %es
+       PTGS_TO_GS
+       ENABLE_INTERRUPTS_SYSEXIT
+@@ -477,6 +650,9 @@ sysenter_audit:
+       movl %eax,%edx                  /* 2nd arg: syscall number */
+       movl $AUDIT_ARCH_I386,%eax      /* 1st arg: audit arch */
+       call audit_syscall_entry
++
++      pax_erase_kstack
++
+       pushl %ebx
+       CFI_ADJUST_CFA_OFFSET 4
+       movl PT_EAX(%esp),%eax          /* reload syscall number */
+@@ -504,11 +680,17 @@ sysexit_audit:
+       CFI_ENDPROC
+ .pushsection .fixup,"ax"
+-2:    movl $0,PT_FS(%esp)
++4:    movl $0,PT_FS(%esp)
++      jmp 1b
++5:    movl $0,PT_DS(%esp)
++      jmp 1b
++6:    movl $0,PT_ES(%esp)
+       jmp 1b
+ .section __ex_table,"a"
+       .align 4
+-      .long 1b,2b
++      .long 1b,4b
++      .long 2b,5b
++      .long 3b,6b
+ .popsection
+       PTGS_TO_GS_EX
+ ENDPROC(ia32_sysenter_target)
+@@ -538,6 +720,15 @@ syscall_exit:
+       testl $_TIF_ALLWORK_MASK, %ecx  # current->work
+       jne syscall_exit_work
++restore_all_pax:
++
++#ifdef CONFIG_PAX_RANDKSTACK
++      movl %esp, %eax
++      call pax_randomize_kstack
++#endif
++
++      pax_erase_kstack
++
+ restore_all:
+       TRACE_IRQS_IRET
+ restore_all_notrace:
+@@ -602,10 +793,29 @@ ldt_ss:
+       mov PT_OLDESP(%esp), %eax       /* load userspace esp */
+       mov %dx, %ax                    /* eax: new kernel esp */
+       sub %eax, %edx                  /* offset (low word is 0) */
+-      PER_CPU(gdt_page, %ebx)
++#ifdef CONFIG_SMP
++      movl PER_CPU_VAR(cpu_number), %ebx
++      shll $PAGE_SHIFT_asm, %ebx
++      addl $cpu_gdt_table, %ebx
++#else
++      movl $cpu_gdt_table, %ebx
++#endif
+       shr $16, %edx
++
++#ifdef CONFIG_PAX_KERNEXEC
++      mov %cr0, %esi
++      btr $16, %esi
++      mov %esi, %cr0
++#endif
++
+       mov %dl, GDT_ENTRY_ESPFIX_SS * 8 + 4(%ebx) /* bits 16..23 */
+       mov %dh, GDT_ENTRY_ESPFIX_SS * 8 + 7(%ebx) /* bits 24..31 */
++
++#ifdef CONFIG_PAX_KERNEXEC
++      bts $16, %esi
++      mov %esi, %cr0
++#endif
++
+       pushl $__ESPFIX_SS
+       CFI_ADJUST_CFA_OFFSET 4
+       push %eax                       /* new kernel esp */
+@@ -636,36 +846,30 @@ work_resched:
+       movl TI_flags(%ebp), %ecx
+       andl $_TIF_WORK_MASK, %ecx      # is there any work to be done other
+                                       # than syscall tracing?
+-      jz restore_all
++      jz restore_all_pax
+       testb $_TIF_NEED_RESCHED, %cl
+       jnz work_resched
+ work_notifysig:                               # deal with pending signals and
+                                       # notify-resume requests
++      movl %esp, %eax
+ #ifdef CONFIG_VM86
+       testl $X86_EFLAGS_VM, PT_EFLAGS(%esp)
+-      movl %esp, %eax
+-      jne work_notifysig_v86          # returning to kernel-space or
++      jz 1f                           # returning to kernel-space or
+                                       # vm86-space
+-      xorl %edx, %edx
+-      call do_notify_resume
+-      jmp resume_userspace_sig
+-      ALIGN
+-work_notifysig_v86:
+       pushl %ecx                      # save ti_flags for do_notify_resume
+       CFI_ADJUST_CFA_OFFSET 4
+       call save_v86_state             # %eax contains pt_regs pointer
+       popl %ecx
+       CFI_ADJUST_CFA_OFFSET -4
+       movl %eax, %esp
+-#else
+-      movl %esp, %eax
++1:
+ #endif
+       xorl %edx, %edx
+       call do_notify_resume
+       jmp resume_userspace_sig
+-END(work_pending)
++ENDPROC(work_pending)
+       # perform syscall exit tracing
+       ALIGN
+@@ -673,11 +877,14 @@ syscall_trace_entry:
+       movl $-ENOSYS,PT_EAX(%esp)
+       movl %esp, %eax
+       call syscall_trace_enter
++
++      pax_erase_kstack
++
+       /* What it returned is what we'll actually use.  */
+       cmpl $(nr_syscalls), %eax
+       jnae syscall_call
+       jmp syscall_exit
+-END(syscall_trace_entry)
++ENDPROC(syscall_trace_entry)
+       # perform syscall exit tracing
+       ALIGN
+@@ -690,20 +897,24 @@ syscall_exit_work:
+       movl %esp, %eax
+       call syscall_trace_leave
+       jmp resume_userspace
+-END(syscall_exit_work)
++ENDPROC(syscall_exit_work)
+       CFI_ENDPROC
+       RING0_INT_FRAME                 # can't unwind into user space anyway
+ syscall_fault:
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      push %ss
++      pop %ds
++#endif
+       GET_THREAD_INFO(%ebp)
+       movl $-EFAULT,PT_EAX(%esp)
+       jmp resume_userspace
+-END(syscall_fault)
++ENDPROC(syscall_fault)
+ syscall_badsys:
+       movl $-ENOSYS,PT_EAX(%esp)
+       jmp resume_userspace
+-END(syscall_badsys)
++ENDPROC(syscall_badsys)
+       CFI_ENDPROC
+ /*
+@@ -726,6 +937,33 @@ PTREGSCALL(rt_sigreturn)
+ PTREGSCALL(vm86)
+ PTREGSCALL(vm86old)
++      ALIGN;
++ENTRY(kernel_execve)
++      push %ebp
++      sub $PT_OLDSS+4,%esp
++      push %edi
++      push %ecx
++      push %eax
++      lea 3*4(%esp),%edi
++      mov $PT_OLDSS/4+1,%ecx
++      xorl %eax,%eax
++      rep stosl
++      pop %eax
++      pop %ecx
++      pop %edi
++      movl $X86_EFLAGS_IF,PT_EFLAGS(%esp)
++      mov %eax,PT_EBX(%esp)
++      mov %edx,PT_ECX(%esp)
++      mov %ecx,PT_EDX(%esp)
++      mov %esp,%eax
++      call sys_execve
++      GET_THREAD_INFO(%ebp)
++      test %eax,%eax
++      jz syscall_exit
++      add $PT_OLDSS+4,%esp
++      pop %ebp
++      ret
++
+ .macro FIXUP_ESPFIX_STACK
+ /*
+  * Switch back for ESPFIX stack to the normal zerobased stack
+@@ -735,7 +973,13 @@ PTREGSCALL(vm86old)
+  * normal stack and adjusts ESP with the matching offset.
+  */
+       /* fixup the stack */
+-      PER_CPU(gdt_page, %ebx)
++#ifdef CONFIG_SMP
++      movl PER_CPU_VAR(cpu_number), %ebx
++      shll $PAGE_SHIFT_asm, %ebx
++      addl $cpu_gdt_table, %ebx
++#else
++      movl $cpu_gdt_table, %ebx
++#endif
+       mov GDT_ENTRY_ESPFIX_SS * 8 + 4(%ebx), %al /* bits 16..23 */
+       mov GDT_ENTRY_ESPFIX_SS * 8 + 7(%ebx), %ah /* bits 24..31 */
+       shl $16, %eax
+@@ -793,7 +1037,7 @@ vector=vector+1
+   .endr
+ 2:    jmp common_interrupt
+ .endr
+-END(irq_entries_start)
++ENDPROC(irq_entries_start)
+ .previous
+ END(interrupt)
+@@ -840,7 +1084,7 @@ ENTRY(coprocessor_error)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(coprocessor_error)
++ENDPROC(coprocessor_error)
+ ENTRY(simd_coprocessor_error)
+       RING0_INT_FRAME
+@@ -850,7 +1094,7 @@ ENTRY(simd_coprocessor_error)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(simd_coprocessor_error)
++ENDPROC(simd_coprocessor_error)
+ ENTRY(device_not_available)
+       RING0_INT_FRAME
+@@ -860,7 +1104,7 @@ ENTRY(device_not_available)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(device_not_available)
++ENDPROC(device_not_available)
+ #ifdef CONFIG_PARAVIRT
+ ENTRY(native_iret)
+@@ -869,12 +1113,12 @@ ENTRY(native_iret)
+       .align 4
+       .long native_iret, iret_exc
+ .previous
+-END(native_iret)
++ENDPROC(native_iret)
+ ENTRY(native_irq_enable_sysexit)
+       sti
+       sysexit
+-END(native_irq_enable_sysexit)
++ENDPROC(native_irq_enable_sysexit)
+ #endif
+ ENTRY(overflow)
+@@ -885,7 +1129,7 @@ ENTRY(overflow)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(overflow)
++ENDPROC(overflow)
+ ENTRY(bounds)
+       RING0_INT_FRAME
+@@ -895,7 +1139,7 @@ ENTRY(bounds)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(bounds)
++ENDPROC(bounds)
+ ENTRY(invalid_op)
+       RING0_INT_FRAME
+@@ -905,7 +1149,7 @@ ENTRY(invalid_op)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(invalid_op)
++ENDPROC(invalid_op)
+ ENTRY(coprocessor_segment_overrun)
+       RING0_INT_FRAME
+@@ -915,7 +1159,7 @@ ENTRY(coprocessor_segment_overrun)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(coprocessor_segment_overrun)
++ENDPROC(coprocessor_segment_overrun)
+ ENTRY(invalid_TSS)
+       RING0_EC_FRAME
+@@ -923,7 +1167,7 @@ ENTRY(invalid_TSS)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(invalid_TSS)
++ENDPROC(invalid_TSS)
+ ENTRY(segment_not_present)
+       RING0_EC_FRAME
+@@ -931,7 +1175,7 @@ ENTRY(segment_not_present)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(segment_not_present)
++ENDPROC(segment_not_present)
+ ENTRY(stack_segment)
+       RING0_EC_FRAME
+@@ -939,7 +1183,7 @@ ENTRY(stack_segment)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(stack_segment)
++ENDPROC(stack_segment)
+ ENTRY(alignment_check)
+       RING0_EC_FRAME
+@@ -947,7 +1191,7 @@ ENTRY(alignment_check)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(alignment_check)
++ENDPROC(alignment_check)
+ ENTRY(divide_error)
+       RING0_INT_FRAME
+@@ -957,7 +1201,7 @@ ENTRY(divide_error)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(divide_error)
++ENDPROC(divide_error)
+ #ifdef CONFIG_X86_MCE
+ ENTRY(machine_check)
+@@ -968,7 +1212,7 @@ ENTRY(machine_check)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(machine_check)
++ENDPROC(machine_check)
+ #endif
+ ENTRY(spurious_interrupt_bug)
+@@ -979,7 +1223,7 @@ ENTRY(spurious_interrupt_bug)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(spurious_interrupt_bug)
++ENDPROC(spurious_interrupt_bug)
+ ENTRY(kernel_thread_helper)
+       pushl $0                # fake return address for unwinder
+@@ -1095,7 +1339,7 @@ ENDPROC(xen_failsafe_callback)
+ ENTRY(mcount)
+       ret
+-END(mcount)
++ENDPROC(mcount)
+ ENTRY(ftrace_caller)
+       cmpl $0, function_trace_stop
+@@ -1124,7 +1368,7 @@ ftrace_graph_call:
+ .globl ftrace_stub
+ ftrace_stub:
+       ret
+-END(ftrace_caller)
++ENDPROC(ftrace_caller)
+ #else /* ! CONFIG_DYNAMIC_FTRACE */
+@@ -1160,7 +1404,7 @@ trace:
+       popl %ecx
+       popl %eax
+       jmp ftrace_stub
+-END(mcount)
++ENDPROC(mcount)
+ #endif /* CONFIG_DYNAMIC_FTRACE */
+ #endif /* CONFIG_FUNCTION_TRACER */
+@@ -1181,7 +1425,7 @@ ENTRY(ftrace_graph_caller)
+       popl %ecx
+       popl %eax
+       ret
+-END(ftrace_graph_caller)
++ENDPROC(ftrace_graph_caller)
+ .globl return_to_handler
+ return_to_handler:
+@@ -1198,7 +1442,6 @@ return_to_handler:
+       ret
+ #endif
+-.section .rodata,"a"
+ #include "syscall_table_32.S"
+ syscall_table_size=(.-sys_call_table)
+@@ -1255,15 +1498,18 @@ error_code:
+       movl $-1, PT_ORIG_EAX(%esp)     # no syscall to restart
+       REG_TO_PTGS %ecx
+       SET_KERNEL_GS %ecx
+-      movl $(__USER_DS), %ecx
++      movl $(__KERNEL_DS), %ecx
+       movl %ecx, %ds
+       movl %ecx, %es
++
++      pax_enter_kernel
++
+       TRACE_IRQS_OFF
+       movl %esp,%eax                  # pt_regs pointer
+       call *%edi
+       jmp ret_from_exception
+       CFI_ENDPROC
+-END(page_fault)
++ENDPROC(page_fault)
+ /*
+  * Debug traps and NMI can happen at the one SYSENTER instruction
+@@ -1309,7 +1555,7 @@ debug_stack_correct:
+       call do_debug
+       jmp ret_from_exception
+       CFI_ENDPROC
+-END(debug)
++ENDPROC(debug)
+ /*
+  * NMI is doubly nasty. It can happen _while_ we're handling
+@@ -1351,6 +1597,9 @@ nmi_stack_correct:
+       xorl %edx,%edx          # zero error code
+       movl %esp,%eax          # pt_regs pointer
+       call do_nmi
++
++      pax_exit_kernel
++
+       jmp restore_all_notrace
+       CFI_ENDPROC
+@@ -1391,12 +1640,15 @@ nmi_espfix_stack:
+       FIXUP_ESPFIX_STACK              # %eax == %esp
+       xorl %edx,%edx                  # zero error code
+       call do_nmi
++
++      pax_exit_kernel
++
+       RESTORE_REGS
+       lss 12+4(%esp), %esp            # back to espfix stack
+       CFI_ADJUST_CFA_OFFSET -24
+       jmp irq_return
+       CFI_ENDPROC
+-END(nmi)
++ENDPROC(nmi)
+ ENTRY(int3)
+       RING0_INT_FRAME
+@@ -1409,7 +1661,7 @@ ENTRY(int3)
+       call do_int3
+       jmp ret_from_exception
+       CFI_ENDPROC
+-END(int3)
++ENDPROC(int3)
+ ENTRY(general_protection)
+       RING0_EC_FRAME
+@@ -1417,7 +1669,7 @@ ENTRY(general_protection)
+       CFI_ADJUST_CFA_OFFSET 4
+       jmp error_code
+       CFI_ENDPROC
+-END(general_protection)
++ENDPROC(general_protection)
+ /*
+  * End of kprobes section
+diff --git a/arch/x86/kernel/entry_64.S b/arch/x86/kernel/entry_64.S
+index 34a56a9..4aa5c8b 100644
+--- a/arch/x86/kernel/entry_64.S
++++ b/arch/x86/kernel/entry_64.S
+@@ -53,6 +53,8 @@
+ #include <asm/paravirt.h>
+ #include <asm/ftrace.h>
+ #include <asm/percpu.h>
++#include <asm/pgtable.h>
++#include <asm/alternative-asm.h>
+ /* Avoid __ASSEMBLER__'ifying <linux/audit.h> just for this.  */
+ #include <linux/elf-em.h>
+@@ -64,8 +66,9 @@
+ #ifdef CONFIG_FUNCTION_TRACER
+ #ifdef CONFIG_DYNAMIC_FTRACE
+ ENTRY(mcount)
++      pax_force_retaddr
+       retq
+-END(mcount)
++ENDPROC(mcount)
+ ENTRY(ftrace_caller)
+       cmpl $0, function_trace_stop
+@@ -88,8 +91,9 @@ GLOBAL(ftrace_graph_call)
+ #endif
+ GLOBAL(ftrace_stub)
++      pax_force_retaddr
+       retq
+-END(ftrace_caller)
++ENDPROC(ftrace_caller)
+ #else /* ! CONFIG_DYNAMIC_FTRACE */
+ ENTRY(mcount)
+@@ -108,6 +112,7 @@ ENTRY(mcount)
+ #endif
+ GLOBAL(ftrace_stub)
++      pax_force_retaddr
+       retq
+ trace:
+@@ -117,12 +122,13 @@ trace:
+       movq 8(%rbp), %rsi
+       subq $MCOUNT_INSN_SIZE, %rdi
++      pax_force_fptr ftrace_trace_function
+       call   *ftrace_trace_function
+       MCOUNT_RESTORE_FRAME
+       jmp ftrace_stub
+-END(mcount)
++ENDPROC(mcount)
+ #endif /* CONFIG_DYNAMIC_FTRACE */
+ #endif /* CONFIG_FUNCTION_TRACER */
+@@ -142,8 +148,9 @@ ENTRY(ftrace_graph_caller)
+       MCOUNT_RESTORE_FRAME
++      pax_force_retaddr
+       retq
+-END(ftrace_graph_caller)
++ENDPROC(ftrace_graph_caller)
+ GLOBAL(return_to_handler)
+       subq  $24, %rsp
+@@ -159,6 +166,7 @@ GLOBAL(return_to_handler)
+       movq 8(%rsp), %rdx
+       movq (%rsp), %rax
+       addq $16, %rsp
++      pax_force_retaddr
+       retq
+ #endif
+@@ -174,6 +182,282 @@ ENTRY(native_usergs_sysret64)
+ ENDPROC(native_usergs_sysret64)
+ #endif /* CONFIG_PARAVIRT */
++      .macro ljmpq sel, off
++#if defined(CONFIG_MPSC) || defined(CONFIG_MCORE2) || defined (CONFIG_MATOM)
++      .byte 0x48; ljmp *1234f(%rip)
++      .pushsection .rodata
++      .align 16
++      1234: .quad \off; .word \sel
++      .popsection
++#else
++      pushq $\sel
++      pushq $\off
++      lretq
++#endif
++      .endm
++
++      .macro pax_enter_kernel
++      pax_set_fptr_mask
++#ifdef CONFIG_PAX_KERNEXEC
++      call pax_enter_kernel
++#endif
++      .endm
++
++      .macro pax_exit_kernel
++#ifdef CONFIG_PAX_KERNEXEC
++      call pax_exit_kernel
++#endif
++      .endm
++
++#ifdef CONFIG_PAX_KERNEXEC
++ENTRY(pax_enter_kernel)
++      pushq %rdi
++
++#ifdef CONFIG_PARAVIRT
++      PV_SAVE_REGS(CLBR_RDI)
++#endif
++
++      GET_CR0_INTO_RDI
++      bts $16,%rdi
++      jnc 3f
++      mov %cs,%edi
++      cmp $__KERNEL_CS,%edi
++      jnz 2f
++1:
++
++#ifdef CONFIG_PARAVIRT
++      PV_RESTORE_REGS(CLBR_RDI)
++#endif
++
++      popq %rdi
++      pax_force_retaddr
++      retq
++
++2:    ljmpq __KERNEL_CS,1f
++3:    ljmpq __KERNEXEC_KERNEL_CS,4f
++4:    SET_RDI_INTO_CR0
++      jmp 1b
++ENDPROC(pax_enter_kernel)
++
++ENTRY(pax_exit_kernel)
++      pushq %rdi
++
++#ifdef CONFIG_PARAVIRT
++      PV_SAVE_REGS(CLBR_RDI)
++#endif
++
++      mov %cs,%rdi
++      cmp $__KERNEXEC_KERNEL_CS,%edi
++      jz 2f
++1:
++
++#ifdef CONFIG_PARAVIRT
++      PV_RESTORE_REGS(CLBR_RDI);
++#endif
++
++      popq %rdi
++      pax_force_retaddr
++      retq
++
++2:    GET_CR0_INTO_RDI
++      btr $16,%rdi
++      ljmpq __KERNEL_CS,3f
++3:    SET_RDI_INTO_CR0
++      jmp 1b
++#ifdef CONFIG_PARAVIRT
++      PV_RESTORE_REGS(CLBR_RDI);
++#endif
++
++      popq %rdi
++      pax_force_retaddr
++      retq
++ENDPROC(pax_exit_kernel)
++#endif
++
++      .macro pax_enter_kernel_user
++      pax_set_fptr_mask
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      call pax_enter_kernel_user
++#endif
++      .endm
++
++      .macro pax_exit_kernel_user
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      call pax_exit_kernel_user
++#endif
++#ifdef CONFIG_PAX_RANDKSTACK
++      pushq %rax
++      call pax_randomize_kstack
++      popq %rax
++#endif
++      .endm
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++ENTRY(pax_enter_kernel_user)
++      pushq %rdi
++      pushq %rbx
++
++#ifdef CONFIG_PARAVIRT
++      PV_SAVE_REGS(CLBR_RDI)
++#endif
++
++      GET_CR3_INTO_RDI
++      mov %rdi,%rbx
++      add $__START_KERNEL_map,%rbx
++      sub phys_base(%rip),%rbx
++
++#ifdef CONFIG_PARAVIRT
++      pushq %rdi
++      cmpl $0, pv_info+PARAVIRT_enabled
++      jz 1f
++      i = 0
++      .rept USER_PGD_PTRS
++      mov i*8(%rbx),%rsi
++      mov $0,%sil
++      lea i*8(%rbx),%rdi
++      call PARA_INDIRECT(pv_mmu_ops+PV_MMU_set_pgd_batched)
++      i = i + 1
++      .endr
++      jmp 2f
++1:
++#endif
++
++      i = 0
++      .rept USER_PGD_PTRS
++      movb $0,i*8(%rbx)
++      i = i + 1
++      .endr
++
++#ifdef CONFIG_PARAVIRT
++2:    popq %rdi
++#endif
++      SET_RDI_INTO_CR3
++
++#ifdef CONFIG_PAX_KERNEXEC
++      GET_CR0_INTO_RDI
++      bts $16,%rdi
++      SET_RDI_INTO_CR0
++#endif
++
++#ifdef CONFIG_PARAVIRT
++      PV_RESTORE_REGS(CLBR_RDI)
++#endif
++
++      popq %rbx
++      popq %rdi
++      pax_force_retaddr
++      retq
++ENDPROC(pax_enter_kernel_user)
++
++ENTRY(pax_exit_kernel_user)
++      push %rdi
++
++#ifdef CONFIG_PARAVIRT
++      pushq %rbx
++      PV_SAVE_REGS(CLBR_RDI)
++#endif
++
++#ifdef CONFIG_PAX_KERNEXEC
++      GET_CR0_INTO_RDI
++      btr $16,%rdi
++      SET_RDI_INTO_CR0
++#endif
++
++      GET_CR3_INTO_RDI
++      add $__START_KERNEL_map,%rdi
++      sub phys_base(%rip),%rdi
++
++#ifdef CONFIG_PARAVIRT
++      cmpl $0, pv_info+PARAVIRT_enabled
++      jz 1f
++      mov %rdi,%rbx
++      i = 0
++      .rept USER_PGD_PTRS
++      mov i*8(%rbx),%rsi
++      mov $0x67,%sil
++      lea i*8(%rbx),%rdi
++      call PARA_INDIRECT(pv_mmu_ops+PV_MMU_set_pgd_batched)
++      i = i + 1
++      .endr
++      jmp 2f
++1:
++#endif
++
++      i = 0
++      .rept USER_PGD_PTRS
++      movb $0x67,i*8(%rdi)
++      i = i + 1
++      .endr
++
++#ifdef CONFIG_PARAVIRT
++2:    PV_RESTORE_REGS(CLBR_RDI)
++      popq %rbx
++#endif
++
++      popq %rdi
++      pax_force_retaddr
++      retq
++ENDPROC(pax_exit_kernel_user)
++#endif
++
++.macro pax_erase_kstack
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++      call pax_erase_kstack
++#endif
++.endm
++
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++/*
++ * r11: thread_info
++ * rcx, rdx: can be clobbered
++ */
++ENTRY(pax_erase_kstack)
++      pushq %rdi
++      pushq %rax
++      pushq %r11
++
++      GET_THREAD_INFO(%r11)
++      mov TI_lowest_stack(%r11), %rdi
++      mov $-0xBEEF, %rax
++      std
++
++1:    mov %edi, %ecx
++      and $THREAD_SIZE_asm - 1, %ecx
++      shr $3, %ecx
++      repne scasq
++      jecxz 2f
++
++      cmp $2*8, %ecx
++      jc 2f
++
++      mov $2*8, %ecx
++      repe scasq
++      jecxz 2f
++      jne 1b
++
++2:    cld
++      mov %esp, %ecx
++      sub %edi, %ecx
++
++      cmp $THREAD_SIZE_asm, %rcx
++      jb 3f
++      ud2
++3:
++
++      shr $3, %ecx
++      rep stosq
++
++      mov TI_task_thread_sp0(%r11), %rdi
++      sub $256, %rdi
++      mov %rdi, TI_lowest_stack(%r11)
++
++      popq %r11
++      popq %rax
++      popq %rdi
++      pax_force_retaddr
++      ret
++ENDPROC(pax_erase_kstack)
++#endif
+ .macro TRACE_IRQS_IRETQ offset=ARGOFFSET
+ #ifdef CONFIG_TRACE_IRQFLAGS
+@@ -233,8 +517,8 @@ ENDPROC(native_usergs_sysret64)
+       .endm
+       .macro UNFAKE_STACK_FRAME
+-      addq $8*6, %rsp
+-      CFI_ADJUST_CFA_OFFSET   -(6*8)
++      addq $8*6 + ARG_SKIP, %rsp
++      CFI_ADJUST_CFA_OFFSET   -(6*8 + ARG_SKIP)
+       .endm
+ /*
+@@ -317,7 +601,7 @@ ENTRY(save_args)
+       leaq -ARGOFFSET+16(%rsp),%rdi   /* arg1 for handler */
+       movq_cfi rbp, 8         /* push %rbp */
+       leaq 8(%rsp), %rbp              /* mov %rsp, %ebp */
+-      testl $3, CS(%rdi)
++      testb $3, CS(%rdi)
+       je 1f
+       SWAPGS
+       /*
+@@ -337,9 +621,10 @@ ENTRY(save_args)
+        * We entered an interrupt context - irqs are off:
+        */
+ 2:    TRACE_IRQS_OFF
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+-END(save_args)
++ENDPROC(save_args)
+ ENTRY(save_rest)
+       PARTIAL_FRAME 1 REST_SKIP+8
+@@ -352,9 +637,10 @@ ENTRY(save_rest)
+       movq_cfi r15, R15+16
+       movq %r11, 8(%rsp)      /* return address */
+       FIXUP_TOP_OF_STACK %r11, 16
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+-END(save_rest)
++ENDPROC(save_rest)
+ /* save complete stack frame */
+       .pushsection .kprobes.text, "ax"
+@@ -383,9 +669,10 @@ ENTRY(save_paranoid)
+       js 1f   /* negative -> in kernel */
+       SWAPGS
+       xorl %ebx,%ebx
+-1:    ret
++1:    pax_force_retaddr_bts
++      ret
+       CFI_ENDPROC
+-END(save_paranoid)
++ENDPROC(save_paranoid)
+       .popsection
+ /*
+@@ -409,7 +696,7 @@ ENTRY(ret_from_fork)
+       RESTORE_REST
+-      testl $3, CS-ARGOFFSET(%rsp)            # from kernel_thread?
++      testb $3, CS-ARGOFFSET(%rsp)            # from kernel_thread?
+       je   int_ret_from_sys_call
+       testl $_TIF_IA32, TI_flags(%rcx)        # 32-bit compat task needs IRET
+@@ -419,7 +706,7 @@ ENTRY(ret_from_fork)
+       jmp ret_from_sys_call                   # go to the SYSRET fastpath
+       CFI_ENDPROC
+-END(ret_from_fork)
++ENDPROC(ret_from_fork)
+ /*
+  * System call entry. Upto 6 arguments in registers are supported.
+@@ -455,7 +742,7 @@ END(ret_from_fork)
+ ENTRY(system_call)
+       CFI_STARTPROC   simple
+       CFI_SIGNAL_FRAME
+-      CFI_DEF_CFA     rsp,KERNEL_STACK_OFFSET
++      CFI_DEF_CFA     rsp,0
+       CFI_REGISTER    rip,rcx
+       /*CFI_REGISTER  rflags,r11*/
+       SWAPGS_UNSAFE_STACK
+@@ -468,12 +755,13 @@ ENTRY(system_call_after_swapgs)
+       movq    %rsp,PER_CPU_VAR(old_rsp)
+       movq    PER_CPU_VAR(kernel_stack),%rsp
++      SAVE_ARGS 8*6,1
++      pax_enter_kernel_user
+       /*
+        * No need to follow this irqs off/on section - it's straight
+        * and short:
+        */
+       ENABLE_INTERRUPTS(CLBR_NONE)
+-      SAVE_ARGS 8,1
+       movq  %rax,ORIG_RAX-ARGOFFSET(%rsp)
+       movq  %rcx,RIP-ARGOFFSET(%rsp)
+       CFI_REL_OFFSET rip,RIP-ARGOFFSET
+@@ -483,7 +771,7 @@ ENTRY(system_call_after_swapgs)
+ system_call_fastpath:
+       cmpq $__NR_syscall_max,%rax
+       ja badsys
+-      movq %r10,%rcx
++      movq R10-ARGOFFSET(%rsp),%rcx
+       call *sys_call_table(,%rax,8)  # XXX:    rip relative
+       movq %rax,RAX-ARGOFFSET(%rsp)
+ /*
+@@ -502,6 +790,8 @@ sysret_check:
+       andl %edi,%edx
+       jnz  sysret_careful
+       CFI_REMEMBER_STATE
++      pax_exit_kernel_user
++      pax_erase_kstack
+       /*
+        * sysretq will re-enable interrupts:
+        */
+@@ -555,14 +845,18 @@ badsys:
+        * jump back to the normal fast path.
+        */
+ auditsys:
+-      movq %r10,%r9                   /* 6th arg: 4th syscall arg */
++      movq R10-ARGOFFSET(%rsp),%r9    /* 6th arg: 4th syscall arg */
+       movq %rdx,%r8                   /* 5th arg: 3rd syscall arg */
+       movq %rsi,%rcx                  /* 4th arg: 2nd syscall arg */
+       movq %rdi,%rdx                  /* 3rd arg: 1st syscall arg */
+       movq %rax,%rsi                  /* 2nd arg: syscall number */
+       movl $AUDIT_ARCH_X86_64,%edi    /* 1st arg: audit arch */
+       call audit_syscall_entry
++
++      pax_erase_kstack
++
+       LOAD_ARGS 0             /* reload call-clobbered registers */
++      pax_set_fptr_mask
+       jmp system_call_fastpath
+       /*
+@@ -592,16 +886,20 @@ tracesys:
+       FIXUP_TOP_OF_STACK %rdi
+       movq %rsp,%rdi
+       call syscall_trace_enter
++
++      pax_erase_kstack
++
+       /*
+        * Reload arg registers from stack in case ptrace changed them.
+        * We don't reload %rax because syscall_trace_enter() returned
+        * the value it wants us to use in the table lookup.
+        */
+       LOAD_ARGS ARGOFFSET, 1
++      pax_set_fptr_mask
+       RESTORE_REST
+       cmpq $__NR_syscall_max,%rax
+       ja   int_ret_from_sys_call      /* RAX(%rsp) set to -ENOSYS above */
+-      movq %r10,%rcx  /* fixup for C */
++      movq R10-ARGOFFSET(%rsp),%rcx   /* fixup for C */
+       call *sys_call_table(,%rax,8)
+       movq %rax,RAX-ARGOFFSET(%rsp)
+       /* Use IRET because user could have changed frame */
+@@ -613,7 +911,7 @@ tracesys:
+ GLOBAL(int_ret_from_sys_call)
+       DISABLE_INTERRUPTS(CLBR_NONE)
+       TRACE_IRQS_OFF
+-      testl $3,CS-ARGOFFSET(%rsp)
++      testb $3,CS-ARGOFFSET(%rsp)
+       je retint_restore_args
+       movl $_TIF_ALLWORK_MASK,%edi
+       /* edi: mask to check */
+@@ -674,7 +972,7 @@ int_restore_rest:
+       TRACE_IRQS_OFF
+       jmp int_with_check
+       CFI_ENDPROC
+-END(system_call)
++ENDPROC(system_call)
+ /*
+  * Certain special system calls that need to save a complete full stack frame.
+@@ -690,7 +988,7 @@ ENTRY(\label)
+       call \func
+       jmp ptregscall_common
+       CFI_ENDPROC
+-END(\label)
++ENDPROC(\label)
+       .endm
+       PTREGSCALL stub_clone, sys_clone, %r8
+@@ -708,9 +1006,10 @@ ENTRY(ptregscall_common)
+       movq_cfi_restore R12+8, r12
+       movq_cfi_restore RBP+8, rbp
+       movq_cfi_restore RBX+8, rbx
++      pax_force_retaddr
+       ret $REST_SKIP          /* pop extended registers */
+       CFI_ENDPROC
+-END(ptregscall_common)
++ENDPROC(ptregscall_common)
+ ENTRY(stub_execve)
+       CFI_STARTPROC
+@@ -726,7 +1025,7 @@ ENTRY(stub_execve)
+       RESTORE_REST
+       jmp int_ret_from_sys_call
+       CFI_ENDPROC
+-END(stub_execve)
++ENDPROC(stub_execve)
+ /*
+  * sigreturn is special because it needs to restore all registers on return.
+@@ -744,7 +1043,7 @@ ENTRY(stub_rt_sigreturn)
+       RESTORE_REST
+       jmp int_ret_from_sys_call
+       CFI_ENDPROC
+-END(stub_rt_sigreturn)
++ENDPROC(stub_rt_sigreturn)
+ /*
+  * Build the entry stubs and pointer table with some assembler magic.
+@@ -780,7 +1079,7 @@ vector=vector+1
+ 2:    jmp common_interrupt
+ .endr
+       CFI_ENDPROC
+-END(irq_entries_start)
++ENDPROC(irq_entries_start)
+ .previous
+ END(interrupt)
+@@ -800,6 +1099,16 @@ END(interrupt)
+       CFI_ADJUST_CFA_OFFSET 10*8
+       call save_args
+       PARTIAL_FRAME 0
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      testb $3, CS(%rdi)
++      jnz 1f
++      pax_enter_kernel
++      jmp 2f
++1:    pax_enter_kernel_user
++2:
++#else
++      pax_enter_kernel
++#endif
+       call \func
+       .endm
+@@ -822,7 +1131,7 @@ ret_from_intr:
+       CFI_ADJUST_CFA_OFFSET   -8
+ exit_intr:
+       GET_THREAD_INFO(%rcx)
+-      testl $3,CS-ARGOFFSET(%rsp)
++      testb $3,CS-ARGOFFSET(%rsp)
+       je retint_kernel
+       /* Interrupt came from user space */
+@@ -844,12 +1153,16 @@ retint_swapgs:          /* return to user-space */
+        * The iretq could re-enable interrupts:
+        */
+       DISABLE_INTERRUPTS(CLBR_ANY)
++      pax_exit_kernel_user
++      pax_erase_kstack
+       TRACE_IRQS_IRETQ
+       SWAPGS
+       jmp restore_args
+ retint_restore_args:  /* return to kernel space */
+       DISABLE_INTERRUPTS(CLBR_ANY)
++      pax_exit_kernel
++      pax_force_retaddr RIP-ARGOFFSET
+       /*
+        * The iretq could re-enable interrupts:
+        */
+@@ -940,7 +1253,7 @@ ENTRY(retint_kernel)
+ #endif
+       CFI_ENDPROC
+-END(common_interrupt)
++ENDPROC(common_interrupt)
+ /*
+  * APIC interrupts.
+@@ -953,7 +1266,7 @@ ENTRY(\sym)
+       interrupt \do_sym
+       jmp ret_from_intr
+       CFI_ENDPROC
+-END(\sym)
++ENDPROC(\sym)
+ .endm
+ #ifdef CONFIG_SMP
+@@ -1032,12 +1345,22 @@ ENTRY(\sym)
+       CFI_ADJUST_CFA_OFFSET 15*8
+       call error_entry
+       DEFAULT_FRAME 0
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      testb $3, CS(%rsp)
++      jnz 1f
++      pax_enter_kernel
++      jmp 2f
++1:    pax_enter_kernel_user
++2:
++#else
++      pax_enter_kernel
++#endif
+       movq %rsp,%rdi          /* pt_regs pointer */
+       xorl %esi,%esi          /* no error code */
+       call \do_sym
+       jmp error_exit          /* %ebx: no swapgs flag */
+       CFI_ENDPROC
+-END(\sym)
++ENDPROC(\sym)
+ .endm
+ .macro paranoidzeroentry sym do_sym
+@@ -1049,12 +1372,22 @@ ENTRY(\sym)
+       subq $15*8, %rsp
+       call save_paranoid
+       TRACE_IRQS_OFF
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      testb $3, CS(%rsp)
++      jnz 1f
++      pax_enter_kernel
++      jmp 2f
++1:    pax_enter_kernel_user
++2:
++#else
++      pax_enter_kernel
++#endif
+       movq %rsp,%rdi          /* pt_regs pointer */
+       xorl %esi,%esi          /* no error code */
+       call \do_sym
+       jmp paranoid_exit       /* %ebx: no swapgs flag */
+       CFI_ENDPROC
+-END(\sym)
++ENDPROC(\sym)
+ .endm
+ .macro paranoidzeroentry_ist sym do_sym ist
+@@ -1066,15 +1399,30 @@ ENTRY(\sym)
+       subq $15*8, %rsp
+       call save_paranoid
+       TRACE_IRQS_OFF
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      testb $3, CS(%rsp)
++      jnz 1f
++      pax_enter_kernel
++      jmp 2f
++1:    pax_enter_kernel_user
++2:
++#else
++      pax_enter_kernel
++#endif
+       movq %rsp,%rdi          /* pt_regs pointer */
+       xorl %esi,%esi          /* no error code */
+-      PER_CPU(init_tss, %rbp)
++#ifdef CONFIG_SMP
++      imul $TSS_size, PER_CPU_VAR(cpu_number), %ebp
++      lea init_tss(%rbp), %rbp
++#else
++      lea init_tss(%rip), %rbp
++#endif
+       subq $EXCEPTION_STKSZ, TSS_ist + (\ist - 1) * 8(%rbp)
+       call \do_sym
+       addq $EXCEPTION_STKSZ, TSS_ist + (\ist - 1) * 8(%rbp)
+       jmp paranoid_exit       /* %ebx: no swapgs flag */
+       CFI_ENDPROC
+-END(\sym)
++ENDPROC(\sym)
+ .endm
+ .macro errorentry sym do_sym
+@@ -1085,13 +1433,23 @@ ENTRY(\sym)
+       CFI_ADJUST_CFA_OFFSET 15*8
+       call error_entry
+       DEFAULT_FRAME 0
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      testb $3, CS(%rsp)
++      jnz 1f
++      pax_enter_kernel
++      jmp 2f
++1:    pax_enter_kernel_user
++2:
++#else
++      pax_enter_kernel
++#endif
+       movq %rsp,%rdi                  /* pt_regs pointer */
+       movq ORIG_RAX(%rsp),%rsi        /* get error code */
+       movq $-1,ORIG_RAX(%rsp)         /* no syscall to restart */
+       call \do_sym
+       jmp error_exit                  /* %ebx: no swapgs flag */
+       CFI_ENDPROC
+-END(\sym)
++ENDPROC(\sym)
+ .endm
+       /* error code is on the stack already */
+@@ -1104,13 +1462,23 @@ ENTRY(\sym)
+       call save_paranoid
+       DEFAULT_FRAME 0
+       TRACE_IRQS_OFF
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      testb $3, CS(%rsp)
++      jnz 1f
++      pax_enter_kernel
++      jmp 2f
++1:    pax_enter_kernel_user
++2:
++#else
++      pax_enter_kernel
++#endif
+       movq %rsp,%rdi                  /* pt_regs pointer */
+       movq ORIG_RAX(%rsp),%rsi        /* get error code */
+       movq $-1,ORIG_RAX(%rsp)         /* no syscall to restart */
+       call \do_sym
+       jmp paranoid_exit               /* %ebx: no swapgs flag */
+       CFI_ENDPROC
+-END(\sym)
++ENDPROC(\sym)
+ .endm
+ zeroentry divide_error do_divide_error
+@@ -1141,9 +1509,10 @@ gs_change:
+       SWAPGS
+       popf
+       CFI_ADJUST_CFA_OFFSET -8
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+-END(native_load_gs_index)
++ENDPROC(native_load_gs_index)
+       .section __ex_table,"a"
+       .align 8
+@@ -1193,11 +1562,12 @@ ENTRY(kernel_thread)
+        * of hacks for example to fork off the per-CPU idle tasks.
+        * [Hopefully no generic code relies on the reschedule -AK]
+        */
+-      RESTORE_ALL
++      RESTORE_REST
+       UNFAKE_STACK_FRAME
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+-END(kernel_thread)
++ENDPROC(kernel_thread)
+ ENTRY(child_rip)
+       pushq $0                # fake return address
+@@ -1208,13 +1578,14 @@ ENTRY(child_rip)
+        */
+       movq %rdi, %rax
+       movq %rsi, %rdi
++      pax_force_fptr %rax
+       call *%rax
+       # exit
+       mov %eax, %edi
+       call do_exit
+       ud2                     # padding for call trace
+       CFI_ENDPROC
+-END(child_rip)
++ENDPROC(child_rip)
+ /*
+  * execve(). This function needs to use IRET, not SYSRET, to set up all state properly.
+@@ -1241,11 +1612,11 @@ ENTRY(kernel_execve)
+       RESTORE_REST
+       testq %rax,%rax
+       je int_ret_from_sys_call
+-      RESTORE_ARGS
+       UNFAKE_STACK_FRAME
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+-END(kernel_execve)
++ENDPROC(kernel_execve)
+ /* Call softirq on interrupt stack. Interrupts are off. */
+ ENTRY(call_softirq)
+@@ -1263,9 +1634,10 @@ ENTRY(call_softirq)
+       CFI_DEF_CFA_REGISTER    rsp
+       CFI_ADJUST_CFA_OFFSET   -8
+       decl PER_CPU_VAR(irq_count)
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+-END(call_softirq)
++ENDPROC(call_softirq)
+ #ifdef CONFIG_XEN
+ zeroentry xen_hypervisor_callback xen_do_hypervisor_callback
+@@ -1303,7 +1675,7 @@ ENTRY(xen_do_hypervisor_callback)   # do_hypervisor_callback(struct *pt_regs)
+       decl PER_CPU_VAR(irq_count)
+       jmp  error_exit
+       CFI_ENDPROC
+-END(xen_do_hypervisor_callback)
++ENDPROC(xen_do_hypervisor_callback)
+ /*
+  * Hypervisor uses this for application faults while it executes.
+@@ -1362,7 +1734,7 @@ ENTRY(xen_failsafe_callback)
+       SAVE_ALL
+       jmp error_exit
+       CFI_ENDPROC
+-END(xen_failsafe_callback)
++ENDPROC(xen_failsafe_callback)
+ #endif /* CONFIG_XEN */
+@@ -1405,16 +1777,31 @@ ENTRY(paranoid_exit)
+       TRACE_IRQS_OFF
+       testl %ebx,%ebx                         /* swapgs needed? */
+       jnz paranoid_restore
+-      testl $3,CS(%rsp)
++      testb $3,CS(%rsp)
+       jnz   paranoid_userspace
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pax_exit_kernel
++      TRACE_IRQS_IRETQ 0
++      SWAPGS_UNSAFE_STACK
++      RESTORE_ALL 8
++      pax_force_retaddr_bts
++      jmp irq_return
++#endif
+ paranoid_swapgs:
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pax_exit_kernel_user
++#else
++      pax_exit_kernel
++#endif
+       TRACE_IRQS_IRETQ 0
+       SWAPGS_UNSAFE_STACK
+       RESTORE_ALL 8
+       jmp irq_return
+ paranoid_restore:
++      pax_exit_kernel
+       TRACE_IRQS_IRETQ 0
+       RESTORE_ALL 8
++      pax_force_retaddr_bts
+       jmp irq_return
+ paranoid_userspace:
+       GET_THREAD_INFO(%rcx)
+@@ -1443,7 +1830,7 @@ paranoid_schedule:
+       TRACE_IRQS_OFF
+       jmp paranoid_userspace
+       CFI_ENDPROC
+-END(paranoid_exit)
++ENDPROC(paranoid_exit)
+ /*
+  * Exception entry point. This expects an error code/orig_rax on the stack.
+@@ -1470,12 +1857,13 @@ ENTRY(error_entry)
+       movq_cfi r14, R14+8
+       movq_cfi r15, R15+8
+       xorl %ebx,%ebx
+-      testl $3,CS+8(%rsp)
++      testb $3,CS+8(%rsp)
+       je error_kernelspace
+ error_swapgs:
+       SWAPGS
+ error_sti:
+       TRACE_IRQS_OFF
++      pax_force_retaddr_bts
+       ret
+       CFI_ENDPROC
+@@ -1497,7 +1885,7 @@ error_kernelspace:
+       cmpq $gs_change,RIP+8(%rsp)
+       je error_swapgs
+       jmp error_sti
+-END(error_entry)
++ENDPROC(error_entry)
+ /* ebx:       no swapgs flag (1: don't need swapgs, 0: need it) */
+@@ -1517,7 +1905,7 @@ ENTRY(error_exit)
+       jnz retint_careful
+       jmp retint_swapgs
+       CFI_ENDPROC
+-END(error_exit)
++ENDPROC(error_exit)
+       /* runs on exception stack */
+@@ -1529,6 +1917,16 @@ ENTRY(nmi)
+       CFI_ADJUST_CFA_OFFSET 15*8
+       call save_paranoid
+       DEFAULT_FRAME 0
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      testb $3, CS(%rsp)
++      jnz 1f
++      pax_enter_kernel
++      jmp 2f
++1:    pax_enter_kernel_user
++2:
++#else
++      pax_enter_kernel
++#endif
+       /* paranoidentry do_nmi, 0; without TRACE_IRQS_OFF */
+       movq %rsp,%rdi
+       movq $-1,%rsi
+@@ -1539,12 +1937,28 @@ ENTRY(nmi)
+       DISABLE_INTERRUPTS(CLBR_NONE)
+       testl %ebx,%ebx                         /* swapgs needed? */
+       jnz nmi_restore
+-      testl $3,CS(%rsp)
++      testb $3,CS(%rsp)
+       jnz nmi_userspace
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pax_exit_kernel
++      SWAPGS_UNSAFE_STACK
++      RESTORE_ALL 8
++      pax_force_retaddr_bts
++      jmp irq_return
++#endif
+ nmi_swapgs:
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pax_exit_kernel_user
++#else
++      pax_exit_kernel
++#endif
+       SWAPGS_UNSAFE_STACK
++      RESTORE_ALL 8
++      jmp irq_return
+ nmi_restore:
++      pax_exit_kernel
+       RESTORE_ALL 8
++      pax_force_retaddr_bts
+       jmp irq_return
+ nmi_userspace:
+       GET_THREAD_INFO(%rcx)
+@@ -1573,14 +1987,14 @@ nmi_schedule:
+       jmp paranoid_exit
+       CFI_ENDPROC
+ #endif
+-END(nmi)
++ENDPROC(nmi)
+ ENTRY(ignore_sysret)
+       CFI_STARTPROC
+       mov $-ENOSYS,%eax
+       sysret
+       CFI_ENDPROC
+-END(ignore_sysret)
++ENDPROC(ignore_sysret)
+ /*
+  * End of kprobes section
+diff --git a/arch/x86/kernel/ftrace.c b/arch/x86/kernel/ftrace.c
+index 9dbb527..7b3615a 100644
+--- a/arch/x86/kernel/ftrace.c
++++ b/arch/x86/kernel/ftrace.c
+@@ -103,7 +103,7 @@ static void *mod_code_ip;          /* holds the IP to write to */
+ static void *mod_code_newcode;                /* holds the text to write to the IP */
+ static unsigned nmi_wait_count;
+-static atomic_t nmi_update_count = ATOMIC_INIT(0);
++static atomic_unchecked_t nmi_update_count = ATOMIC_INIT(0);
+ int ftrace_arch_read_dyn_info(char *buf, int size)
+ {
+@@ -111,7 +111,7 @@ int ftrace_arch_read_dyn_info(char *buf, int size)
+       r = snprintf(buf, size, "%u %u",
+                    nmi_wait_count,
+-                   atomic_read(&nmi_update_count));
++                   atomic_read_unchecked(&nmi_update_count));
+       return r;
+ }
+@@ -149,8 +149,10 @@ void ftrace_nmi_enter(void)
+ {
+       if (atomic_inc_return(&nmi_running) & MOD_CODE_WRITE_FLAG) {
+               smp_rmb();
++              pax_open_kernel();
+               ftrace_mod_code();
+-              atomic_inc(&nmi_update_count);
++              pax_close_kernel();
++              atomic_inc_unchecked(&nmi_update_count);
+       }
+       /* Must have previous changes seen before executions */
+       smp_mb();
+@@ -215,7 +217,7 @@ do_ftrace_mod_code(unsigned long ip, void *new_code)
+-static unsigned char ftrace_nop[MCOUNT_INSN_SIZE];
++static unsigned char ftrace_nop[MCOUNT_INSN_SIZE] __read_only;
+ static unsigned char *ftrace_nop_replace(void)
+ {
+@@ -228,6 +230,8 @@ ftrace_modify_code(unsigned long ip, unsigned char *old_code,
+ {
+       unsigned char replaced[MCOUNT_INSN_SIZE];
++      ip = ktla_ktva(ip);
++
+       /*
+        * Note: Due to modules and __init, code can
+        *  disappear and change, we need to protect against faulting
+@@ -284,7 +288,7 @@ int ftrace_update_ftrace_func(ftrace_func_t func)
+       unsigned char old[MCOUNT_INSN_SIZE], *new;
+       int ret;
+-      memcpy(old, &ftrace_call, MCOUNT_INSN_SIZE);
++      memcpy(old, (void *)ktla_ktva((unsigned long)ftrace_call), MCOUNT_INSN_SIZE);
+       new = ftrace_call_replace(ip, (unsigned long)func);
+       ret = ftrace_modify_code(ip, old, new);
+@@ -337,15 +341,15 @@ int __init ftrace_dyn_arch_init(void *data)
+       switch (faulted) {
+       case 0:
+               pr_info("ftrace: converting mcount calls to 0f 1f 44 00 00\n");
+-              memcpy(ftrace_nop, ftrace_test_p6nop, MCOUNT_INSN_SIZE);
++              memcpy(ftrace_nop, ktla_ktva(ftrace_test_p6nop), MCOUNT_INSN_SIZE);
+               break;
+       case 1:
+               pr_info("ftrace: converting mcount calls to 66 66 66 66 90\n");
+-              memcpy(ftrace_nop, ftrace_test_nop5, MCOUNT_INSN_SIZE);
++              memcpy(ftrace_nop, ktla_ktva(ftrace_test_nop5), MCOUNT_INSN_SIZE);
+               break;
+       case 2:
+               pr_info("ftrace: converting mcount calls to jmp . + 5\n");
+-              memcpy(ftrace_nop, ftrace_test_jmp, MCOUNT_INSN_SIZE);
++              memcpy(ftrace_nop, ktla_ktva(ftrace_test_jmp), MCOUNT_INSN_SIZE);
+               break;
+       }
+@@ -366,6 +370,8 @@ static int ftrace_mod_jmp(unsigned long ip,
+ {
+       unsigned char code[MCOUNT_INSN_SIZE];
++      ip = ktla_ktva(ip);
++
+       if (probe_kernel_read(code, (void *)ip, MCOUNT_INSN_SIZE))
+               return -EFAULT;
+diff --git a/arch/x86/kernel/head32.c b/arch/x86/kernel/head32.c
+index 4f8e250..df24706 100644
+--- a/arch/x86/kernel/head32.c
++++ b/arch/x86/kernel/head32.c
+@@ -16,6 +16,7 @@
+ #include <asm/apic.h>
+ #include <asm/io_apic.h>
+ #include <asm/bios_ebda.h>
++#include <asm/boot.h>
+ static void __init i386_default_early_setup(void)
+ {
+@@ -31,7 +32,7 @@ void __init i386_start_kernel(void)
+ {
+       reserve_trampoline_memory();
+-      reserve_early(__pa_symbol(&_text), __pa_symbol(&__bss_stop), "TEXT DATA BSS");
++      reserve_early(LOAD_PHYSICAL_ADDR, __pa_symbol(&__bss_stop), "TEXT DATA BSS");
+ #ifdef CONFIG_BLK_DEV_INITRD
+       /* Reserve INITRD */
+diff --git a/arch/x86/kernel/head_32.S b/arch/x86/kernel/head_32.S
+index 34c3308..6fc4e76 100644
+--- a/arch/x86/kernel/head_32.S
++++ b/arch/x86/kernel/head_32.S
+@@ -19,10 +19,17 @@
+ #include <asm/setup.h>
+ #include <asm/processor-flags.h>
+ #include <asm/percpu.h>
++#include <asm/msr-index.h>
+ /* Physical address */
+ #define pa(X) ((X) - __PAGE_OFFSET)
++#ifdef CONFIG_PAX_KERNEXEC
++#define ta(X) (X)
++#else
++#define ta(X) ((X) - __PAGE_OFFSET)
++#endif
++
+ /*
+  * References to members of the new_cpu_data structure.
+  */
+@@ -52,11 +59,7 @@
+  * and small than max_low_pfn, otherwise will waste some page table entries
+  */
+-#if PTRS_PER_PMD > 1
+-#define PAGE_TABLE_SIZE(pages) (((pages) / PTRS_PER_PMD) + PTRS_PER_PGD)
+-#else
+-#define PAGE_TABLE_SIZE(pages) ((pages) / PTRS_PER_PGD)
+-#endif
++#define PAGE_TABLE_SIZE(pages) ((pages) / PTRS_PER_PTE)
+ /* Enough space to fit pagetables for the low memory linear map */
+ MAPPING_BEYOND_END = \
+@@ -73,6 +76,12 @@ INIT_MAP_SIZE = PAGE_TABLE_SIZE(KERNEL_PAGES) * PAGE_SIZE_asm
+ RESERVE_BRK(pagetables, INIT_MAP_SIZE)
+ /*
++ * Real beginning of normal "text" segment
++ */
++ENTRY(stext)
++ENTRY(_stext)
++
++/*
+  * 32-bit kernel entrypoint; only used by the boot CPU.  On entry,
+  * %esi points to the real-mode code as a 32-bit pointer.
+  * CS and DS must be 4 GB flat segments, but we don't depend on
+@@ -80,7 +89,16 @@ RESERVE_BRK(pagetables, INIT_MAP_SIZE)
+  * can.
+  */
+ __HEAD
++
++#ifdef CONFIG_PAX_KERNEXEC
++      jmp startup_32
++/* PaX: fill first page in .text with int3 to catch NULL derefs in kernel mode */
++.fill PAGE_SIZE-5,1,0xcc
++#endif
++
+ ENTRY(startup_32)
++      movl pa(stack_start),%ecx
++
+       /* test KEEP_SEGMENTS flag to see if the bootloader is asking
+               us to not reload segments */
+       testb $(1<<6), BP_loadflags(%esi)
+@@ -95,7 +113,60 @@ ENTRY(startup_32)
+       movl %eax,%es
+       movl %eax,%fs
+       movl %eax,%gs
++      movl %eax,%ss
+ 2:
++      leal -__PAGE_OFFSET(%ecx),%esp
++
++#ifdef CONFIG_SMP
++      movl $pa(cpu_gdt_table),%edi
++      movl $__per_cpu_load,%eax
++      movw %ax,__KERNEL_PERCPU + 2(%edi)
++      rorl $16,%eax
++      movb %al,__KERNEL_PERCPU + 4(%edi)
++      movb %ah,__KERNEL_PERCPU + 7(%edi)
++      movl $__per_cpu_end - 1,%eax
++      subl $__per_cpu_start,%eax
++      movw %ax,__KERNEL_PERCPU + 0(%edi)
++#endif
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      movl $NR_CPUS,%ecx
++      movl $pa(cpu_gdt_table),%edi
++1:
++      movl $((((__PAGE_OFFSET-1) & 0xf0000000) >> 12) | 0x00c09700),GDT_ENTRY_KERNEL_DS * 8 + 4(%edi)
++      movl $((((__PAGE_OFFSET-1) & 0xf0000000) >> 12) | 0x00c0fb00),GDT_ENTRY_DEFAULT_USER_CS * 8 + 4(%edi)
++      movl $((((__PAGE_OFFSET-1) & 0xf0000000) >> 12) | 0x00c0f300),GDT_ENTRY_DEFAULT_USER_DS * 8 + 4(%edi)
++      addl $PAGE_SIZE_asm,%edi
++      loop 1b
++#endif
++
++#ifdef CONFIG_PAX_KERNEXEC
++      movl $pa(boot_gdt),%edi
++      movl $__LOAD_PHYSICAL_ADDR,%eax
++      movw %ax,__BOOT_CS + 2(%edi)
++      rorl $16,%eax
++      movb %al,__BOOT_CS + 4(%edi)
++      movb %ah,__BOOT_CS + 7(%edi)
++      rorl $16,%eax
++
++      ljmp $(__BOOT_CS),$1f
++1:
++
++      movl $NR_CPUS,%ecx
++      movl $pa(cpu_gdt_table),%edi
++      addl $__PAGE_OFFSET,%eax
++1:
++      movw %ax,__KERNEL_CS + 2(%edi)
++      movw %ax,__KERNEXEC_KERNEL_CS + 2(%edi)
++      rorl $16,%eax
++      movb %al,__KERNEL_CS + 4(%edi)
++      movb %al,__KERNEXEC_KERNEL_CS + 4(%edi)
++      movb %ah,__KERNEL_CS + 7(%edi)
++      movb %ah,__KERNEXEC_KERNEL_CS + 7(%edi)
++      rorl $16,%eax
++      addl $PAGE_SIZE_asm,%edi
++      loop 1b
++#endif
+ /*
+  * Clear BSS first so that there are no surprises...
+@@ -140,9 +211,7 @@ ENTRY(startup_32)
+       cmpl $num_subarch_entries, %eax
+       jae bad_subarch
+-      movl pa(subarch_entries)(,%eax,4), %eax
+-      subl $__PAGE_OFFSET, %eax
+-      jmp *%eax
++      jmp *pa(subarch_entries)(,%eax,4)
+ bad_subarch:
+ WEAK(lguest_entry)
+@@ -154,10 +223,10 @@ WEAK(xen_entry)
+       __INITDATA
+ subarch_entries:
+-      .long default_entry             /* normal x86/PC */
+-      .long lguest_entry              /* lguest hypervisor */
+-      .long xen_entry                 /* Xen hypervisor */
+-      .long default_entry             /* Moorestown MID */
++      .long ta(default_entry)         /* normal x86/PC */
++      .long ta(lguest_entry)          /* lguest hypervisor */
++      .long ta(xen_entry)             /* Xen hypervisor */
++      .long ta(default_entry)         /* Moorestown MID */
+ num_subarch_entries = (. - subarch_entries) / 4
+ .previous
+ #endif /* CONFIG_PARAVIRT */
+@@ -218,8 +287,11 @@ default_entry:
+       movl %eax, pa(max_pfn_mapped)
+       /* Do early initialization of the fixmap area */
+-      movl $pa(swapper_pg_fixmap)+PDE_IDENT_ATTR,%eax
+-      movl %eax,pa(swapper_pg_pmd+0x1000*KPMDS-8)
++#ifdef CONFIG_COMPAT_VDSO
++      movl $pa(swapper_pg_fixmap)+PDE_IDENT_ATTR+_PAGE_USER,pa(swapper_pg_pmd+0x1000*KPMDS-8)
++#else
++      movl $pa(swapper_pg_fixmap)+PDE_IDENT_ATTR,pa(swapper_pg_pmd+0x1000*KPMDS-8)
++#endif
+ #else /* Not PAE */
+ page_pde_offset = (__PAGE_OFFSET >> 20);
+@@ -249,8 +321,11 @@ page_pde_offset = (__PAGE_OFFSET >> 20);
+       movl %eax, pa(max_pfn_mapped)
+       /* Do early initialization of the fixmap area */
+-      movl $pa(swapper_pg_fixmap)+PDE_IDENT_ATTR,%eax
+-      movl %eax,pa(swapper_pg_dir+0xffc)
++#ifdef CONFIG_COMPAT_VDSO
++      movl $pa(swapper_pg_fixmap)+PDE_IDENT_ATTR+_PAGE_USER,pa(swapper_pg_dir+0xffc)
++#else
++      movl $pa(swapper_pg_fixmap)+PDE_IDENT_ATTR,pa(swapper_pg_dir+0xffc)
++#endif
+ #endif
+       jmp 3f
+ /*
+@@ -272,6 +347,9 @@ ENTRY(startup_32_smp)
+       movl %eax,%es
+       movl %eax,%fs
+       movl %eax,%gs
++      movl pa(stack_start),%ecx
++      movl %eax,%ss
++      leal -__PAGE_OFFSET(%ecx),%esp
+ #endif /* CONFIG_SMP */
+ 3:
+@@ -297,6 +375,7 @@ ENTRY(startup_32_smp)
+       orl %edx,%eax
+       movl %eax,%cr4
++#ifdef CONFIG_X86_PAE
+       btl $5, %eax            # check if PAE is enabled
+       jnc 6f
+@@ -305,6 +384,10 @@ ENTRY(startup_32_smp)
+       cpuid
+       cmpl $0x80000000, %eax
+       jbe 6f
++
++      /* Clear bogus XD_DISABLE bits */
++      call verify_cpu
++
+       mov $0x80000001, %eax
+       cpuid
+       /* Execute Disable bit supported? */
+@@ -312,13 +395,17 @@ ENTRY(startup_32_smp)
+       jnc 6f
+       /* Setup EFER (Extended Feature Enable Register) */
+-      movl $0xc0000080, %ecx
++      movl $MSR_EFER, %ecx
+       rdmsr
+       btsl $11, %eax
+       /* Make changes effective */
+       wrmsr
++      btsl $_PAGE_BIT_NX-32,pa(__supported_pte_mask+4)
++      movl $1,pa(nx_enabled)
++#endif
++
+ 6:
+ /*
+@@ -331,8 +418,8 @@ ENTRY(startup_32_smp)
+       movl %eax,%cr0          /* ..and set paging (PG) bit */
+       ljmp $__BOOT_CS,$1f     /* Clear prefetch and normalize %eip */
+ 1:
+-      /* Set up the stack pointer */
+-      lss stack_start,%esp
++      /* Shift the stack pointer to a virtual address */
++      addl $__PAGE_OFFSET, %esp
+ /*
+  * Initialize eflags.  Some BIOS's leave bits like NT set.  This would
+@@ -344,9 +431,7 @@ ENTRY(startup_32_smp)
+ #ifdef CONFIG_SMP
+       cmpb $0, ready
+-      jz  1f                          /* Initial CPU cleans BSS */
+-      jmp checkCPUtype
+-1:
++      jnz checkCPUtype
+ #endif /* CONFIG_SMP */
+ /*
+@@ -424,7 +509,7 @@ is386:     movl $2,%ecx            # set MP
+ 1:    movl $(__KERNEL_DS),%eax        # reload all the segment registers
+       movl %eax,%ss                   # after changing gdt.
+-      movl $(__USER_DS),%eax          # DS/ES contains default USER segment
++#     movl $(__KERNEL_DS),%eax        # DS/ES contains default KERNEL segment
+       movl %eax,%ds
+       movl %eax,%es
+@@ -438,15 +523,22 @@ is386:   movl $2,%ecx            # set MP
+        */
+       cmpb $0,ready
+       jne 1f
+-      movl $per_cpu__gdt_page,%eax
++      movl $cpu_gdt_table,%eax
+       movl $per_cpu__stack_canary,%ecx
++#ifdef CONFIG_SMP
++      addl $__per_cpu_load,%ecx
++#endif
+       movw %cx, 8 * GDT_ENTRY_STACK_CANARY + 2(%eax)
+       shrl $16, %ecx
+       movb %cl, 8 * GDT_ENTRY_STACK_CANARY + 4(%eax)
+       movb %ch, 8 * GDT_ENTRY_STACK_CANARY + 7(%eax)
+ 1:
+-#endif
+       movl $(__KERNEL_STACK_CANARY),%eax
++#elif defined(CONFIG_PAX_MEMORY_UDEREF)
++      movl $(__USER_DS),%eax
++#else
++      xorl %eax,%eax
++#endif
+       movl %eax,%gs
+       xorl %eax,%eax                  # Clear LDT
+@@ -454,14 +546,7 @@ is386:    movl $2,%ecx            # set MP
+       cld                     # gcc2 wants the direction flag cleared at all times
+       pushl $0                # fake return address for unwinder
+-#ifdef CONFIG_SMP
+-      movb ready, %cl
+       movb $1, ready
+-      cmpb $0,%cl             # the first CPU calls start_kernel
+-      je   1f
+-      movl (stack_start), %esp
+-1:
+-#endif /* CONFIG_SMP */
+       jmp *(initial_code)
+ /*
+@@ -546,22 +631,22 @@ early_page_fault:
+       jmp early_fault
+ early_fault:
+-      cld
+ #ifdef CONFIG_PRINTK
++      cmpl $1,%ss:early_recursion_flag
++      je hlt_loop
++      incl %ss:early_recursion_flag
++      cld
+       pusha
+       movl $(__KERNEL_DS),%eax
+       movl %eax,%ds
+       movl %eax,%es
+-      cmpl $2,early_recursion_flag
+-      je hlt_loop
+-      incl early_recursion_flag
+       movl %cr2,%eax
+       pushl %eax
+       pushl %edx              /* trapno */
+       pushl $fault_msg
+       call printk
++;     call dump_stack
+ #endif
+-      call dump_stack
+ hlt_loop:
+       hlt
+       jmp hlt_loop
+@@ -569,8 +654,11 @@ hlt_loop:
+ /* This is the default interrupt "handler" :-) */
+       ALIGN
+ ignore_int:
+-      cld
+ #ifdef CONFIG_PRINTK
++      cmpl $2,%ss:early_recursion_flag
++      je hlt_loop
++      incl %ss:early_recursion_flag
++      cld
+       pushl %eax
+       pushl %ecx
+       pushl %edx
+@@ -579,9 +667,6 @@ ignore_int:
+       movl $(__KERNEL_DS),%eax
+       movl %eax,%ds
+       movl %eax,%es
+-      cmpl $2,early_recursion_flag
+-      je hlt_loop
+-      incl early_recursion_flag
+       pushl 16(%esp)
+       pushl 24(%esp)
+       pushl 32(%esp)
+@@ -600,6 +685,8 @@ ignore_int:
+ #endif
+       iret
++#include "verify_cpu.S"
++
+       __REFDATA
+ .align 4
+ ENTRY(initial_code)
+@@ -610,31 +697,47 @@ ENTRY(initial_page_table)
+ /*
+  * BSS section
+  */
+-__PAGE_ALIGNED_BSS
+-      .align PAGE_SIZE_asm
+ #ifdef CONFIG_X86_PAE
++.section .swapper_pg_pmd,"a",@progbits
+ swapper_pg_pmd:
+       .fill 1024*KPMDS,4,0
+ #else
++.section .swapper_pg_dir,"a",@progbits
+ ENTRY(swapper_pg_dir)
+       .fill 1024,4,0
+ #endif
++.section .swapper_pg_fixmap,"a",@progbits
+ swapper_pg_fixmap:
+       .fill 1024,4,0
+ #ifdef CONFIG_X86_TRAMPOLINE
++.section .trampoline_pg_dir,"a",@progbits
+ ENTRY(trampoline_pg_dir)
++#ifdef CONFIG_X86_PAE
++      .fill 4,8,0
++#else
+       .fill 1024,4,0
+ #endif
++#endif
++
++.section .empty_zero_page,"a",@progbits
+ ENTRY(empty_zero_page)
+       .fill 4096,1,0
+ /*
++ * The IDT has to be page-aligned to simplify the Pentium
++ * F0 0F bug workaround.. We have a special link segment
++ * for this.
++ */
++.section .idt,"a",@progbits
++ENTRY(idt_table)
++      .fill 256,8,0
++
++/*
+  * This starts the data section.
+  */
+ #ifdef CONFIG_X86_PAE
+-__PAGE_ALIGNED_DATA
+-      /* Page-aligned for the benefit of paravirt? */
+-      .align PAGE_SIZE_asm
++.section .swapper_pg_dir,"a",@progbits
++
+ ENTRY(swapper_pg_dir)
+       .long   pa(swapper_pg_pmd+PGD_IDENT_ATTR),0     /* low identity map */
+ # if KPMDS == 3
+@@ -653,15 +756,24 @@ ENTRY(swapper_pg_dir)
+ #  error "Kernel PMDs should be 1, 2 or 3"
+ # endif
+       .align PAGE_SIZE_asm            /* needs to be page-sized too */
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++ENTRY(cpu_pgd)
++      .rept NR_CPUS
++      .fill   4,8,0
++      .endr
++#endif
++
+ #endif
+ .data
++.balign 4
+ ENTRY(stack_start)
+-      .long init_thread_union+THREAD_SIZE
+-      .long __BOOT_DS
++      .long init_thread_union+THREAD_SIZE-8
+ ready:        .byte 0
++.section .rodata,"a",@progbits
+ early_recursion_flag:
+       .long 0
+@@ -697,7 +809,7 @@ fault_msg:
+       .word 0                         # 32 bit align gdt_desc.address
+ boot_gdt_descr:
+       .word __BOOT_DS+7
+-      .long boot_gdt - __PAGE_OFFSET
++      .long pa(boot_gdt)
+       .word 0                         # 32-bit align idt_desc.address
+ idt_descr:
+@@ -708,7 +820,7 @@ idt_descr:
+       .word 0                         # 32 bit align gdt_desc.address
+ ENTRY(early_gdt_descr)
+       .word GDT_ENTRIES*8-1
+-      .long per_cpu__gdt_page         /* Overwritten for secondary CPUs */
++      .long cpu_gdt_table             /* Overwritten for secondary CPUs */
+ /*
+  * The boot_gdt must mirror the equivalent in setup.S and is
+@@ -717,5 +829,65 @@ ENTRY(early_gdt_descr)
+       .align L1_CACHE_BYTES
+ ENTRY(boot_gdt)
+       .fill GDT_ENTRY_BOOT_CS,8,0
+-      .quad 0x00cf9a000000ffff        /* kernel 4GB code at 0x00000000 */
+-      .quad 0x00cf92000000ffff        /* kernel 4GB data at 0x00000000 */
++      .quad 0x00cf9b000000ffff        /* kernel 4GB code at 0x00000000 */
++      .quad 0x00cf93000000ffff        /* kernel 4GB data at 0x00000000 */
++
++      .align PAGE_SIZE_asm
++ENTRY(cpu_gdt_table)
++      .rept NR_CPUS
++      .quad 0x0000000000000000        /* NULL descriptor */
++      .quad 0x0000000000000000        /* 0x0b reserved */
++      .quad 0x0000000000000000        /* 0x13 reserved */
++      .quad 0x0000000000000000        /* 0x1b reserved */
++
++#ifdef CONFIG_PAX_KERNEXEC
++      .quad 0x00cf9b000000ffff        /* 0x20 alternate kernel 4GB code at 0x00000000 */
++#else
++      .quad 0x0000000000000000        /* 0x20 unused */
++#endif
++
++      .quad 0x0000000000000000        /* 0x28 unused */
++      .quad 0x0000000000000000        /* 0x33 TLS entry 1 */
++      .quad 0x0000000000000000        /* 0x3b TLS entry 2 */
++      .quad 0x0000000000000000        /* 0x43 TLS entry 3 */
++      .quad 0x0000000000000000        /* 0x4b reserved */
++      .quad 0x0000000000000000        /* 0x53 reserved */
++      .quad 0x0000000000000000        /* 0x5b reserved */
++
++      .quad 0x00cf9b000000ffff        /* 0x60 kernel 4GB code at 0x00000000 */
++      .quad 0x00cf93000000ffff        /* 0x68 kernel 4GB data at 0x00000000 */
++      .quad 0x00cffb000000ffff        /* 0x73 user 4GB code at 0x00000000 */
++      .quad 0x00cff3000000ffff        /* 0x7b user 4GB data at 0x00000000 */
++
++      .quad 0x0000000000000000        /* 0x80 TSS descriptor */
++      .quad 0x0000000000000000        /* 0x88 LDT descriptor */
++
++      /*
++       * Segments used for calling PnP BIOS have byte granularity.
++       * The code segments and data segments have fixed 64k limits,
++       * the transfer segment sizes are set at run time.
++       */
++      .quad 0x00409b000000ffff        /* 0x90 32-bit code */
++      .quad 0x00009b000000ffff        /* 0x98 16-bit code */
++      .quad 0x000093000000ffff        /* 0xa0 16-bit data */
++      .quad 0x0000930000000000        /* 0xa8 16-bit data */
++      .quad 0x0000930000000000        /* 0xb0 16-bit data */
++
++      /*
++       * The APM segments have byte granularity and their bases
++       * are set at run time.  All have 64k limits.
++       */
++      .quad 0x00409b000000ffff        /* 0xb8 APM CS    code */
++      .quad 0x00009b000000ffff        /* 0xc0 APM CS 16 code (16 bit) */
++      .quad 0x004093000000ffff        /* 0xc8 APM DS    data */
++
++      .quad 0x00c0930000000000        /* 0xd0 - ESPFIX SS */
++      .quad 0x0040930000000000        /* 0xd8 - PERCPU */
++      .quad 0x0040910000000017        /* 0xe0 - STACK_CANARY */
++      .quad 0x0000000000000000        /* 0xe8 - PCIBIOS_CS */
++      .quad 0x0000000000000000        /* 0xf0 - PCIBIOS_DS */
++      .quad 0x0000000000000000        /* 0xf8 - GDT entry 31: double-fault TSS */
++
++      /* Be sure this is zeroed to avoid false validations in Xen */
++      .fill PAGE_SIZE_asm - GDT_SIZE,1,0
++      .endr
+diff --git a/arch/x86/kernel/head_64.S b/arch/x86/kernel/head_64.S
+index 780cd92..758b2a6 100644
+--- a/arch/x86/kernel/head_64.S
++++ b/arch/x86/kernel/head_64.S
+@@ -19,6 +19,8 @@
+ #include <asm/cache.h>
+ #include <asm/processor-flags.h>
+ #include <asm/percpu.h>
++#include <asm/cpufeature.h>
++#include <asm/alternative-asm.h>
+ #ifdef CONFIG_PARAVIRT
+ #include <asm/asm-offsets.h>
+@@ -38,6 +40,12 @@ L4_PAGE_OFFSET = pgd_index(__PAGE_OFFSET)
+ L3_PAGE_OFFSET = pud_index(__PAGE_OFFSET)
+ L4_START_KERNEL = pgd_index(__START_KERNEL_map)
+ L3_START_KERNEL = pud_index(__START_KERNEL_map)
++L4_VMALLOC_START = pgd_index(VMALLOC_START)
++L3_VMALLOC_START = pud_index(VMALLOC_START)
++L4_VMALLOC_END = pgd_index(VMALLOC_END)
++L3_VMALLOC_END = pud_index(VMALLOC_END)
++L4_VMEMMAP_START = pgd_index(VMEMMAP_START)
++L3_VMEMMAP_START = pud_index(VMEMMAP_START)
+       .text
+       __HEAD
+@@ -85,35 +93,23 @@ startup_64:
+        */
+       addq    %rbp, init_level4_pgt + 0(%rip)
+       addq    %rbp, init_level4_pgt + (L4_PAGE_OFFSET*8)(%rip)
++      addq    %rbp, init_level4_pgt + (L4_VMALLOC_START*8)(%rip)
++      addq    %rbp, init_level4_pgt + (L4_VMALLOC_END*8)(%rip)
++      addq    %rbp, init_level4_pgt + (L4_VMEMMAP_START*8)(%rip)
+       addq    %rbp, init_level4_pgt + (L4_START_KERNEL*8)(%rip)
+       addq    %rbp, level3_ident_pgt + 0(%rip)
++#ifndef CONFIG_XEN
++      addq    %rbp, level3_ident_pgt + 8(%rip)
++#endif
+-      addq    %rbp, level3_kernel_pgt + (510*8)(%rip)
+-      addq    %rbp, level3_kernel_pgt + (511*8)(%rip)
++      addq    %rbp, level3_vmemmap_pgt + (L3_VMEMMAP_START*8)(%rip)
++
++      addq    %rbp, level3_kernel_pgt + (L3_START_KERNEL*8)(%rip)
++      addq    %rbp, level3_kernel_pgt + (L3_START_KERNEL*8+8)(%rip)
+       addq    %rbp, level2_fixmap_pgt + (506*8)(%rip)
+-
+-      /* Add an Identity mapping if I am above 1G */
+-      leaq    _text(%rip), %rdi
+-      andq    $PMD_PAGE_MASK, %rdi
+-
+-      movq    %rdi, %rax
+-      shrq    $PUD_SHIFT, %rax
+-      andq    $(PTRS_PER_PUD - 1), %rax
+-      jz      ident_complete
+-
+-      leaq    (level2_spare_pgt - __START_KERNEL_map + _KERNPG_TABLE)(%rbp), %rdx
+-      leaq    level3_ident_pgt(%rip), %rbx
+-      movq    %rdx, 0(%rbx, %rax, 8)
+-
+-      movq    %rdi, %rax
+-      shrq    $PMD_SHIFT, %rax
+-      andq    $(PTRS_PER_PMD - 1), %rax
+-      leaq    __PAGE_KERNEL_IDENT_LARGE_EXEC(%rdi), %rdx
+-      leaq    level2_spare_pgt(%rip), %rbx
+-      movq    %rdx, 0(%rbx, %rax, 8)
+-ident_complete:
++      addq    %rbp, level2_fixmap_pgt + (507*8)(%rip)
+       /*
+        * Fixup the kernel text+data virtual addresses. Note that
+@@ -161,8 +157,8 @@ ENTRY(secondary_startup_64)
+        * after the boot processor executes this code.
+        */
+-      /* Enable PAE mode and PGE */
+-      movl    $(X86_CR4_PAE | X86_CR4_PGE), %eax
++      /* Enable PAE mode and PSE/PGE */
++      movl    $(X86_CR4_PSE | X86_CR4_PAE | X86_CR4_PGE), %eax
+       movq    %rax, %cr4
+       /* Setup early boot stage 4 level pagetables. */
+@@ -184,9 +180,16 @@ ENTRY(secondary_startup_64)
+       movl    $MSR_EFER, %ecx
+       rdmsr
+       btsl    $_EFER_SCE, %eax        /* Enable System Call */
+-      btl     $20,%edi                /* No Execute supported? */
++      btl     $(X86_FEATURE_NX & 31),%edi     /* No Execute supported? */
+       jnc     1f
+       btsl    $_EFER_NX, %eax
++      leaq    init_level4_pgt(%rip), %rdi
++#ifndef CONFIG_EFI
++      btsq    $_PAGE_BIT_NX, 8*L4_PAGE_OFFSET(%rdi)
++#endif
++      btsq    $_PAGE_BIT_NX, 8*L4_VMALLOC_START(%rdi)
++      btsq    $_PAGE_BIT_NX, 8*L4_VMALLOC_END(%rdi)
++      btsq    $_PAGE_BIT_NX, 8*L4_VMEMMAP_START(%rdi)
+ 1:    wrmsr                           /* Make changes effective */
+       /* Setup cr0 */
+@@ -249,6 +252,7 @@ ENTRY(secondary_startup_64)
+        * jump.  In addition we need to ensure %cs is set so we make this
+        * a far return.
+        */
++      pax_set_fptr_mask
+       movq    initial_code(%rip),%rax
+       pushq   $0              # fake return address to stop unwinder
+       pushq   $__KERNEL_CS    # set correct cs
+@@ -262,16 +266,16 @@ ENTRY(secondary_startup_64)
+       .quad   x86_64_start_kernel
+       ENTRY(initial_gs)
+       .quad   INIT_PER_CPU_VAR(irq_stack_union)
+-      __FINITDATA
+       ENTRY(stack_start)
+       .quad  init_thread_union+THREAD_SIZE-8
+       .word  0
++      __FINITDATA
+ bad_address:
+       jmp bad_address
+-      .section ".init.text","ax"
++      __INIT
+ #ifdef CONFIG_EARLY_PRINTK
+       .globl early_idt_handlers
+ early_idt_handlers:
+@@ -316,18 +320,23 @@ ENTRY(early_idt_handler)
+ #endif /* EARLY_PRINTK */
+ 1:    hlt
+       jmp 1b
++      .previous
+ #ifdef CONFIG_EARLY_PRINTK
++      __INITDATA
+ early_recursion_flag:
+       .long 0
++      .previous
++      .section .rodata,"a",@progbits
+ early_idt_msg:
+       .asciz "PANIC: early exception %02lx rip %lx:%lx error %lx cr2 %lx\n"
+ early_idt_ripmsg:
+       .asciz "RIP %s\n"
++      .previous
+ #endif /* CONFIG_EARLY_PRINTK */
+-      .previous
++      .section .rodata,"a",@progbits
+ #define NEXT_PAGE(name) \
+       .balign PAGE_SIZE; \
+ ENTRY(name)
+@@ -350,13 +359,41 @@ NEXT_PAGE(init_level4_pgt)
+       .quad   level3_ident_pgt - __START_KERNEL_map + _KERNPG_TABLE
+       .org    init_level4_pgt + L4_PAGE_OFFSET*8, 0
+       .quad   level3_ident_pgt - __START_KERNEL_map + _KERNPG_TABLE
++      .org    init_level4_pgt + L4_VMALLOC_START*8, 0
++      .quad   level3_vmalloc_start_pgt - __START_KERNEL_map + _KERNPG_TABLE
++      .org    init_level4_pgt + L4_VMALLOC_END*8, 0
++      .quad   level3_vmalloc_end_pgt - __START_KERNEL_map + _KERNPG_TABLE
++      .org    init_level4_pgt + L4_VMEMMAP_START*8, 0
++      .quad   level3_vmemmap_pgt - __START_KERNEL_map + _KERNPG_TABLE
+       .org    init_level4_pgt + L4_START_KERNEL*8, 0
+       /* (2^48-(2*1024*1024*1024))/(2^39) = 511 */
+       .quad   level3_kernel_pgt - __START_KERNEL_map + _PAGE_TABLE
++#ifdef CONFIG_PAX_PER_CPU_PGD
++NEXT_PAGE(cpu_pgd)
++      .rept NR_CPUS
++      .fill   512,8,0
++      .endr
++#endif
++
+ NEXT_PAGE(level3_ident_pgt)
+       .quad   level2_ident_pgt - __START_KERNEL_map + _KERNPG_TABLE
++#ifdef CONFIG_XEN
+       .fill   511,8,0
++#else
++      .quad   level2_ident_pgt + PAGE_SIZE - __START_KERNEL_map + _KERNPG_TABLE
++      .fill   510,8,0
++#endif
++
++NEXT_PAGE(level3_vmalloc_start_pgt)
++      .fill   512,8,0
++
++NEXT_PAGE(level3_vmalloc_end_pgt)
++      .fill   512,8,0
++
++NEXT_PAGE(level3_vmemmap_pgt)
++      .fill   L3_VMEMMAP_START,8,0
++      .quad   level2_vmemmap_pgt - __START_KERNEL_map + _KERNPG_TABLE
+ NEXT_PAGE(level3_kernel_pgt)
+       .fill   L3_START_KERNEL,8,0
+@@ -364,20 +401,23 @@ NEXT_PAGE(level3_kernel_pgt)
+       .quad   level2_kernel_pgt - __START_KERNEL_map + _KERNPG_TABLE
+       .quad   level2_fixmap_pgt - __START_KERNEL_map + _PAGE_TABLE
++NEXT_PAGE(level2_vmemmap_pgt)
++      .fill   512,8,0
++
+ NEXT_PAGE(level2_fixmap_pgt)
+-      .fill   506,8,0
+-      .quad   level1_fixmap_pgt - __START_KERNEL_map + _PAGE_TABLE
+-      /* 8MB reserved for vsyscalls + a 2MB hole = 4 + 1 entries */
+-      .fill   5,8,0
++      .fill   507,8,0
++      .quad   level1_vsyscall_pgt - __START_KERNEL_map + _PAGE_TABLE
++      /* 6MB reserved for vsyscalls + a 2MB hole = 3 + 1 entries */
++      .fill   4,8,0
+-NEXT_PAGE(level1_fixmap_pgt)
++NEXT_PAGE(level1_vsyscall_pgt)
+       .fill   512,8,0
+-NEXT_PAGE(level2_ident_pgt)
+-      /* Since I easily can, map the first 1G.
++      /* Since I easily can, map the first 2G.
+        * Don't set NX because code runs from these pages.
+        */
+-      PMDS(0, __PAGE_KERNEL_IDENT_LARGE_EXEC, PTRS_PER_PMD)
++NEXT_PAGE(level2_ident_pgt)
++      PMDS(0, __PAGE_KERNEL_IDENT_LARGE_EXEC, 2*PTRS_PER_PMD)
+ NEXT_PAGE(level2_kernel_pgt)
+       /*
+@@ -390,33 +430,55 @@ NEXT_PAGE(level2_kernel_pgt)
+        *  If you want to increase this then increase MODULES_VADDR
+        *  too.)
+        */
+-      PMDS(0, __PAGE_KERNEL_LARGE_EXEC,
+-              KERNEL_IMAGE_SIZE/PMD_SIZE)
+-
+-NEXT_PAGE(level2_spare_pgt)
+-      .fill   512, 8, 0
++      PMDS(0, __PAGE_KERNEL_LARGE_EXEC, KERNEL_IMAGE_SIZE/PMD_SIZE)
+ #undef PMDS
+ #undef NEXT_PAGE
+-      .data
++      .align PAGE_SIZE
++ENTRY(cpu_gdt_table)
++      .rept NR_CPUS
++      .quad   0x0000000000000000      /* NULL descriptor */
++      .quad   0x00cf9b000000ffff      /* __KERNEL32_CS */
++      .quad   0x00af9b000000ffff      /* __KERNEL_CS */
++      .quad   0x00cf93000000ffff      /* __KERNEL_DS */
++      .quad   0x00cffb000000ffff      /* __USER32_CS */
++      .quad   0x00cff3000000ffff      /* __USER_DS, __USER32_DS  */
++      .quad   0x00affb000000ffff      /* __USER_CS */
++
++#ifdef CONFIG_PAX_KERNEXEC
++      .quad   0x00af9b000000ffff      /* __KERNEXEC_KERNEL_CS */
++#else
++      .quad   0x0                     /* unused */
++#endif
++
++      .quad   0,0                     /* TSS */
++      .quad   0,0                     /* LDT */
++      .quad   0,0,0                   /* three TLS descriptors */
++      .quad   0x0000f40000000000      /* node/CPU stored in limit */
++      /* asm/segment.h:GDT_ENTRIES must match this */
++
++      /* zero the remaining page */
++      .fill PAGE_SIZE / 8 - GDT_ENTRIES,8,0
++      .endr
++
+       .align 16
+       .globl early_gdt_descr
+ early_gdt_descr:
+       .word   GDT_ENTRIES*8-1
+ early_gdt_descr_base:
+-      .quad   INIT_PER_CPU_VAR(gdt_page)
++      .quad   cpu_gdt_table
+ ENTRY(phys_base)
+       /* This must match the first entry in level2_kernel_pgt */
+       .quad   0x0000000000000000
+ #include "../../x86/xen/xen-head.S"
+-      
+-      .section .bss, "aw", @nobits
++
++      .section .rodata,"a",@progbits
+       .align L1_CACHE_BYTES
+ ENTRY(idt_table)
+-      .skip IDT_ENTRIES * 16
++      .fill 512,8,0
+       __PAGE_ALIGNED_BSS
+       .align PAGE_SIZE
+diff --git a/arch/x86/kernel/i386_ksyms_32.c b/arch/x86/kernel/i386_ksyms_32.c
+index 9c3bd4a..e1d9b35 100644
+--- a/arch/x86/kernel/i386_ksyms_32.c
++++ b/arch/x86/kernel/i386_ksyms_32.c
+@@ -20,8 +20,12 @@ extern void cmpxchg8b_emu(void);
+ EXPORT_SYMBOL(cmpxchg8b_emu);
+ #endif
++EXPORT_SYMBOL_GPL(cpu_gdt_table);
++
+ /* Networking helper routines. */
+ EXPORT_SYMBOL(csum_partial_copy_generic);
++EXPORT_SYMBOL(csum_partial_copy_generic_to_user);
++EXPORT_SYMBOL(csum_partial_copy_generic_from_user);
+ EXPORT_SYMBOL(__get_user_1);
+ EXPORT_SYMBOL(__get_user_2);
+@@ -36,3 +40,7 @@ EXPORT_SYMBOL(strstr);
+ EXPORT_SYMBOL(csum_partial);
+ EXPORT_SYMBOL(empty_zero_page);
++
++#ifdef CONFIG_PAX_KERNEXEC
++EXPORT_SYMBOL(__LOAD_PHYSICAL_ADDR);
++#endif
+diff --git a/arch/x86/kernel/i8259.c b/arch/x86/kernel/i8259.c
+index df89102..a244320 100644
+--- a/arch/x86/kernel/i8259.c
++++ b/arch/x86/kernel/i8259.c
+@@ -208,7 +208,7 @@ spurious_8259A_irq:
+                              "spurious 8259A interrupt: IRQ%d.\n", irq);
+                       spurious_irq_mask |= irqmask;
+               }
+-              atomic_inc(&irq_err_count);
++              atomic_inc_unchecked(&irq_err_count);
+               /*
+                * Theoretically we do not have to handle this IRQ,
+                * but in Linux this does not cause problems and is
+diff --git a/arch/x86/kernel/init_task.c b/arch/x86/kernel/init_task.c
+index 3a54dcb..1c22348 100644
+--- a/arch/x86/kernel/init_task.c
++++ b/arch/x86/kernel/init_task.c
+@@ -20,8 +20,7 @@ static struct sighand_struct init_sighand = INIT_SIGHAND(init_sighand);
+  * way process stacks are handled. This is done by having a special
+  * "init_task" linker map entry..
+  */
+-union thread_union init_thread_union __init_task_data =
+-      { INIT_THREAD_INFO(init_task) };
++union thread_union init_thread_union __init_task_data;
+ /*
+  * Initial task structure.
+@@ -38,5 +37,5 @@ EXPORT_SYMBOL(init_task);
+  * section. Since TSS's are completely CPU-local, we want them
+  * on exact cacheline boundaries, to eliminate cacheline ping-pong.
+  */
+-DEFINE_PER_CPU_SHARED_ALIGNED(struct tss_struct, init_tss) = INIT_TSS;
+-
++struct tss_struct init_tss[NR_CPUS] ____cacheline_internodealigned_in_smp = { [0 ... NR_CPUS-1] = INIT_TSS };
++EXPORT_SYMBOL(init_tss);
+diff --git a/arch/x86/kernel/ioport.c b/arch/x86/kernel/ioport.c
+index 99c4d30..74c84e9 100644
+--- a/arch/x86/kernel/ioport.c
++++ b/arch/x86/kernel/ioport.c
+@@ -6,6 +6,7 @@
+ #include <linux/sched.h>
+ #include <linux/kernel.h>
+ #include <linux/capability.h>
++#include <linux/security.h>
+ #include <linux/errno.h>
+ #include <linux/types.h>
+ #include <linux/ioport.h>
+@@ -41,6 +42,12 @@ asmlinkage long sys_ioperm(unsigned long from, unsigned long num, int turn_on)
+       if ((from + num <= from) || (from + num > IO_BITMAP_BITS))
+               return -EINVAL;
++#ifdef CONFIG_GRKERNSEC_IO
++      if (turn_on && grsec_disable_privio) {
++              gr_handle_ioperm();
++              return -EPERM;
++      }
++#endif
+       if (turn_on && !capable(CAP_SYS_RAWIO))
+               return -EPERM;
+@@ -67,7 +74,7 @@ asmlinkage long sys_ioperm(unsigned long from, unsigned long num, int turn_on)
+        * because the ->io_bitmap_max value must match the bitmap
+        * contents:
+        */
+-      tss = &per_cpu(init_tss, get_cpu());
++      tss = init_tss + get_cpu();
+       set_bitmap(t->io_bitmap_ptr, from, num, !turn_on);
+@@ -111,6 +118,12 @@ static int do_iopl(unsigned int level, struct pt_regs *regs)
+               return -EINVAL;
+       /* Trying to gain more privileges? */
+       if (level > old) {
++#ifdef CONFIG_GRKERNSEC_IO
++              if (grsec_disable_privio) {
++                      gr_handle_iopl();
++                      return -EPERM;
++              }
++#endif
+               if (!capable(CAP_SYS_RAWIO))
+                       return -EPERM;
+       }
+diff --git a/arch/x86/kernel/irq.c b/arch/x86/kernel/irq.c
+index 04bbd52..83a07d9 100644
+--- a/arch/x86/kernel/irq.c
++++ b/arch/x86/kernel/irq.c
+@@ -15,7 +15,7 @@
+ #include <asm/mce.h>
+ #include <asm/hw_irq.h>
+-atomic_t irq_err_count;
++atomic_unchecked_t irq_err_count;
+ /* Function pointer for generic interrupt vector handling */
+ void (*generic_interrupt_extension)(void) = NULL;
+@@ -114,9 +114,9 @@ static int show_other_interrupts(struct seq_file *p, int prec)
+               seq_printf(p, "%10u ", per_cpu(mce_poll_count, j));
+       seq_printf(p, "  Machine check polls\n");
+ #endif
+-      seq_printf(p, "%*s: %10u\n", prec, "ERR", atomic_read(&irq_err_count));
++      seq_printf(p, "%*s: %10u\n", prec, "ERR", atomic_read_unchecked(&irq_err_count));
+ #if defined(CONFIG_X86_IO_APIC)
+-      seq_printf(p, "%*s: %10u\n", prec, "MIS", atomic_read(&irq_mis_count));
++      seq_printf(p, "%*s: %10u\n", prec, "MIS", atomic_read_unchecked(&irq_mis_count));
+ #endif
+       return 0;
+ }
+@@ -209,10 +209,10 @@ u64 arch_irq_stat_cpu(unsigned int cpu)
+ u64 arch_irq_stat(void)
+ {
+-      u64 sum = atomic_read(&irq_err_count);
++      u64 sum = atomic_read_unchecked(&irq_err_count);
+ #ifdef CONFIG_X86_IO_APIC
+-      sum += atomic_read(&irq_mis_count);
++      sum += atomic_read_unchecked(&irq_mis_count);
+ #endif
+       return sum;
+ }
+diff --git a/arch/x86/kernel/irq_32.c b/arch/x86/kernel/irq_32.c
+index 7d35d0f..03f1d52 100644
+--- a/arch/x86/kernel/irq_32.c
++++ b/arch/x86/kernel/irq_32.c
+@@ -35,7 +35,7 @@ static int check_stack_overflow(void)
+       __asm__ __volatile__("andl %%esp,%0" :
+                            "=r" (sp) : "0" (THREAD_SIZE - 1));
+-      return sp < (sizeof(struct thread_info) + STACK_WARN);
++      return sp < STACK_WARN;
+ }
+ static void print_stack_overflow(void)
+@@ -54,9 +54,9 @@ static inline void print_stack_overflow(void) { }
+  * per-CPU IRQ handling contexts (thread information and stack)
+  */
+ union irq_ctx {
+-      struct thread_info      tinfo;
+-      u32                     stack[THREAD_SIZE/sizeof(u32)];
+-} __attribute__((aligned(PAGE_SIZE)));
++      unsigned long           previous_esp;
++      u32                     stack[THREAD_SIZE/sizeof(u32)];
++} __attribute__((aligned(THREAD_SIZE)));
+ static DEFINE_PER_CPU(union irq_ctx *, hardirq_ctx);
+ static DEFINE_PER_CPU(union irq_ctx *, softirq_ctx);
+@@ -78,10 +78,9 @@ static void call_on_stack(void *func, void *stack)
+ static inline int
+ execute_on_irq_stack(int overflow, struct irq_desc *desc, int irq)
+ {
+-      union irq_ctx *curctx, *irqctx;
++      union irq_ctx *irqctx;
+       u32 *isp, arg1, arg2;
+-      curctx = (union irq_ctx *) current_thread_info();
+       irqctx = __get_cpu_var(hardirq_ctx);
+       /*
+@@ -90,21 +89,16 @@ execute_on_irq_stack(int overflow, struct irq_desc *desc, int irq)
+        * handler) we can't do that and just have to keep using the
+        * current stack (which is the irq stack already after all)
+        */
+-      if (unlikely(curctx == irqctx))
++      if (unlikely((void *)current_stack_pointer - (void *)irqctx < THREAD_SIZE))
+               return 0;
+       /* build the stack frame on the IRQ stack */
+-      isp = (u32 *) ((char *)irqctx + sizeof(*irqctx));
+-      irqctx->tinfo.task = curctx->tinfo.task;
+-      irqctx->tinfo.previous_esp = current_stack_pointer;
++      isp = (u32 *) ((char *)irqctx + sizeof(*irqctx) - 8);
++      irqctx->previous_esp = current_stack_pointer;
+-      /*
+-       * Copy the softirq bits in preempt_count so that the
+-       * softirq checks work in the hardirq context.
+-       */
+-      irqctx->tinfo.preempt_count =
+-              (irqctx->tinfo.preempt_count & ~SOFTIRQ_MASK) |
+-              (curctx->tinfo.preempt_count & SOFTIRQ_MASK);
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      __set_fs(MAKE_MM_SEG(0));
++#endif
+       if (unlikely(overflow))
+               call_on_stack(print_stack_overflow, isp);
+@@ -116,6 +110,11 @@ execute_on_irq_stack(int overflow, struct irq_desc *desc, int irq)
+                    :  "0" (irq),   "1" (desc),  "2" (isp),
+                       "D" (desc->handle_irq)
+                    : "memory", "cc", "ecx");
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      __set_fs(current_thread_info()->addr_limit);
++#endif
++
+       return 1;
+ }
+@@ -124,28 +123,11 @@ execute_on_irq_stack(int overflow, struct irq_desc *desc, int irq)
+  */
+ void __cpuinit irq_ctx_init(int cpu)
+ {
+-      union irq_ctx *irqctx;
+-
+       if (per_cpu(hardirq_ctx, cpu))
+               return;
+-      irqctx = &per_cpu(hardirq_stack, cpu);
+-      irqctx->tinfo.task              = NULL;
+-      irqctx->tinfo.exec_domain       = NULL;
+-      irqctx->tinfo.cpu               = cpu;
+-      irqctx->tinfo.preempt_count     = HARDIRQ_OFFSET;
+-      irqctx->tinfo.addr_limit        = MAKE_MM_SEG(0);
+-
+-      per_cpu(hardirq_ctx, cpu) = irqctx;
+-
+-      irqctx = &per_cpu(softirq_stack, cpu);
+-      irqctx->tinfo.task              = NULL;
+-      irqctx->tinfo.exec_domain       = NULL;
+-      irqctx->tinfo.cpu               = cpu;
+-      irqctx->tinfo.preempt_count     = 0;
+-      irqctx->tinfo.addr_limit        = MAKE_MM_SEG(0);
+-
+-      per_cpu(softirq_ctx, cpu) = irqctx;
++      per_cpu(hardirq_ctx, cpu) = &per_cpu(hardirq_stack, cpu);
++      per_cpu(softirq_ctx, cpu) = &per_cpu(softirq_stack, cpu);
+       printk(KERN_DEBUG "CPU %u irqstacks, hard=%p soft=%p\n",
+              cpu, per_cpu(hardirq_ctx, cpu),  per_cpu(softirq_ctx, cpu));
+@@ -159,7 +141,6 @@ void irq_ctx_exit(int cpu)
+ asmlinkage void do_softirq(void)
+ {
+       unsigned long flags;
+-      struct thread_info *curctx;
+       union irq_ctx *irqctx;
+       u32 *isp;
+@@ -169,15 +150,22 @@ asmlinkage void do_softirq(void)
+       local_irq_save(flags);
+       if (local_softirq_pending()) {
+-              curctx = current_thread_info();
+               irqctx = __get_cpu_var(softirq_ctx);
+-              irqctx->tinfo.task = curctx->task;
+-              irqctx->tinfo.previous_esp = current_stack_pointer;
++              irqctx->previous_esp = current_stack_pointer;
+               /* build the stack frame on the softirq stack */
+-              isp = (u32 *) ((char *)irqctx + sizeof(*irqctx));
++              isp = (u32 *) ((char *)irqctx + sizeof(*irqctx) - 8);
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              __set_fs(MAKE_MM_SEG(0));
++#endif
+               call_on_stack(__do_softirq, isp);
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              __set_fs(current_thread_info()->addr_limit);
++#endif
++
+               /*
+                * Shouldnt happen, we returned above if in_interrupt():
+                */
+diff --git a/arch/x86/kernel/kgdb.c b/arch/x86/kernel/kgdb.c
+index 8d82a77..0baf312 100644
+--- a/arch/x86/kernel/kgdb.c
++++ b/arch/x86/kernel/kgdb.c
+@@ -390,13 +390,13 @@ int kgdb_arch_handle_exception(int e_vector, int signo, int err_code,
+               /* clear the trace bit */
+               linux_regs->flags &= ~X86_EFLAGS_TF;
+-              atomic_set(&kgdb_cpu_doing_single_step, -1);
++              atomic_set_unchecked(&kgdb_cpu_doing_single_step, -1);
+               /* set the trace bit if we're stepping */
+               if (remcomInBuffer[0] == 's') {
+                       linux_regs->flags |= X86_EFLAGS_TF;
+                       kgdb_single_step = 1;
+-                      atomic_set(&kgdb_cpu_doing_single_step,
++                      atomic_set_unchecked(&kgdb_cpu_doing_single_step,
+                                  raw_smp_processor_id());
+               }
+@@ -476,7 +476,7 @@ static int __kgdb_notify(struct die_args *args, unsigned long cmd)
+               break;
+       case DIE_DEBUG:
+-              if (atomic_read(&kgdb_cpu_doing_single_step) ==
++              if (atomic_read_unchecked(&kgdb_cpu_doing_single_step) ==
+                   raw_smp_processor_id()) {
+                       if (user_mode(regs))
+                               return single_step_cont(regs, args);
+@@ -573,7 +573,7 @@ unsigned long kgdb_arch_pc(int exception, struct pt_regs *regs)
+       return instruction_pointer(regs);
+ }
+-struct kgdb_arch arch_kgdb_ops = {
++const struct kgdb_arch arch_kgdb_ops = {
+       /* Breakpoint instruction: */
+       .gdb_bpt_instr          = { 0xcc },
+       .flags                  = KGDB_HW_BREAKPOINT,
+diff --git a/arch/x86/kernel/kprobes.c b/arch/x86/kernel/kprobes.c
+index 7a67820..8d15b75 100644
+--- a/arch/x86/kernel/kprobes.c
++++ b/arch/x86/kernel/kprobes.c
+@@ -168,9 +168,13 @@ static void __kprobes set_jmp_op(void *from, void *to)
+               char op;
+               s32 raddr;
+       } __attribute__((packed)) * jop;
+-      jop = (struct __arch_jmp_op *)from;
++
++      jop = (struct __arch_jmp_op *)(ktla_ktva(from));
++
++      pax_open_kernel();
+       jop->raddr = (s32)((long)(to) - ((long)(from) + 5));
+       jop->op = RELATIVEJUMP_INSTRUCTION;
++      pax_close_kernel();
+ }
+ /*
+@@ -195,7 +199,7 @@ static int __kprobes can_boost(kprobe_opcode_t *opcodes)
+       kprobe_opcode_t opcode;
+       kprobe_opcode_t *orig_opcodes = opcodes;
+-      if (search_exception_tables((unsigned long)opcodes))
++      if (search_exception_tables(ktva_ktla((unsigned long)opcodes)))
+               return 0;       /* Page fault may occur on this address. */
+ retry:
+@@ -339,7 +343,9 @@ static void __kprobes fix_riprel(struct kprobe *p)
+                       disp = (u8 *) p->addr + *((s32 *) insn) -
+                              (u8 *) p->ainsn.insn;
+                       BUG_ON((s64) (s32) disp != disp); /* Sanity check.  */
++                      pax_open_kernel();
+                       *(s32 *)insn = (s32) disp;
++                      pax_close_kernel();
+               }
+       }
+ #endif
+@@ -347,16 +353,18 @@ static void __kprobes fix_riprel(struct kprobe *p)
+ static void __kprobes arch_copy_kprobe(struct kprobe *p)
+ {
+-      memcpy(p->ainsn.insn, p->addr, MAX_INSN_SIZE * sizeof(kprobe_opcode_t));
++      pax_open_kernel();
++      memcpy(p->ainsn.insn, ktla_ktva(p->addr), MAX_INSN_SIZE * sizeof(kprobe_opcode_t));
++      pax_close_kernel();
+       fix_riprel(p);
+-      if (can_boost(p->addr))
++      if (can_boost(ktla_ktva(p->addr)))
+               p->ainsn.boostable = 0;
+       else
+               p->ainsn.boostable = -1;
+-      p->opcode = *p->addr;
++      p->opcode = *(ktla_ktva(p->addr));
+ }
+ int __kprobes arch_prepare_kprobe(struct kprobe *p)
+@@ -434,7 +442,7 @@ static void __kprobes prepare_singlestep(struct kprobe *p, struct pt_regs *regs)
+       if (p->opcode == BREAKPOINT_INSTRUCTION)
+               regs->ip = (unsigned long)p->addr;
+       else
+-              regs->ip = (unsigned long)p->ainsn.insn;
++              regs->ip = ktva_ktla((unsigned long)p->ainsn.insn);
+ }
+ void __kprobes arch_prepare_kretprobe(struct kretprobe_instance *ri,
+@@ -455,7 +463,7 @@ static void __kprobes setup_singlestep(struct kprobe *p, struct pt_regs *regs,
+       if (p->ainsn.boostable == 1 && !p->post_handler) {
+               /* Boost up -- we can execute copied instructions directly */
+               reset_current_kprobe();
+-              regs->ip = (unsigned long)p->ainsn.insn;
++              regs->ip = ktva_ktla((unsigned long)p->ainsn.insn);
+               preempt_enable_no_resched();
+               return;
+       }
+@@ -525,7 +533,7 @@ static int __kprobes kprobe_handler(struct pt_regs *regs)
+       struct kprobe_ctlblk *kcb;
+       addr = (kprobe_opcode_t *)(regs->ip - sizeof(kprobe_opcode_t));
+-      if (*addr != BREAKPOINT_INSTRUCTION) {
++      if (*(kprobe_opcode_t *)ktla_ktva((unsigned long)addr) != BREAKPOINT_INSTRUCTION) {
+               /*
+                * The breakpoint instruction was removed right
+                * after we hit it.  Another cpu has removed
+@@ -637,6 +645,9 @@ static void __used __kprobes kretprobe_trampoline_holder(void)
+                       /* Skip orig_ax, ip, cs */
+                       "       addq $24, %rsp\n"
+                       "       popfq\n"
++#ifdef CONFIG_PAX_KERNEXEC_PLUGIN
++                      "       btsq $63,(%rsp)\n"
++#endif
+ #else
+                       "       pushf\n"
+                       /*
+@@ -777,7 +788,7 @@ static void __kprobes resume_execution(struct kprobe *p,
+               struct pt_regs *regs, struct kprobe_ctlblk *kcb)
+ {
+       unsigned long *tos = stack_addr(regs);
+-      unsigned long copy_ip = (unsigned long)p->ainsn.insn;
++      unsigned long copy_ip = ktva_ktla((unsigned long)p->ainsn.insn);
+       unsigned long orig_ip = (unsigned long)p->addr;
+       kprobe_opcode_t *insn = p->ainsn.insn;
+@@ -960,7 +971,7 @@ int __kprobes kprobe_exceptions_notify(struct notifier_block *self,
+       struct die_args *args = data;
+       int ret = NOTIFY_DONE;
+-      if (args->regs && user_mode_vm(args->regs))
++      if (args->regs && user_mode(args->regs))
+               return ret;
+       switch (val) {
+diff --git a/arch/x86/kernel/kvm.c b/arch/x86/kernel/kvm.c
+index 63b0ec8..6d92227 100644
+--- a/arch/x86/kernel/kvm.c
++++ b/arch/x86/kernel/kvm.c
+@@ -216,6 +216,7 @@ static void __init paravirt_ops_setup(void)
+               pv_mmu_ops.set_pud = kvm_set_pud;
+ #if PAGETABLE_LEVELS == 4
+               pv_mmu_ops.set_pgd = kvm_set_pgd;
++              pv_mmu_ops.set_pgd_batched = kvm_set_pgd;
+ #endif
+ #endif
+               pv_mmu_ops.flush_tlb_user = kvm_flush_tlb;
+diff --git a/arch/x86/kernel/ldt.c b/arch/x86/kernel/ldt.c
+index ec6ef60..ab2c824 100644
+--- a/arch/x86/kernel/ldt.c
++++ b/arch/x86/kernel/ldt.c
+@@ -66,13 +66,13 @@ static int alloc_ldt(mm_context_t *pc, int mincount, int reload)
+       if (reload) {
+ #ifdef CONFIG_SMP
+               preempt_disable();
+-              load_LDT(pc);
++              load_LDT_nolock(pc);
+               if (!cpumask_equal(mm_cpumask(current->mm),
+                                  cpumask_of(smp_processor_id())))
+                       smp_call_function(flush_ldt, current->mm, 1);
+               preempt_enable();
+ #else
+-              load_LDT(pc);
++              load_LDT_nolock(pc);
+ #endif
+       }
+       if (oldsize) {
+@@ -94,7 +94,7 @@ static inline int copy_ldt(mm_context_t *new, mm_context_t *old)
+               return err;
+       for (i = 0; i < old->size; i++)
+-              write_ldt_entry(new->ldt, i, old->ldt + i * LDT_ENTRY_SIZE);
++              write_ldt_entry(new->ldt, i, old->ldt + i);
+       return 0;
+ }
+@@ -115,6 +115,24 @@ int init_new_context(struct task_struct *tsk, struct mm_struct *mm)
+               retval = copy_ldt(&mm->context, &old_mm->context);
+               mutex_unlock(&old_mm->context.lock);
+       }
++
++      if (tsk == current) {
++              mm->context.vdso = 0;
++
++#ifdef CONFIG_X86_32
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++              mm->context.user_cs_base = 0UL;
++              mm->context.user_cs_limit = ~0UL;
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_SMP)
++              cpus_clear(mm->context.cpu_user_cs_mask);
++#endif
++
++#endif
++#endif
++
++      }
++
+       return retval;
+ }
+@@ -229,6 +247,13 @@ static int write_ldt(void __user *ptr, unsigned long bytecount, int oldmode)
+               }
+       }
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && (ldt_info.contents & MODIFY_LDT_CONTENTS_CODE)) {
++              error = -EINVAL;
++              goto out_unlock;
++      }
++#endif
++
+       fill_ldt(&ldt, &ldt_info);
+       if (oldmode)
+               ldt.avl = 0;
+diff --git a/arch/x86/kernel/machine_kexec_32.c b/arch/x86/kernel/machine_kexec_32.c
+index c1c429d..f02eaf9 100644
+--- a/arch/x86/kernel/machine_kexec_32.c
++++ b/arch/x86/kernel/machine_kexec_32.c
+@@ -26,7 +26,7 @@
+ #include <asm/system.h>
+ #include <asm/cacheflush.h>
+-static void set_idt(void *newidt, __u16 limit)
++static void set_idt(struct desc_struct *newidt, __u16 limit)
+ {
+       struct desc_ptr curidt;
+@@ -38,7 +38,7 @@ static void set_idt(void *newidt, __u16 limit)
+ }
+-static void set_gdt(void *newgdt, __u16 limit)
++static void set_gdt(struct desc_struct *newgdt, __u16 limit)
+ {
+       struct desc_ptr curgdt;
+@@ -217,7 +217,7 @@ void machine_kexec(struct kimage *image)
+       }
+       control_page = page_address(image->control_code_page);
+-      memcpy(control_page, relocate_kernel, KEXEC_CONTROL_CODE_MAX_SIZE);
++      memcpy(control_page, (void *)ktla_ktva((unsigned long)relocate_kernel), KEXEC_CONTROL_CODE_MAX_SIZE);
+       relocate_kernel_ptr = control_page;
+       page_list[PA_CONTROL_PAGE] = __pa(control_page);
+diff --git a/arch/x86/kernel/microcode_amd.c b/arch/x86/kernel/microcode_amd.c
+index 1e47679..e73449d 100644
+--- a/arch/x86/kernel/microcode_amd.c
++++ b/arch/x86/kernel/microcode_amd.c
+@@ -364,7 +364,7 @@ static void microcode_fini_cpu_amd(int cpu)
+       uci->mc = NULL;
+ }
+-static struct microcode_ops microcode_amd_ops = {
++static const struct microcode_ops microcode_amd_ops = {
+       .request_microcode_user           = request_microcode_user,
+       .request_microcode_fw             = request_microcode_fw,
+       .collect_cpu_info                 = collect_cpu_info_amd,
+@@ -372,7 +372,7 @@ static struct microcode_ops microcode_amd_ops = {
+       .microcode_fini_cpu               = microcode_fini_cpu_amd,
+ };
+-struct microcode_ops * __init init_amd_microcode(void)
++const struct microcode_ops * __init init_amd_microcode(void)
+ {
+       return &microcode_amd_ops;
+ }
+diff --git a/arch/x86/kernel/microcode_core.c b/arch/x86/kernel/microcode_core.c
+index 378e9a8..b5a6ea9 100644
+--- a/arch/x86/kernel/microcode_core.c
++++ b/arch/x86/kernel/microcode_core.c
+@@ -90,7 +90,7 @@ MODULE_LICENSE("GPL");
+ #define MICROCODE_VERSION     "2.00"
+-static struct microcode_ops   *microcode_ops;
++static const struct microcode_ops     *microcode_ops;
+ /*
+  * Synchronization.
+diff --git a/arch/x86/kernel/microcode_intel.c b/arch/x86/kernel/microcode_intel.c
+index 0d334dd..14cedaf 100644
+--- a/arch/x86/kernel/microcode_intel.c
++++ b/arch/x86/kernel/microcode_intel.c
+@@ -443,13 +443,13 @@ static enum ucode_state request_microcode_fw(int cpu, struct device *device)
+ static int get_ucode_user(void *to, const void *from, size_t n)
+ {
+-      return copy_from_user(to, from, n);
++      return copy_from_user(to, (const void __force_user *)from, n);
+ }
+ static enum ucode_state
+ request_microcode_user(int cpu, const void __user *buf, size_t size)
+ {
+-      return generic_load_microcode(cpu, (void *)buf, size, &get_ucode_user);
++      return generic_load_microcode(cpu, (__force_kernel void *)buf, size, &get_ucode_user);
+ }
+ static void microcode_fini_cpu(int cpu)
+@@ -460,7 +460,7 @@ static void microcode_fini_cpu(int cpu)
+       uci->mc = NULL;
+ }
+-static struct microcode_ops microcode_intel_ops = {
++static const struct microcode_ops microcode_intel_ops = {
+       .request_microcode_user           = request_microcode_user,
+       .request_microcode_fw             = request_microcode_fw,
+       .collect_cpu_info                 = collect_cpu_info,
+@@ -468,7 +468,7 @@ static struct microcode_ops microcode_intel_ops = {
+       .microcode_fini_cpu               = microcode_fini_cpu,
+ };
+-struct microcode_ops * __init init_intel_microcode(void)
++const struct microcode_ops * __init init_intel_microcode(void)
+ {
+       return &microcode_intel_ops;
+ }
+diff --git a/arch/x86/kernel/module.c b/arch/x86/kernel/module.c
+index 89f386f..9028f51 100644
+--- a/arch/x86/kernel/module.c
++++ b/arch/x86/kernel/module.c
+@@ -34,7 +34,7 @@
+ #define DEBUGP(fmt...)
+ #endif
+-void *module_alloc(unsigned long size)
++static void *__module_alloc(unsigned long size, pgprot_t prot)
+ {
+       struct vm_struct *area;
+@@ -48,8 +48,18 @@ void *module_alloc(unsigned long size)
+       if (!area)
+               return NULL;
+-      return __vmalloc_area(area, GFP_KERNEL | __GFP_HIGHMEM,
+-                                      PAGE_KERNEL_EXEC);
++      return __vmalloc_area(area, GFP_KERNEL | __GFP_HIGHMEM | __GFP_ZERO, prot);
++}
++
++void *module_alloc(unsigned long size)
++{
++
++#ifdef CONFIG_PAX_KERNEXEC
++      return __module_alloc(size, PAGE_KERNEL);
++#else
++      return __module_alloc(size, PAGE_KERNEL_EXEC);
++#endif
++
+ }
+ /* Free memory returned from module_alloc */
+@@ -58,6 +68,40 @@ void module_free(struct module *mod, void *module_region)
+       vfree(module_region);
+ }
++#ifdef CONFIG_PAX_KERNEXEC
++#ifdef CONFIG_X86_32
++void *module_alloc_exec(unsigned long size)
++{
++      struct vm_struct *area;
++
++      if (size == 0)
++              return NULL;
++
++      area = __get_vm_area(size, VM_ALLOC, (unsigned long)&MODULES_EXEC_VADDR, (unsigned long)&MODULES_EXEC_END);
++      return area ? area->addr : NULL;
++}
++EXPORT_SYMBOL(module_alloc_exec);
++
++void module_free_exec(struct module *mod, void *module_region)
++{
++      vunmap(module_region);
++}
++EXPORT_SYMBOL(module_free_exec);
++#else
++void module_free_exec(struct module *mod, void *module_region)
++{
++      module_free(mod, module_region);
++}
++EXPORT_SYMBOL(module_free_exec);
++
++void *module_alloc_exec(unsigned long size)
++{
++      return __module_alloc(size, PAGE_KERNEL_RX);
++}
++EXPORT_SYMBOL(module_alloc_exec);
++#endif
++#endif
++
+ /* We don't need anything special. */
+ int module_frob_arch_sections(Elf_Ehdr *hdr,
+                             Elf_Shdr *sechdrs,
+@@ -77,14 +121,16 @@ int apply_relocate(Elf32_Shdr *sechdrs,
+       unsigned int i;
+       Elf32_Rel *rel = (void *)sechdrs[relsec].sh_addr;
+       Elf32_Sym *sym;
+-      uint32_t *location;
++      uint32_t *plocation, location;
+       DEBUGP("Applying relocate section %u to %u\n", relsec,
+              sechdrs[relsec].sh_info);
+       for (i = 0; i < sechdrs[relsec].sh_size / sizeof(*rel); i++) {
+               /* This is where to make the change */
+-              location = (void *)sechdrs[sechdrs[relsec].sh_info].sh_addr
+-                      + rel[i].r_offset;
++              plocation = (void *)sechdrs[sechdrs[relsec].sh_info].sh_addr + rel[i].r_offset;
++              location = (uint32_t)plocation;
++              if (sechdrs[sechdrs[relsec].sh_info].sh_flags & SHF_EXECINSTR)
++                      plocation = ktla_ktva((void *)plocation);
+               /* This is the symbol it is referring to.  Note that all
+                  undefined symbols have been resolved.  */
+               sym = (Elf32_Sym *)sechdrs[symindex].sh_addr
+@@ -93,11 +139,15 @@ int apply_relocate(Elf32_Shdr *sechdrs,
+               switch (ELF32_R_TYPE(rel[i].r_info)) {
+               case R_386_32:
+                       /* We add the value into the location given */
+-                      *location += sym->st_value;
++                      pax_open_kernel();
++                      *plocation += sym->st_value;
++                      pax_close_kernel();
+                       break;
+               case R_386_PC32:
+                       /* Add the value, subtract its postition */
+-                      *location += sym->st_value - (uint32_t)location;
++                      pax_open_kernel();
++                      *plocation += sym->st_value - location;
++                      pax_close_kernel();
+                       break;
+               default:
+                       printk(KERN_ERR "module %s: Unknown relocation: %u\n",
+@@ -153,21 +203,30 @@ int apply_relocate_add(Elf64_Shdr *sechdrs,
+               case R_X86_64_NONE:
+                       break;
+               case R_X86_64_64:
++                      pax_open_kernel();
+                       *(u64 *)loc = val;
++                      pax_close_kernel();
+                       break;
+               case R_X86_64_32:
++                      pax_open_kernel();
+                       *(u32 *)loc = val;
++                      pax_close_kernel();
+                       if (val != *(u32 *)loc)
+                               goto overflow;
+                       break;
+               case R_X86_64_32S:
++                      pax_open_kernel();
+                       *(s32 *)loc = val;
++                      pax_close_kernel();
+                       if ((s64)val != *(s32 *)loc)
+                               goto overflow;
+                       break;
+               case R_X86_64_PC32:
+                       val -= (u64)loc;
++                      pax_open_kernel();
+                       *(u32 *)loc = val;
++                      pax_close_kernel();
++
+ #if 0
+                       if ((s64)val != *(s32 *)loc)
+                               goto overflow;
+diff --git a/arch/x86/kernel/paravirt-spinlocks.c b/arch/x86/kernel/paravirt-spinlocks.c
+index 3a7c5a4..9191528 100644
+--- a/arch/x86/kernel/paravirt-spinlocks.c
++++ b/arch/x86/kernel/paravirt-spinlocks.c
+@@ -13,7 +13,7 @@ default_spin_lock_flags(raw_spinlock_t *lock, unsigned long flags)
+       __raw_spin_lock(lock);
+ }
+-struct pv_lock_ops pv_lock_ops = {
++struct pv_lock_ops pv_lock_ops __read_only = {
+ #ifdef CONFIG_SMP
+       .spin_is_locked = __ticket_spin_is_locked,
+       .spin_is_contended = __ticket_spin_is_contended,
+diff --git a/arch/x86/kernel/paravirt.c b/arch/x86/kernel/paravirt.c
+index 1b1739d..dea6077 100644
+--- a/arch/x86/kernel/paravirt.c
++++ b/arch/x86/kernel/paravirt.c
+@@ -53,6 +53,9 @@ u64 _paravirt_ident_64(u64 x)
+ {
+       return x;
+ }
++#if defined(CONFIG_X86_32) && defined(CONFIG_X86_PAE)
++PV_CALLEE_SAVE_REGS_THUNK(_paravirt_ident_64);
++#endif
+ void __init default_banner(void)
+ {
+@@ -122,7 +125,7 @@ unsigned paravirt_patch_jmp(void *insnbuf, const void *target,
+  * corresponding structure. */
+ static void *get_call_destination(u8 type)
+ {
+-      struct paravirt_patch_template tmpl = {
++      const struct paravirt_patch_template tmpl = {
+               .pv_init_ops = pv_init_ops,
+               .pv_time_ops = pv_time_ops,
+               .pv_cpu_ops = pv_cpu_ops,
+@@ -133,6 +136,8 @@ static void *get_call_destination(u8 type)
+               .pv_lock_ops = pv_lock_ops,
+ #endif
+       };
++
++      pax_track_stack();
+       return *((void **)&tmpl + type);
+ }
+@@ -145,15 +150,19 @@ unsigned paravirt_patch_default(u8 type, u16 clobbers, void *insnbuf,
+       if (opfunc == NULL)
+               /* If there's no function, patch it with a ud2a (BUG) */
+               ret = paravirt_patch_insns(insnbuf, len, ud2a, ud2a+sizeof(ud2a));
+-      else if (opfunc == _paravirt_nop)
++      else if (opfunc == (void *)_paravirt_nop)
+               /* If the operation is a nop, then nop the callsite */
+               ret = paravirt_patch_nop();
+       /* identity functions just return their single argument */
+-      else if (opfunc == _paravirt_ident_32)
++      else if (opfunc == (void *)_paravirt_ident_32)
+               ret = paravirt_patch_ident_32(insnbuf, len);
+-      else if (opfunc == _paravirt_ident_64)
++      else if (opfunc == (void *)_paravirt_ident_64)
+               ret = paravirt_patch_ident_64(insnbuf, len);
++#if defined(CONFIG_X86_32) && defined(CONFIG_X86_PAE)
++      else if (opfunc == (void *)__raw_callee_save__paravirt_ident_64)
++              ret = paravirt_patch_ident_64(insnbuf, len);
++#endif
+       else if (type == PARAVIRT_PATCH(pv_cpu_ops.iret) ||
+                type == PARAVIRT_PATCH(pv_cpu_ops.irq_enable_sysexit) ||
+@@ -178,7 +187,7 @@ unsigned paravirt_patch_insns(void *insnbuf, unsigned len,
+       if (insn_len > len || start == NULL)
+               insn_len = len;
+       else
+-              memcpy(insnbuf, start, insn_len);
++              memcpy(insnbuf, ktla_ktva(start), insn_len);
+       return insn_len;
+ }
+@@ -294,22 +303,22 @@ void arch_flush_lazy_mmu_mode(void)
+       preempt_enable();
+ }
+-struct pv_info pv_info = {
++struct pv_info pv_info __read_only = {
+       .name = "bare hardware",
+       .paravirt_enabled = 0,
+       .kernel_rpl = 0,
+       .shared_kernel_pmd = 1, /* Only used when CONFIG_X86_PAE is set */
+ };
+-struct pv_init_ops pv_init_ops = {
++struct pv_init_ops pv_init_ops __read_only = {
+       .patch = native_patch,
+ };
+-struct pv_time_ops pv_time_ops = {
++struct pv_time_ops pv_time_ops __read_only = {
+       .sched_clock = native_sched_clock,
+ };
+-struct pv_irq_ops pv_irq_ops = {
++struct pv_irq_ops pv_irq_ops __read_only = {
+       .save_fl = __PV_IS_CALLEE_SAVE(native_save_fl),
+       .restore_fl = __PV_IS_CALLEE_SAVE(native_restore_fl),
+       .irq_disable = __PV_IS_CALLEE_SAVE(native_irq_disable),
+@@ -321,7 +330,7 @@ struct pv_irq_ops pv_irq_ops = {
+ #endif
+ };
+-struct pv_cpu_ops pv_cpu_ops = {
++struct pv_cpu_ops pv_cpu_ops __read_only = {
+       .cpuid = native_cpuid,
+       .get_debugreg = native_get_debugreg,
+       .set_debugreg = native_set_debugreg,
+@@ -382,21 +391,26 @@ struct pv_cpu_ops pv_cpu_ops = {
+       .end_context_switch = paravirt_nop,
+ };
+-struct pv_apic_ops pv_apic_ops = {
++struct pv_apic_ops pv_apic_ops __read_only = {
+ #ifdef CONFIG_X86_LOCAL_APIC
+       .startup_ipi_hook = paravirt_nop,
+ #endif
+ };
+-#if defined(CONFIG_X86_32) && !defined(CONFIG_X86_PAE)
++#ifdef CONFIG_X86_32
++#ifdef CONFIG_X86_PAE
++/* 64-bit pagetable entries */
++#define PTE_IDENT     PV_CALLEE_SAVE(_paravirt_ident_64)
++#else
+ /* 32-bit pagetable entries */
+ #define PTE_IDENT     __PV_IS_CALLEE_SAVE(_paravirt_ident_32)
++#endif
+ #else
+ /* 64-bit pagetable entries */
+ #define PTE_IDENT     __PV_IS_CALLEE_SAVE(_paravirt_ident_64)
+ #endif
+-struct pv_mmu_ops pv_mmu_ops = {
++struct pv_mmu_ops pv_mmu_ops __read_only = {
+       .read_cr2 = native_read_cr2,
+       .write_cr2 = native_write_cr2,
+@@ -448,6 +462,7 @@ struct pv_mmu_ops pv_mmu_ops = {
+       .make_pud = PTE_IDENT,
+       .set_pgd = native_set_pgd,
++      .set_pgd_batched = native_set_pgd_batched,
+ #endif
+ #endif /* PAGETABLE_LEVELS >= 3 */
+@@ -467,6 +482,12 @@ struct pv_mmu_ops pv_mmu_ops = {
+       },
+       .set_fixmap = native_set_fixmap,
++
++#ifdef CONFIG_PAX_KERNEXEC
++      .pax_open_kernel = native_pax_open_kernel,
++      .pax_close_kernel = native_pax_close_kernel,
++#endif
++
+ };
+ EXPORT_SYMBOL_GPL(pv_time_ops);
+diff --git a/arch/x86/kernel/pci-calgary_64.c b/arch/x86/kernel/pci-calgary_64.c
+index 1a2d4b1..6a0dd55 100644
+--- a/arch/x86/kernel/pci-calgary_64.c
++++ b/arch/x86/kernel/pci-calgary_64.c
+@@ -477,7 +477,7 @@ static void calgary_free_coherent(struct device *dev, size_t size,
+       free_pages((unsigned long)vaddr, get_order(size));
+ }
+-static struct dma_map_ops calgary_dma_ops = {
++static const struct dma_map_ops calgary_dma_ops = {
+       .alloc_coherent = calgary_alloc_coherent,
+       .free_coherent = calgary_free_coherent,
+       .map_sg = calgary_map_sg,
+diff --git a/arch/x86/kernel/pci-dma.c b/arch/x86/kernel/pci-dma.c
+index 6ac3931..42b4414 100644
+--- a/arch/x86/kernel/pci-dma.c
++++ b/arch/x86/kernel/pci-dma.c
+@@ -14,7 +14,7 @@
+ static int forbid_dac __read_mostly;
+-struct dma_map_ops *dma_ops;
++const struct dma_map_ops *dma_ops;
+ EXPORT_SYMBOL(dma_ops);
+ static int iommu_sac_force __read_mostly;
+@@ -243,7 +243,7 @@ early_param("iommu", iommu_setup);
+ int dma_supported(struct device *dev, u64 mask)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+ #ifdef CONFIG_PCI
+       if (mask > 0xffffffff && forbid_dac > 0) {
+diff --git a/arch/x86/kernel/pci-gart_64.c b/arch/x86/kernel/pci-gart_64.c
+index 1c76691..e3632db 100644
+--- a/arch/x86/kernel/pci-gart_64.c
++++ b/arch/x86/kernel/pci-gart_64.c
+@@ -682,7 +682,7 @@ static __init int init_k8_gatt(struct agp_kern_info *info)
+       return -1;
+ }
+-static struct dma_map_ops gart_dma_ops = {
++static const struct dma_map_ops gart_dma_ops = {
+       .map_sg                         = gart_map_sg,
+       .unmap_sg                       = gart_unmap_sg,
+       .map_page                       = gart_map_page,
+diff --git a/arch/x86/kernel/pci-nommu.c b/arch/x86/kernel/pci-nommu.c
+index a3933d4..c898869 100644
+--- a/arch/x86/kernel/pci-nommu.c
++++ b/arch/x86/kernel/pci-nommu.c
+@@ -94,7 +94,7 @@ static void nommu_sync_sg_for_device(struct device *dev,
+       flush_write_buffers();
+ }
+-struct dma_map_ops nommu_dma_ops = {
++const struct dma_map_ops nommu_dma_ops = {
+       .alloc_coherent         = dma_generic_alloc_coherent,
+       .free_coherent          = nommu_free_coherent,
+       .map_sg                 = nommu_map_sg,
+diff --git a/arch/x86/kernel/pci-swiotlb.c b/arch/x86/kernel/pci-swiotlb.c
+index aaa6b78..4de1881 100644
+--- a/arch/x86/kernel/pci-swiotlb.c
++++ b/arch/x86/kernel/pci-swiotlb.c
+@@ -25,7 +25,7 @@ static void *x86_swiotlb_alloc_coherent(struct device *hwdev, size_t size,
+       return swiotlb_alloc_coherent(hwdev, size, dma_handle, flags);
+ }
+-static struct dma_map_ops swiotlb_dma_ops = {
++static const struct dma_map_ops swiotlb_dma_ops = {
+       .mapping_error = swiotlb_dma_mapping_error,
+       .alloc_coherent = x86_swiotlb_alloc_coherent,
+       .free_coherent = swiotlb_free_coherent,
+diff --git a/arch/x86/kernel/process.c b/arch/x86/kernel/process.c
+index fc6c84d..0312ca2 100644
+--- a/arch/x86/kernel/process.c
++++ b/arch/x86/kernel/process.c
+@@ -51,16 +51,33 @@ void free_thread_xstate(struct task_struct *tsk)
+ void free_thread_info(struct thread_info *ti)
+ {
+-      free_thread_xstate(ti->task);
+       free_pages((unsigned long)ti, get_order(THREAD_SIZE));
+ }
++static struct kmem_cache *task_struct_cachep;
++
+ void arch_task_cache_init(void)
+ {
+-        task_xstate_cachep =
+-              kmem_cache_create("task_xstate", xstate_size,
++      /* create a slab on which task_structs can be allocated */
++      task_struct_cachep =
++              kmem_cache_create("task_struct", sizeof(struct task_struct),
++                      ARCH_MIN_TASKALIGN, SLAB_PANIC | SLAB_NOTRACK, NULL);
++
++      task_xstate_cachep =
++              kmem_cache_create("task_xstate", xstate_size,
+                                 __alignof__(union thread_xstate),
+-                                SLAB_PANIC | SLAB_NOTRACK, NULL);
++                                SLAB_PANIC | SLAB_NOTRACK | SLAB_USERCOPY, NULL);
++}
++
++struct task_struct *alloc_task_struct(void)
++{
++      return kmem_cache_alloc(task_struct_cachep, GFP_KERNEL);
++}
++
++void free_task_struct(struct task_struct *task)
++{
++      free_thread_xstate(task);
++      kmem_cache_free(task_struct_cachep, task);
+ }
+ /*
+@@ -73,7 +90,7 @@ void exit_thread(void)
+       unsigned long *bp = t->io_bitmap_ptr;
+       if (bp) {
+-              struct tss_struct *tss = &per_cpu(init_tss, get_cpu());
++              struct tss_struct *tss = init_tss + get_cpu();
+               t->io_bitmap_ptr = NULL;
+               clear_thread_flag(TIF_IO_BITMAP);
+@@ -93,6 +110,9 @@ void flush_thread(void)
+       clear_tsk_thread_flag(tsk, TIF_DEBUG);
++#if defined(CONFIG_X86_32) && !defined(CONFIG_CC_STACKPROTECTOR) && !defined(CONFIG_PAX_MEMORY_UDEREF)
++      loadsegment(gs, 0);
++#endif
+       tsk->thread.debugreg0 = 0;
+       tsk->thread.debugreg1 = 0;
+       tsk->thread.debugreg2 = 0;
+@@ -307,7 +327,7 @@ void default_idle(void)
+ EXPORT_SYMBOL(default_idle);
+ #endif
+-void stop_this_cpu(void *dummy)
++__noreturn void stop_this_cpu(void *dummy)
+ {
+       local_irq_disable();
+       /*
+@@ -568,16 +588,38 @@ static int __init idle_setup(char *str)
+ }
+ early_param("idle", idle_setup);
+-unsigned long arch_align_stack(unsigned long sp)
++#ifdef CONFIG_PAX_RANDKSTACK
++void pax_randomize_kstack(struct pt_regs *regs)
+ {
+-      if (!(current->personality & ADDR_NO_RANDOMIZE) && randomize_va_space)
+-              sp -= get_random_int() % 8192;
+-      return sp & ~0xf;
+-}
++      struct thread_struct *thread = &current->thread;
++      unsigned long time;
+-unsigned long arch_randomize_brk(struct mm_struct *mm)
+-{
+-      unsigned long range_end = mm->brk + 0x02000000;
+-      return randomize_range(mm->brk, range_end, 0) ? : mm->brk;
++      if (!randomize_va_space)
++              return;
++
++      if (v8086_mode(regs))
++              return;
++
++      rdtscl(time);
++
++      /* P4 seems to return a 0 LSB, ignore it */
++#ifdef CONFIG_MPENTIUM4
++      time &= 0x3EUL;
++      time <<= 2;
++#elif defined(CONFIG_X86_64)
++      time &= 0xFUL;
++      time <<= 4;
++#else
++      time &= 0x1FUL;
++      time <<= 3;
++#endif
++
++      thread->sp0 ^= time;
++      load_sp0(init_tss + smp_processor_id(), thread);
++
++#ifdef CONFIG_X86_64
++      percpu_write(kernel_stack, thread->sp0);
++#endif
+ }
++#endif
+diff --git a/arch/x86/kernel/process_32.c b/arch/x86/kernel/process_32.c
+index c40c432..6e1df72 100644
+--- a/arch/x86/kernel/process_32.c
++++ b/arch/x86/kernel/process_32.c
+@@ -67,6 +67,7 @@ asmlinkage void ret_from_fork(void) __asm__("ret_from_fork");
+ unsigned long thread_saved_pc(struct task_struct *tsk)
+ {
+       return ((unsigned long *)tsk->thread.sp)[3];
++//XXX return tsk->thread.eip;
+ }
+ #ifndef CONFIG_SMP
+@@ -129,15 +130,14 @@ void __show_regs(struct pt_regs *regs, int all)
+       unsigned short ss, gs;
+       const char *board;
+-      if (user_mode_vm(regs)) {
++      if (user_mode(regs)) {
+               sp = regs->sp;
+               ss = regs->ss & 0xffff;
+-              gs = get_user_gs(regs);
+       } else {
+               sp = (unsigned long) (&regs->sp);
+               savesegment(ss, ss);
+-              savesegment(gs, gs);
+       }
++      gs = get_user_gs(regs);
+       printk("\n");
+@@ -210,10 +210,10 @@ int kernel_thread(int (*fn)(void *), void *arg, unsigned long flags)
+       regs.bx = (unsigned long) fn;
+       regs.dx = (unsigned long) arg;
+-      regs.ds = __USER_DS;
+-      regs.es = __USER_DS;
++      regs.ds = __KERNEL_DS;
++      regs.es = __KERNEL_DS;
+       regs.fs = __KERNEL_PERCPU;
+-      regs.gs = __KERNEL_STACK_CANARY;
++      savesegment(gs, regs.gs);
+       regs.orig_ax = -1;
+       regs.ip = (unsigned long) kernel_thread_helper;
+       regs.cs = __KERNEL_CS | get_kernel_rpl();
+@@ -247,13 +247,14 @@ int copy_thread(unsigned long clone_flags, unsigned long sp,
+       struct task_struct *tsk;
+       int err;
+-      childregs = task_pt_regs(p);
++      childregs = task_stack_page(p) + THREAD_SIZE - sizeof(struct pt_regs) - 8;
+       *childregs = *regs;
+       childregs->ax = 0;
+       childregs->sp = sp;
+       p->thread.sp = (unsigned long) childregs;
+       p->thread.sp0 = (unsigned long) (childregs+1);
++      p->tinfo.lowest_stack = (unsigned long)task_stack_page(p);
+       p->thread.ip = (unsigned long) ret_from_fork;
+@@ -345,7 +346,7 @@ __switch_to(struct task_struct *prev_p, struct task_struct *next_p)
+       struct thread_struct *prev = &prev_p->thread,
+                                *next = &next_p->thread;
+       int cpu = smp_processor_id();
+-      struct tss_struct *tss = &per_cpu(init_tss, cpu);
++      struct tss_struct *tss = init_tss + cpu;
+       bool preload_fpu;
+       /* never put a printk in __switch_to... printk() calls wake_up*() indirectly */
+@@ -380,6 +381,10 @@ __switch_to(struct task_struct *prev_p, struct task_struct *next_p)
+        */
+       lazy_save_gs(prev->gs);
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      __set_fs(task_thread_info(next_p)->addr_limit);
++#endif
++
+       /*
+        * Load the per-thread Thread-Local Storage descriptor.
+        */
+@@ -415,6 +420,9 @@ __switch_to(struct task_struct *prev_p, struct task_struct *next_p)
+        */
+       arch_end_context_switch(next_p);
++      percpu_write(current_task, next_p);
++      percpu_write(current_tinfo, &next_p->tinfo);
++
+       if (preload_fpu)
+               __math_state_restore();
+@@ -424,8 +432,6 @@ __switch_to(struct task_struct *prev_p, struct task_struct *next_p)
+       if (prev->gs | next->gs)
+               lazy_load_gs(next->gs);
+-      percpu_write(current_task, next_p);
+-
+       return prev_p;
+ }
+@@ -495,4 +501,3 @@ unsigned long get_wchan(struct task_struct *p)
+       } while (count++ < 16);
+       return 0;
+ }
+-
+diff --git a/arch/x86/kernel/process_64.c b/arch/x86/kernel/process_64.c
+index 39493bc..196816d 100644
+--- a/arch/x86/kernel/process_64.c
++++ b/arch/x86/kernel/process_64.c
+@@ -91,7 +91,7 @@ static void __exit_idle(void)
+ void exit_idle(void)
+ {
+       /* idle loop has pid 0 */
+-      if (current->pid)
++      if (task_pid_nr(current))
+               return;
+       __exit_idle();
+ }
+@@ -170,7 +170,7 @@ void __show_regs(struct pt_regs *regs, int all)
+       if (!board)
+               board = "";
+       printk(KERN_INFO "Pid: %d, comm: %.20s %s %s %.*s %s\n",
+-              current->pid, current->comm, print_tainted(),
++              task_pid_nr(current), current->comm, print_tainted(),
+               init_utsname()->release,
+               (int)strcspn(init_utsname()->version, " "),
+               init_utsname()->version, board);
+@@ -280,8 +280,7 @@ int copy_thread(unsigned long clone_flags, unsigned long sp,
+       struct pt_regs *childregs;
+       struct task_struct *me = current;
+-      childregs = ((struct pt_regs *)
+-                      (THREAD_SIZE + task_stack_page(p))) - 1;
++      childregs = task_stack_page(p) + THREAD_SIZE - sizeof(struct pt_regs) - 16;
+       *childregs = *regs;
+       childregs->ax = 0;
+@@ -292,6 +291,7 @@ int copy_thread(unsigned long clone_flags, unsigned long sp,
+       p->thread.sp = (unsigned long) childregs;
+       p->thread.sp0 = (unsigned long) (childregs+1);
+       p->thread.usersp = me->thread.usersp;
++      p->tinfo.lowest_stack = (unsigned long)task_stack_page(p);
+       set_tsk_thread_flag(p, TIF_FORK);
+@@ -379,7 +379,7 @@ __switch_to(struct task_struct *prev_p, struct task_struct *next_p)
+       struct thread_struct *prev = &prev_p->thread;
+       struct thread_struct *next = &next_p->thread;
+       int cpu = smp_processor_id();
+-      struct tss_struct *tss = &per_cpu(init_tss, cpu);
++      struct tss_struct *tss = init_tss + cpu;
+       unsigned fsindex, gsindex;
+       bool preload_fpu;
+@@ -475,10 +475,9 @@ __switch_to(struct task_struct *prev_p, struct task_struct *next_p)
+       prev->usersp = percpu_read(old_rsp);
+       percpu_write(old_rsp, next->usersp);
+       percpu_write(current_task, next_p);
++      percpu_write(current_tinfo, &next_p->tinfo);
+-      percpu_write(kernel_stack,
+-                (unsigned long)task_stack_page(next_p) +
+-                THREAD_SIZE - KERNEL_STACK_OFFSET);
++      percpu_write(kernel_stack, next->sp0);
+       /*
+        * Now maybe reload the debug registers and handle I/O bitmaps
+@@ -559,12 +558,11 @@ unsigned long get_wchan(struct task_struct *p)
+       if (!p || p == current || p->state == TASK_RUNNING)
+               return 0;
+       stack = (unsigned long)task_stack_page(p);
+-      if (p->thread.sp < stack || p->thread.sp >= stack+THREAD_SIZE)
++      if (p->thread.sp < stack || p->thread.sp > stack+THREAD_SIZE-16-sizeof(u64))
+               return 0;
+       fp = *(u64 *)(p->thread.sp);
+       do {
+-              if (fp < (unsigned long)stack ||
+-                  fp >= (unsigned long)stack+THREAD_SIZE)
++              if (fp < stack || fp > stack+THREAD_SIZE-16-sizeof(u64))
+                       return 0;
+               ip = *(u64 *)(fp+8);
+               if (!in_sched_functions(ip))
+diff --git a/arch/x86/kernel/ptrace.c b/arch/x86/kernel/ptrace.c
+index c06acdd..3f5fff5 100644
+--- a/arch/x86/kernel/ptrace.c
++++ b/arch/x86/kernel/ptrace.c
+@@ -925,7 +925,7 @@ static const struct user_regset_view user_x86_32_view; /* Initialized below. */
+ long arch_ptrace(struct task_struct *child, long request, long addr, long data)
+ {
+       int ret;
+-      unsigned long __user *datap = (unsigned long __user *)data;
++      unsigned long __user *datap = (__force unsigned long __user *)data;
+       switch (request) {
+       /* read the word at location addr in the USER area. */
+@@ -1012,14 +1012,14 @@ long arch_ptrace(struct task_struct *child, long request, long addr, long data)
+               if (addr < 0)
+                       return -EIO;
+               ret = do_get_thread_area(child, addr,
+-                                       (struct user_desc __user *) data);
++                                       (__force struct user_desc __user *) data);
+               break;
+       case PTRACE_SET_THREAD_AREA:
+               if (addr < 0)
+                       return -EIO;
+               ret = do_set_thread_area(child, addr,
+-                                       (struct user_desc __user *) data, 0);
++                                       (__force struct user_desc __user *) data, 0);
+               break;
+ #endif
+@@ -1038,12 +1038,12 @@ long arch_ptrace(struct task_struct *child, long request, long addr, long data)
+ #ifdef CONFIG_X86_PTRACE_BTS
+       case PTRACE_BTS_CONFIG:
+               ret = ptrace_bts_config
+-                      (child, data, (struct ptrace_bts_config __user *)addr);
++                      (child, data, (__force struct ptrace_bts_config __user *)addr);
+               break;
+       case PTRACE_BTS_STATUS:
+               ret = ptrace_bts_status
+-                      (child, data, (struct ptrace_bts_config __user *)addr);
++                      (child, data, (__force struct ptrace_bts_config __user *)addr);
+               break;
+       case PTRACE_BTS_SIZE:
+@@ -1052,7 +1052,7 @@ long arch_ptrace(struct task_struct *child, long request, long addr, long data)
+       case PTRACE_BTS_GET:
+               ret = ptrace_bts_read_record
+-                      (child, data, (struct bts_struct __user *) addr);
++                      (child, data, (__force struct bts_struct __user *) addr);
+               break;
+       case PTRACE_BTS_CLEAR:
+@@ -1061,7 +1061,7 @@ long arch_ptrace(struct task_struct *child, long request, long addr, long data)
+       case PTRACE_BTS_DRAIN:
+               ret = ptrace_bts_drain
+-                      (child, data, (struct bts_struct __user *) addr);
++                      (child, data, (__force struct bts_struct __user *) addr);
+               break;
+ #endif /* CONFIG_X86_PTRACE_BTS */
+@@ -1450,7 +1450,7 @@ void send_sigtrap(struct task_struct *tsk, struct pt_regs *regs,
+       info.si_code = si_code;
+       /* User-mode ip? */
+-      info.si_addr = user_mode_vm(regs) ? (void __user *) regs->ip : NULL;
++      info.si_addr = user_mode(regs) ? (__force void __user *) regs->ip : NULL;
+       /* Send us the fake SIGTRAP */
+       force_sig_info(SIGTRAP, &info, tsk);
+@@ -1469,7 +1469,7 @@ void send_sigtrap(struct task_struct *tsk, struct pt_regs *regs,
+  * We must return the syscall number to actually look up in the table.
+  * This can be -1L to skip running any syscall at all.
+  */
+-asmregparm long syscall_trace_enter(struct pt_regs *regs)
++long syscall_trace_enter(struct pt_regs *regs)
+ {
+       long ret = 0;
+@@ -1514,7 +1514,7 @@ asmregparm long syscall_trace_enter(struct pt_regs *regs)
+       return ret ?: regs->orig_ax;
+ }
+-asmregparm void syscall_trace_leave(struct pt_regs *regs)
++void syscall_trace_leave(struct pt_regs *regs)
+ {
+       if (unlikely(current->audit_context))
+               audit_syscall_exit(AUDITSC_RESULT(regs->ax), regs->ax);
+diff --git a/arch/x86/kernel/reboot.c b/arch/x86/kernel/reboot.c
+index cf98100..e76e03d 100644
+--- a/arch/x86/kernel/reboot.c
++++ b/arch/x86/kernel/reboot.c
+@@ -33,7 +33,7 @@ void (*pm_power_off)(void);
+ EXPORT_SYMBOL(pm_power_off);
+ static const struct desc_ptr no_idt = {};
+-static int reboot_mode;
++static unsigned short reboot_mode;
+ enum reboot_type reboot_type = BOOT_KBD;
+ int reboot_force;
+@@ -292,12 +292,12 @@ core_initcall(reboot_init);
+    controller to pulse the CPU reset line, which is more thorough, but
+    doesn't work with at least one type of 486 motherboard.  It is easy
+    to stop this code working; hence the copious comments. */
+-static const unsigned long long
+-real_mode_gdt_entries [3] =
++static struct desc_struct
++real_mode_gdt_entries [3] __read_only =
+ {
+-      0x0000000000000000ULL,  /* Null descriptor */
+-      0x00009b000000ffffULL,  /* 16-bit real-mode 64k code at 0x00000000 */
+-      0x000093000100ffffULL   /* 16-bit real-mode 64k data at 0x00000100 */
++      GDT_ENTRY_INIT(0, 0, 0),                /* Null descriptor */
++      GDT_ENTRY_INIT(0x9b, 0, 0xffff),        /* 16-bit real-mode 64k code at 0x00000000 */
++      GDT_ENTRY_INIT(0x93, 0x100, 0xffff)     /* 16-bit real-mode 64k data at 0x00000100 */
+ };
+ static const struct desc_ptr
+@@ -346,7 +346,7 @@ static const unsigned char jump_to_bios [] =
+  * specified by the code and length parameters.
+  * We assume that length will aways be less that 100!
+  */
+-void machine_real_restart(const unsigned char *code, int length)
++__noreturn void machine_real_restart(const unsigned char *code, unsigned int length)
+ {
+       local_irq_disable();
+@@ -366,8 +366,8 @@ void machine_real_restart(const unsigned char *code, int length)
+       /* Remap the kernel at virtual address zero, as well as offset zero
+          from the kernel segment.  This assumes the kernel segment starts at
+          virtual address PAGE_OFFSET. */
+-      memcpy(swapper_pg_dir, swapper_pg_dir + KERNEL_PGD_BOUNDARY,
+-              sizeof(swapper_pg_dir [0]) * KERNEL_PGD_PTRS);
++      clone_pgd_range(swapper_pg_dir, swapper_pg_dir + KERNEL_PGD_BOUNDARY,
++                      min_t(unsigned long, KERNEL_PGD_PTRS, KERNEL_PGD_BOUNDARY));
+       /*
+        * Use `swapper_pg_dir' as our page directory.
+@@ -379,16 +379,15 @@ void machine_real_restart(const unsigned char *code, int length)
+          boot)".  This seems like a fairly standard thing that gets set by
+          REBOOT.COM programs, and the previous reset routine did this
+          too. */
+-      *((unsigned short *)0x472) = reboot_mode;
++      *(unsigned short *)(__va(0x472)) = reboot_mode;
+       /* For the switch to real mode, copy some code to low memory.  It has
+          to be in the first 64k because it is running in 16-bit mode, and it
+          has to have the same physical and virtual address, because it turns
+          off paging.  Copy it near the end of the first page, out of the way
+          of BIOS variables. */
+-      memcpy((void *)(0x1000 - sizeof(real_mode_switch) - 100),
+-              real_mode_switch, sizeof (real_mode_switch));
+-      memcpy((void *)(0x1000 - 100), code, length);
++      memcpy(__va(0x1000 - sizeof (real_mode_switch) - 100), real_mode_switch, sizeof (real_mode_switch));
++      memcpy(__va(0x1000 - 100), code, length);
+       /* Set up the IDT for real mode. */
+       load_idt(&real_mode_idt);
+@@ -416,6 +415,7 @@ void machine_real_restart(const unsigned char *code, int length)
+       __asm__ __volatile__ ("ljmp $0x0008,%0"
+                               :
+                               : "i" ((void *)(0x1000 - sizeof (real_mode_switch) - 100)));
++      do { } while (1);
+ }
+ #ifdef CONFIG_APM_MODULE
+ EXPORT_SYMBOL(machine_real_restart);
+@@ -544,7 +544,7 @@ void __attribute__((weak)) mach_reboot_fixups(void)
+ {
+ }
+-static void native_machine_emergency_restart(void)
++__noreturn static void native_machine_emergency_restart(void)
+ {
+       int i;
+@@ -659,13 +659,13 @@ void native_machine_shutdown(void)
+ #endif
+ }
+-static void __machine_emergency_restart(int emergency)
++static __noreturn void __machine_emergency_restart(int emergency)
+ {
+       reboot_emergency = emergency;
+       machine_ops.emergency_restart();
+ }
+-static void native_machine_restart(char *__unused)
++static __noreturn void native_machine_restart(char *__unused)
+ {
+       printk("machine restart\n");
+@@ -674,7 +674,7 @@ static void native_machine_restart(char *__unused)
+       __machine_emergency_restart(0);
+ }
+-static void native_machine_halt(void)
++static __noreturn void native_machine_halt(void)
+ {
+       /* stop other cpus and apics */
+       machine_shutdown();
+@@ -685,7 +685,7 @@ static void native_machine_halt(void)
+       stop_this_cpu(NULL);
+ }
+-static void native_machine_power_off(void)
++__noreturn static void native_machine_power_off(void)
+ {
+       if (pm_power_off) {
+               if (!reboot_force)
+@@ -694,6 +694,7 @@ static void native_machine_power_off(void)
+       }
+       /* a fallback in case there is no PM info available */
+       tboot_shutdown(TB_SHUTDOWN_HALT);
++      do { } while (1);
+ }
+ struct machine_ops machine_ops = {
+diff --git a/arch/x86/kernel/relocate_kernel_64.S b/arch/x86/kernel/relocate_kernel_64.S
+index 7a6f3b3..976a959 100644
+--- a/arch/x86/kernel/relocate_kernel_64.S
++++ b/arch/x86/kernel/relocate_kernel_64.S
+@@ -11,6 +11,7 @@
+ #include <asm/kexec.h>
+ #include <asm/processor-flags.h>
+ #include <asm/pgtable_types.h>
++#include <asm/alternative-asm.h>
+ /*
+  * Must be relocatable PIC code callable as a C function
+@@ -167,6 +168,7 @@ identity_mapped:
+       xorq    %r14, %r14
+       xorq    %r15, %r15
++      pax_force_retaddr 0, 1
+       ret
+ 1:
+diff --git a/arch/x86/kernel/setup.c b/arch/x86/kernel/setup.c
+index 5449a26..0b6c759 100644
+--- a/arch/x86/kernel/setup.c
++++ b/arch/x86/kernel/setup.c
+@@ -783,14 +783,14 @@ void __init setup_arch(char **cmdline_p)
+       if (!boot_params.hdr.root_flags)
+               root_mountflags &= ~MS_RDONLY;
+-      init_mm.start_code = (unsigned long) _text;
+-      init_mm.end_code = (unsigned long) _etext;
++      init_mm.start_code = ktla_ktva((unsigned long) _text);
++      init_mm.end_code = ktla_ktva((unsigned long) _etext);
+       init_mm.end_data = (unsigned long) _edata;
+       init_mm.brk = _brk_end;
+-      code_resource.start = virt_to_phys(_text);
+-      code_resource.end = virt_to_phys(_etext)-1;
+-      data_resource.start = virt_to_phys(_etext);
++      code_resource.start = virt_to_phys(ktla_ktva(_text));
++      code_resource.end = virt_to_phys(ktla_ktva(_etext))-1;
++      data_resource.start = virt_to_phys(_sdata);
+       data_resource.end = virt_to_phys(_edata)-1;
+       bss_resource.start = virt_to_phys(&__bss_start);
+       bss_resource.end = virt_to_phys(&__bss_stop)-1;
+diff --git a/arch/x86/kernel/setup_percpu.c b/arch/x86/kernel/setup_percpu.c
+index d559af9..524c6ad 100644
+--- a/arch/x86/kernel/setup_percpu.c
++++ b/arch/x86/kernel/setup_percpu.c
+@@ -25,19 +25,17 @@
+ # define DBG(x...)
+ #endif
+-DEFINE_PER_CPU(int, cpu_number);
++#ifdef CONFIG_SMP
++DEFINE_PER_CPU(unsigned int, cpu_number);
+ EXPORT_PER_CPU_SYMBOL(cpu_number);
++#endif
+-#ifdef CONFIG_X86_64
+ #define BOOT_PERCPU_OFFSET ((unsigned long)__per_cpu_load)
+-#else
+-#define BOOT_PERCPU_OFFSET 0
+-#endif
+ DEFINE_PER_CPU(unsigned long, this_cpu_off) = BOOT_PERCPU_OFFSET;
+ EXPORT_PER_CPU_SYMBOL(this_cpu_off);
+-unsigned long __per_cpu_offset[NR_CPUS] __read_mostly = {
++unsigned long __per_cpu_offset[NR_CPUS] __read_only = {
+       [0 ... NR_CPUS-1] = BOOT_PERCPU_OFFSET,
+ };
+ EXPORT_SYMBOL(__per_cpu_offset);
+@@ -159,10 +157,10 @@ static inline void setup_percpu_segment(int cpu)
+ {
+ #ifdef CONFIG_X86_32
+       struct desc_struct gdt;
++      unsigned long base = per_cpu_offset(cpu);
+-      pack_descriptor(&gdt, per_cpu_offset(cpu), 0xFFFFF,
+-                      0x2 | DESCTYPE_S, 0x8);
+-      gdt.s = 1;
++      pack_descriptor(&gdt, base, (VMALLOC_END - base - 1) >> PAGE_SHIFT,
++                      0x83 | DESCTYPE_S, 0xC);
+       write_gdt_entry(get_cpu_gdt_table(cpu),
+                       GDT_ENTRY_PERCPU, &gdt, DESCTYPE_S);
+ #endif
+@@ -212,6 +210,11 @@ void __init setup_per_cpu_areas(void)
+       /* alrighty, percpu areas up and running */
+       delta = (unsigned long)pcpu_base_addr - (unsigned long)__per_cpu_start;
+       for_each_possible_cpu(cpu) {
++#ifdef CONFIG_CC_STACKPROTECTOR
++#ifdef CONFIG_X86_32
++              unsigned long canary = per_cpu(stack_canary.canary, cpu);
++#endif
++#endif
+               per_cpu_offset(cpu) = delta + pcpu_unit_offsets[cpu];
+               per_cpu(this_cpu_off, cpu) = per_cpu_offset(cpu);
+               per_cpu(cpu_number, cpu) = cpu;
+@@ -239,6 +242,12 @@ void __init setup_per_cpu_areas(void)
+                       early_per_cpu_map(x86_cpu_to_node_map, cpu);
+ #endif
+ #endif
++#ifdef CONFIG_CC_STACKPROTECTOR
++#ifdef CONFIG_X86_32
++              if (!cpu)
++                      per_cpu(stack_canary.canary, cpu) = canary;
++#endif
++#endif
+               /*
+                * Up to this point, the boot CPU has been using .data.init
+                * area.  Reload any changed state for the boot CPU.
+diff --git a/arch/x86/kernel/signal.c b/arch/x86/kernel/signal.c
+index 6a44a76..a9287a1 100644
+--- a/arch/x86/kernel/signal.c
++++ b/arch/x86/kernel/signal.c
+@@ -197,7 +197,7 @@ static unsigned long align_sigframe(unsigned long sp)
+        * Align the stack pointer according to the i386 ABI,
+        * i.e. so that on function entry ((sp + 4) & 15) == 0.
+        */
+-      sp = ((sp + 4) & -16ul) - 4;
++      sp = ((sp - 12) & -16ul) - 4;
+ #else /* !CONFIG_X86_32 */
+       sp = round_down(sp, 16) - 8;
+ #endif
+@@ -248,11 +248,11 @@ get_sigframe(struct k_sigaction *ka, struct pt_regs *regs, size_t frame_size,
+        * Return an always-bogus address instead so we will die with SIGSEGV.
+        */
+       if (onsigstack && !likely(on_sig_stack(sp)))
+-              return (void __user *)-1L;
++              return (__force void __user *)-1L;
+       /* save i387 state */
+       if (used_math() && save_i387_xstate(*fpstate) < 0)
+-              return (void __user *)-1L;
++              return (__force void __user *)-1L;
+       return (void __user *)sp;
+ }
+@@ -307,9 +307,9 @@ __setup_frame(int sig, struct k_sigaction *ka, sigset_t *set,
+       }
+       if (current->mm->context.vdso)
+-              restorer = VDSO32_SYMBOL(current->mm->context.vdso, sigreturn);
++              restorer = (__force void __user *)VDSO32_SYMBOL(current->mm->context.vdso, sigreturn);
+       else
+-              restorer = &frame->retcode;
++              restorer = (void __user *)&frame->retcode;
+       if (ka->sa.sa_flags & SA_RESTORER)
+               restorer = ka->sa.sa_restorer;
+@@ -323,7 +323,7 @@ __setup_frame(int sig, struct k_sigaction *ka, sigset_t *set,
+        * reasons and because gdb uses it as a signature to notice
+        * signal handler stack frames.
+        */
+-      err |= __put_user(*((u64 *)&retcode), (u64 *)frame->retcode);
++      err |= __put_user(*((u64 *)&retcode), (u64 __user *)frame->retcode);
+       if (err)
+               return -EFAULT;
+@@ -377,7 +377,10 @@ static int __setup_rt_frame(int sig, struct k_sigaction *ka, siginfo_t *info,
+               err |= __copy_to_user(&frame->uc.uc_sigmask, set, sizeof(*set));
+               /* Set up to return from userspace.  */
+-              restorer = VDSO32_SYMBOL(current->mm->context.vdso, rt_sigreturn);
++              if (current->mm->context.vdso)
++                      restorer = (__force void __user *)VDSO32_SYMBOL(current->mm->context.vdso, rt_sigreturn);
++              else
++                      restorer = (void __user *)&frame->retcode;
+               if (ka->sa.sa_flags & SA_RESTORER)
+                       restorer = ka->sa.sa_restorer;
+               put_user_ex(restorer, &frame->pretcode);
+@@ -389,7 +392,7 @@ static int __setup_rt_frame(int sig, struct k_sigaction *ka, siginfo_t *info,
+                * reasons and because gdb uses it as a signature to notice
+                * signal handler stack frames.
+                */
+-              put_user_ex(*((u64 *)&rt_retcode), (u64 *)frame->retcode);
++              put_user_ex(*((u64 *)&rt_retcode), (u64 __user *)frame->retcode);
+       } put_user_catch(err);
+       if (err)
+@@ -782,6 +785,8 @@ static void do_signal(struct pt_regs *regs)
+       int signr;
+       sigset_t *oldset;
++      pax_track_stack();
++
+       /*
+        * We want the common case to go fast, which is why we may in certain
+        * cases get here from kernel mode. Just return without doing anything
+@@ -789,7 +794,7 @@ static void do_signal(struct pt_regs *regs)
+        * X86_32: vm86 regs switched out by assembly code before reaching
+        * here, so testing against kernel CS suffices.
+        */
+-      if (!user_mode(regs))
++      if (!user_mode_novm(regs))
+               return;
+       if (current_thread_info()->status & TS_RESTORE_SIGMASK)
+diff --git a/arch/x86/kernel/smpboot.c b/arch/x86/kernel/smpboot.c
+index 7e8e905..64d5c32 100644
+--- a/arch/x86/kernel/smpboot.c
++++ b/arch/x86/kernel/smpboot.c
+@@ -94,14 +94,14 @@ static DEFINE_PER_CPU(struct task_struct *, idle_thread_array);
+  */
+ static DEFINE_MUTEX(x86_cpu_hotplug_driver_mutex);
+-void cpu_hotplug_driver_lock()
++void cpu_hotplug_driver_lock(void)
+ {
+-        mutex_lock(&x86_cpu_hotplug_driver_mutex);
++      mutex_lock(&x86_cpu_hotplug_driver_mutex);
+ }
+-void cpu_hotplug_driver_unlock()
++void cpu_hotplug_driver_unlock(void)
+ {
+-        mutex_unlock(&x86_cpu_hotplug_driver_mutex);
++      mutex_unlock(&x86_cpu_hotplug_driver_mutex);
+ }
+ ssize_t arch_cpu_probe(const char *buf, size_t count) { return -1; }
+@@ -625,7 +625,7 @@ wakeup_secondary_cpu_via_init(int phys_apicid, unsigned long start_eip)
+        * target processor state.
+        */
+       startup_ipi_hook(phys_apicid, (unsigned long) start_secondary,
+-                       (unsigned long)stack_start.sp);
++                       stack_start);
+       /*
+        * Run STARTUP IPI loop.
+@@ -743,6 +743,7 @@ static int __cpuinit do_boot_cpu(int apicid, int cpu)
+       set_idle_for_cpu(cpu, c_idle.idle);
+ do_rest:
+       per_cpu(current_task, cpu) = c_idle.idle;
++      per_cpu(current_tinfo, cpu) = &c_idle.idle->tinfo;
+ #ifdef CONFIG_X86_32
+       /* Stack for startup_32 can be just as for start_secondary onwards */
+       irq_ctx_init(cpu);
+@@ -750,13 +751,15 @@ do_rest:
+ #else
+       clear_tsk_thread_flag(c_idle.idle, TIF_FORK);
+       initial_gs = per_cpu_offset(cpu);
+-      per_cpu(kernel_stack, cpu) =
+-              (unsigned long)task_stack_page(c_idle.idle) -
+-              KERNEL_STACK_OFFSET + THREAD_SIZE;
++      per_cpu(kernel_stack, cpu) = (unsigned long)task_stack_page(c_idle.idle) - 16 + THREAD_SIZE;
+ #endif
++
++      pax_open_kernel();
+       early_gdt_descr.address = (unsigned long)get_cpu_gdt_table(cpu);
++      pax_close_kernel();
++
+       initial_code = (unsigned long)start_secondary;
+-      stack_start.sp = (void *) c_idle.idle->thread.sp;
++      stack_start = c_idle.idle->thread.sp;
+       /* start_ip had better be page-aligned! */
+       start_ip = setup_trampoline();
+@@ -891,6 +894,12 @@ int __cpuinit native_cpu_up(unsigned int cpu)
+       per_cpu(cpu_state, cpu) = CPU_UP_PREPARE;
++#ifdef CONFIG_PAX_PER_CPU_PGD
++      clone_pgd_range(get_cpu_pgd(cpu) + KERNEL_PGD_BOUNDARY,
++                      swapper_pg_dir + KERNEL_PGD_BOUNDARY,
++                      KERNEL_PGD_PTRS);
++#endif
++
+       err = do_boot_cpu(apicid, cpu);
+       if (err) {
+diff --git a/arch/x86/kernel/step.c b/arch/x86/kernel/step.c
+index 3149032..14f1053 100644
+--- a/arch/x86/kernel/step.c
++++ b/arch/x86/kernel/step.c
+@@ -27,10 +27,10 @@ unsigned long convert_ip_to_linear(struct task_struct *child, struct pt_regs *re
+               struct desc_struct *desc;
+               unsigned long base;
+-              seg &= ~7UL;
++              seg >>= 3;
+               mutex_lock(&child->mm->context.lock);
+-              if (unlikely((seg >> 3) >= child->mm->context.size))
++              if (unlikely(seg >= child->mm->context.size))
+                       addr = -1L; /* bogus selector, access would fault */
+               else {
+                       desc = child->mm->context.ldt + seg;
+@@ -42,7 +42,8 @@ unsigned long convert_ip_to_linear(struct task_struct *child, struct pt_regs *re
+                       addr += base;
+               }
+               mutex_unlock(&child->mm->context.lock);
+-      }
++      } else if (seg == __KERNEL_CS || seg == __KERNEXEC_KERNEL_CS)
++              addr = ktla_ktva(addr);
+       return addr;
+ }
+@@ -53,6 +54,9 @@ static int is_setting_trap_flag(struct task_struct *child, struct pt_regs *regs)
+       unsigned char opcode[15];
+       unsigned long addr = convert_ip_to_linear(child, regs);
++      if (addr == -EINVAL)
++              return 0;
++
+       copied = access_process_vm(child, addr, opcode, sizeof(opcode), 0);
+       for (i = 0; i < copied; i++) {
+               switch (opcode[i]) {
+@@ -74,7 +78,7 @@ static int is_setting_trap_flag(struct task_struct *child, struct pt_regs *regs)
+ #ifdef CONFIG_X86_64
+               case 0x40 ... 0x4f:
+-                      if (regs->cs != __USER_CS)
++                      if ((regs->cs & 0xffff) != __USER_CS)
+                               /* 32-bit mode: register increment */
+                               return 0;
+                       /* 64-bit mode: REX prefix */
+diff --git a/arch/x86/kernel/sys_i386_32.c b/arch/x86/kernel/sys_i386_32.c
+index dee1ff7..a397f7f 100644
+--- a/arch/x86/kernel/sys_i386_32.c
++++ b/arch/x86/kernel/sys_i386_32.c
+@@ -24,6 +24,21 @@
+ #include <asm/syscalls.h>
++int i386_mmap_check(unsigned long addr, unsigned long len, unsigned long flags)
++{
++      unsigned long pax_task_size = TASK_SIZE;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (current->mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      if (len > pax_task_size || addr > pax_task_size - len)
++              return -EINVAL;
++
++      return 0;
++}
++
+ /*
+  * Perform the select(nd, in, out, ex, tv) and mmap() system
+  * calls. Linux/i386 didn't use to be able to handle more than
+@@ -58,6 +73,212 @@ out:
+       return err;
+ }
++unsigned long
++arch_get_unmapped_area(struct file *filp, unsigned long addr,
++              unsigned long len, unsigned long pgoff, unsigned long flags)
++{
++      struct mm_struct *mm = current->mm;
++      struct vm_area_struct *vma;
++      unsigned long start_addr, pax_task_size = TASK_SIZE;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      pax_task_size -= PAGE_SIZE;
++
++      if (len > pax_task_size)
++              return -ENOMEM;
++
++      if (flags & MAP_FIXED)
++              return addr;
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
++      if (addr) {
++              addr = PAGE_ALIGN(addr);
++              if (pax_task_size - len >= addr) {
++                      vma = find_vma(mm, addr);
++                      if (check_heap_stack_gap(vma, addr, len))
++                              return addr;
++              }
++      }
++      if (len > mm->cached_hole_size) {
++              start_addr = addr = mm->free_area_cache;
++      } else {
++              start_addr = addr = mm->mmap_base;
++              mm->cached_hole_size = 0;
++      }
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (!nx_enabled && (mm->pax_flags & MF_PAX_PAGEEXEC) && (flags & MAP_EXECUTABLE) && start_addr >= mm->mmap_base) {
++              start_addr = 0x00110000UL;
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      start_addr += mm->delta_mmap & 0x03FFF000UL;
++#endif
++
++              if (mm->start_brk <= start_addr && start_addr < mm->mmap_base)
++                      start_addr = addr = mm->mmap_base;
++              else
++                      addr = start_addr;
++      }
++#endif
++
++full_search:
++      for (vma = find_vma(mm, addr); ; vma = vma->vm_next) {
++              /* At this point:  (!vma || addr < vma->vm_end). */
++              if (pax_task_size - len < addr) {
++                      /*
++                       * Start a new search - just in case we missed
++                       * some holes.
++                       */
++                      if (start_addr != mm->mmap_base) {
++                              start_addr = addr = mm->mmap_base;
++                              mm->cached_hole_size = 0;
++                              goto full_search;
++                      }
++                      return -ENOMEM;
++              }
++              if (check_heap_stack_gap(vma, addr, len))
++                      break;
++              if (addr + mm->cached_hole_size < vma->vm_start)
++                      mm->cached_hole_size = vma->vm_start - addr;
++              addr = vma->vm_end;
++              if (mm->start_brk <= addr && addr < mm->mmap_base) {
++                      start_addr = addr = mm->mmap_base;
++                      mm->cached_hole_size = 0;
++                      goto full_search;
++              }
++      }
++
++      /*
++       * Remember the place where we stopped the search:
++       */
++      mm->free_area_cache = addr + len;
++      return addr;
++}
++
++unsigned long
++arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
++                        const unsigned long len, const unsigned long pgoff,
++                        const unsigned long flags)
++{
++      struct vm_area_struct *vma;
++      struct mm_struct *mm = current->mm;
++      unsigned long base = mm->mmap_base, addr = addr0, pax_task_size = TASK_SIZE;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      pax_task_size -= PAGE_SIZE;
++
++      /* requested length too big for entire address space */
++      if (len > pax_task_size)
++              return -ENOMEM;
++
++      if (flags & MAP_FIXED)
++              return addr;
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (!nx_enabled && (mm->pax_flags & MF_PAX_PAGEEXEC) && (flags & MAP_EXECUTABLE))
++              goto bottomup;
++#endif
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
++      /* requesting a specific address */
++      if (addr) {
++              addr = PAGE_ALIGN(addr);
++              if (pax_task_size - len >= addr) {
++                      vma = find_vma(mm, addr);
++                      if (check_heap_stack_gap(vma, addr, len))
++                              return addr;
++              }
++      }
++
++      /* check if free_area_cache is useful for us */
++      if (len <= mm->cached_hole_size) {
++              mm->cached_hole_size = 0;
++              mm->free_area_cache = mm->mmap_base;
++      }
++
++      /* either no address requested or can't fit in requested address hole */
++      addr = mm->free_area_cache;
++
++      /* make sure it can fit in the remaining address space */
++      if (addr > len) {
++              vma = find_vma(mm, addr-len);
++              if (check_heap_stack_gap(vma, addr - len, len))
++                      /* remember the address as a hint for next time */
++                      return (mm->free_area_cache = addr-len);
++      }
++
++      if (mm->mmap_base < len)
++              goto bottomup;
++
++      addr = mm->mmap_base-len;
++
++      do {
++              /*
++               * Lookup failure means no vma is above this address,
++               * else if new region fits below vma->vm_start,
++               * return with success:
++               */
++              vma = find_vma(mm, addr);
++              if (check_heap_stack_gap(vma, addr, len))
++                      /* remember the address as a hint for next time */
++                      return (mm->free_area_cache = addr);
++
++              /* remember the largest hole we saw so far */
++              if (addr + mm->cached_hole_size < vma->vm_start)
++                      mm->cached_hole_size = vma->vm_start - addr;
++
++              /* try just below the current vma->vm_start */
++              addr = skip_heap_stack_gap(vma, len);
++      } while (!IS_ERR_VALUE(addr));
++
++bottomup:
++      /*
++       * A failed mmap() very likely causes application failure,
++       * so fall back to the bottom-up function here. This scenario
++       * can happen with large stack limits and large mmap()
++       * allocations.
++       */
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              mm->mmap_base = SEGMEXEC_TASK_UNMAPPED_BASE;
++      else
++#endif
++
++      mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (mm->pax_flags & MF_PAX_RANDMMAP)
++              mm->mmap_base += mm->delta_mmap;
++#endif
++
++      mm->free_area_cache = mm->mmap_base;
++      mm->cached_hole_size = ~0UL;
++      addr = arch_get_unmapped_area(filp, addr0, len, pgoff, flags);
++      /*
++       * Restore the topdown base:
++       */
++      mm->mmap_base = base;
++      mm->free_area_cache = base;
++      mm->cached_hole_size = ~0UL;
++
++      return addr;
++}
+ struct sel_arg_struct {
+       unsigned long n;
+@@ -93,7 +314,7 @@ asmlinkage int sys_ipc(uint call, int first, int second,
+               return sys_semtimedop(first, (struct sembuf __user *)ptr, second, NULL);
+       case SEMTIMEDOP:
+               return sys_semtimedop(first, (struct sembuf __user *)ptr, second,
+-                                      (const struct timespec __user *)fifth);
++                                      (__force const struct timespec __user *)fifth);
+       case SEMGET:
+               return sys_semget(first, second, third);
+@@ -140,7 +361,7 @@ asmlinkage int sys_ipc(uint call, int first, int second,
+                       ret = do_shmat(first, (char __user *) ptr, second, &raddr);
+                       if (ret)
+                               return ret;
+-                      return put_user(raddr, (ulong __user *) third);
++                      return put_user(raddr, (__force ulong __user *) third);
+               }
+               case 1: /* iBCS2 emulator entry point */
+                       if (!segment_eq(get_fs(), get_ds()))
+@@ -207,17 +428,3 @@ asmlinkage int sys_olduname(struct oldold_utsname __user *name)
+       return error;
+ }
+-
+-
+-/*
+- * Do a system call from kernel instead of calling sys_execve so we
+- * end up with proper pt_regs.
+- */
+-int kernel_execve(const char *filename, char *const argv[], char *const envp[])
+-{
+-      long __res;
+-      asm volatile ("push %%ebx ; movl %2,%%ebx ; int $0x80 ; pop %%ebx"
+-      : "=a" (__res)
+-      : "0" (__NR_execve), "ri" (filename), "c" (argv), "d" (envp) : "memory");
+-      return __res;
+-}
+diff --git a/arch/x86/kernel/sys_x86_64.c b/arch/x86/kernel/sys_x86_64.c
+index 8aa2057..b604bc1 100644
+--- a/arch/x86/kernel/sys_x86_64.c
++++ b/arch/x86/kernel/sys_x86_64.c
+@@ -32,8 +32,8 @@ out:
+       return error;
+ }
+-static void find_start_end(unsigned long flags, unsigned long *begin,
+-                         unsigned long *end)
++static void find_start_end(struct mm_struct *mm, unsigned long flags,
++                         unsigned long *begin, unsigned long *end)
+ {
+       if (!test_thread_flag(TIF_IA32) && (flags & MAP_32BIT)) {
+               unsigned long new_begin;
+@@ -52,7 +52,7 @@ static void find_start_end(unsigned long flags, unsigned long *begin,
+                               *begin = new_begin;
+               }
+       } else {
+-              *begin = TASK_UNMAPPED_BASE;
++              *begin = mm->mmap_base;
+               *end = TASK_SIZE;
+       }
+ }
+@@ -69,16 +69,19 @@ arch_get_unmapped_area(struct file *filp, unsigned long addr,
+       if (flags & MAP_FIXED)
+               return addr;
+-      find_start_end(flags, &begin, &end);
++      find_start_end(mm, flags, &begin, &end);
+       if (len > end)
+               return -ENOMEM;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       if (addr) {
+               addr = PAGE_ALIGN(addr);
+               vma = find_vma(mm, addr);
+-              if (end - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (end - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+       if (((flags & MAP_32BIT) || test_thread_flag(TIF_IA32))
+@@ -106,7 +109,7 @@ full_search:
+                       }
+                       return -ENOMEM;
+               }
+-              if (!vma || addr + len <= vma->vm_start) {
++              if (check_heap_stack_gap(vma, addr, len)) {
+                       /*
+                        * Remember the place where we stopped the search:
+                        */
+@@ -128,7 +131,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+ {
+       struct vm_area_struct *vma;
+       struct mm_struct *mm = current->mm;
+-      unsigned long addr = addr0;
++      unsigned long base = mm->mmap_base, addr = addr0;
+       /* requested length too big for entire address space */
+       if (len > TASK_SIZE)
+@@ -141,13 +144,18 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       if (!test_thread_flag(TIF_IA32) && (flags & MAP_32BIT))
+               goto bottomup;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       /* requesting a specific address */
+       if (addr) {
+               addr = PAGE_ALIGN(addr);
+-              vma = find_vma(mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                              (!vma || addr + len <= vma->vm_start))
+-                      return addr;
++              if (TASK_SIZE - len >= addr) {
++                      vma = find_vma(mm, addr);
++                      if (check_heap_stack_gap(vma, addr, len))
++                              return addr;
++              }
+       }
+       /* check if free_area_cache is useful for us */
+@@ -162,7 +170,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       /* make sure it can fit in the remaining address space */
+       if (addr > len) {
+               vma = find_vma(mm, addr-len);
+-              if (!vma || addr <= vma->vm_start)
++              if (check_heap_stack_gap(vma, addr - len, len))
+                       /* remember the address as a hint for next time */
+                       return mm->free_area_cache = addr-len;
+       }
+@@ -179,7 +187,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                * return with success:
+                */
+               vma = find_vma(mm, addr);
+-              if (!vma || addr+len <= vma->vm_start)
++              if (check_heap_stack_gap(vma, addr, len))
+                       /* remember the address as a hint for next time */
+                       return mm->free_area_cache = addr;
+@@ -188,8 +196,8 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                       mm->cached_hole_size = vma->vm_start - addr;
+               /* try just below the current vma->vm_start */
+-              addr = vma->vm_start-len;
+-      } while (len < vma->vm_start);
++              addr = skip_heap_stack_gap(vma, len);
++      } while (!IS_ERR_VALUE(addr));
+ bottomup:
+       /*
+@@ -198,13 +206,21 @@ bottomup:
+        * can happen with large stack limits and large mmap()
+        * allocations.
+        */
++      mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (mm->pax_flags & MF_PAX_RANDMMAP)
++              mm->mmap_base += mm->delta_mmap;
++#endif
++
++      mm->free_area_cache = mm->mmap_base;
+       mm->cached_hole_size = ~0UL;
+-      mm->free_area_cache = TASK_UNMAPPED_BASE;
+       addr = arch_get_unmapped_area(filp, addr0, len, pgoff, flags);
+       /*
+        * Restore the topdown base:
+        */
+-      mm->free_area_cache = mm->mmap_base;
++      mm->mmap_base = base;
++      mm->free_area_cache = base;
+       mm->cached_hole_size = ~0UL;
+       return addr;
+diff --git a/arch/x86/kernel/syscall_table_32.S b/arch/x86/kernel/syscall_table_32.S
+index 76d70a4..4c94a44 100644
+--- a/arch/x86/kernel/syscall_table_32.S
++++ b/arch/x86/kernel/syscall_table_32.S
+@@ -1,3 +1,4 @@
++.section .rodata,"a",@progbits
+ ENTRY(sys_call_table)
+       .long sys_restart_syscall       /* 0 - old "setup()" system call, used for restarting */
+       .long sys_exit
+diff --git a/arch/x86/kernel/tboot.c b/arch/x86/kernel/tboot.c
+index 46b8277..3349d55 100644
+--- a/arch/x86/kernel/tboot.c
++++ b/arch/x86/kernel/tboot.c
+@@ -216,7 +216,7 @@ static int tboot_setup_sleep(void)
+ void tboot_shutdown(u32 shutdown_type)
+ {
+-      void (*shutdown)(void);
++      void (* __noreturn shutdown)(void);
+       if (!tboot_enabled())
+               return;
+@@ -238,7 +238,7 @@ void tboot_shutdown(u32 shutdown_type)
+       switch_to_tboot_pt();
+-      shutdown = (void(*)(void))(unsigned long)tboot->shutdown_entry;
++      shutdown = (void *)tboot->shutdown_entry;
+       shutdown();
+       /* should not reach here */
+@@ -295,7 +295,7 @@ void tboot_sleep(u8 sleep_state, u32 pm1a_control, u32 pm1b_control)
+       tboot_shutdown(acpi_shutdown_map[sleep_state]);
+ }
+-static atomic_t ap_wfs_count;
++static atomic_unchecked_t ap_wfs_count;
+ static int tboot_wait_for_aps(int num_aps)
+ {
+@@ -319,9 +319,9 @@ static int __cpuinit tboot_cpu_callback(struct notifier_block *nfb,
+ {
+       switch (action) {
+       case CPU_DYING:
+-              atomic_inc(&ap_wfs_count);
++              atomic_inc_unchecked(&ap_wfs_count);
+               if (num_online_cpus() == 1)
+-                      if (tboot_wait_for_aps(atomic_read(&ap_wfs_count)))
++                      if (tboot_wait_for_aps(atomic_read_unchecked(&ap_wfs_count)))
+                               return NOTIFY_BAD;
+               break;
+       }
+@@ -340,7 +340,7 @@ static __init int tboot_late_init(void)
+       tboot_create_trampoline();
+-      atomic_set(&ap_wfs_count, 0);
++      atomic_set_unchecked(&ap_wfs_count, 0);
+       register_hotcpu_notifier(&tboot_cpu_notifier);
+       return 0;
+ }
+diff --git a/arch/x86/kernel/time.c b/arch/x86/kernel/time.c
+index be25734..87fe232 100644
+--- a/arch/x86/kernel/time.c
++++ b/arch/x86/kernel/time.c
+@@ -26,17 +26,13 @@
+ int timer_ack;
+ #endif
+-#ifdef CONFIG_X86_64
+-volatile unsigned long __jiffies __section_jiffies = INITIAL_JIFFIES;
+-#endif
+-
+ unsigned long profile_pc(struct pt_regs *regs)
+ {
+       unsigned long pc = instruction_pointer(regs);
+-      if (!user_mode_vm(regs) && in_lock_functions(pc)) {
++      if (!user_mode(regs) && in_lock_functions(pc)) {
+ #ifdef CONFIG_FRAME_POINTER
+-              return *(unsigned long *)(regs->bp + sizeof(long));
++              return ktla_ktva(*(unsigned long *)(regs->bp + sizeof(long)));
+ #else
+               unsigned long *sp =
+                       (unsigned long *)kernel_stack_pointer(regs);
+@@ -45,11 +41,17 @@ unsigned long profile_pc(struct pt_regs *regs)
+                * or above a saved flags. Eflags has bits 22-31 zero,
+                * kernel addresses don't.
+                */
++
++#ifdef CONFIG_PAX_KERNEXEC
++              return ktla_ktva(sp[0]);
++#else
+               if (sp[0] >> 22)
+                       return sp[0];
+               if (sp[1] >> 22)
+                       return sp[1];
+ #endif
++
++#endif
+       }
+       return pc;
+ }
+diff --git a/arch/x86/kernel/tls.c b/arch/x86/kernel/tls.c
+index 6bb7b85..dd853e1 100644
+--- a/arch/x86/kernel/tls.c
++++ b/arch/x86/kernel/tls.c
+@@ -85,6 +85,11 @@ int do_set_thread_area(struct task_struct *p, int idx,
+       if (idx < GDT_ENTRY_TLS_MIN || idx > GDT_ENTRY_TLS_MAX)
+               return -EINVAL;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((p->mm->pax_flags & MF_PAX_SEGMEXEC) && (info.contents & MODIFY_LDT_CONTENTS_CODE))
++              return -EINVAL;
++#endif
++
+       set_tls_desc(p, idx, &info, 1);
+       return 0;
+diff --git a/arch/x86/kernel/trampoline_32.S b/arch/x86/kernel/trampoline_32.S
+index 8508237..229b664 100644
+--- a/arch/x86/kernel/trampoline_32.S
++++ b/arch/x86/kernel/trampoline_32.S
+@@ -32,6 +32,12 @@
+ #include <asm/segment.h>
+ #include <asm/page_types.h>
++#ifdef CONFIG_PAX_KERNEXEC
++#define ta(X) (X)
++#else
++#define ta(X) ((X) - __PAGE_OFFSET)
++#endif
++
+ /* We can free up trampoline after bootup if cpu hotplug is not supported. */
+ __CPUINITRODATA
+ .code16
+@@ -60,7 +66,7 @@ r_base = .
+       inc     %ax             # protected mode (PE) bit
+       lmsw    %ax             # into protected mode
+       # flush prefetch and jump to startup_32_smp in arch/i386/kernel/head.S
+-      ljmpl   $__BOOT_CS, $(startup_32_smp-__PAGE_OFFSET)
++      ljmpl   $__BOOT_CS, $ta(startup_32_smp)
+       # These need to be in the same 64K segment as the above;
+       # hence we don't use the boot_gdt_descr defined in head.S
+diff --git a/arch/x86/kernel/trampoline_64.S b/arch/x86/kernel/trampoline_64.S
+index 3af2dff..ba8aa49 100644
+--- a/arch/x86/kernel/trampoline_64.S
++++ b/arch/x86/kernel/trampoline_64.S
+@@ -91,7 +91,7 @@ startup_32:
+       movl    $__KERNEL_DS, %eax      # Initialize the %ds segment register
+       movl    %eax, %ds
+-      movl    $X86_CR4_PAE, %eax
++      movl    $(X86_CR4_PSE | X86_CR4_PAE | X86_CR4_PGE), %eax
+       movl    %eax, %cr4              # Enable PAE mode
+                                       # Setup trampoline 4 level pagetables
+@@ -127,7 +127,7 @@ startup_64:
+ no_longmode:
+       hlt
+       jmp no_longmode
+-#include "verify_cpu_64.S"
++#include "verify_cpu.S"
+       # Careful these need to be in the same 64K segment as the above;
+ tidt:
+@@ -138,7 +138,7 @@ tidt:
+       # so the kernel can live anywhere
+       .balign 4
+ tgdt:
+-      .short  tgdt_end - tgdt         # gdt limit
++      .short  tgdt_end - tgdt - 1     # gdt limit
+       .long   tgdt - r_base
+       .short 0
+       .quad   0x00cf9b000000ffff      # __KERNEL32_CS
+diff --git a/arch/x86/kernel/traps.c b/arch/x86/kernel/traps.c
+index 7e37dce..ec3f8e5 100644
+--- a/arch/x86/kernel/traps.c
++++ b/arch/x86/kernel/traps.c
+@@ -69,12 +69,6 @@ asmlinkage int system_call(void);
+ /* Do we ignore FPU interrupts ? */
+ char ignore_fpu_irq;
+-
+-/*
+- * The IDT has to be page-aligned to simplify the Pentium
+- * F0 0F bug workaround.
+- */
+-gate_desc idt_table[NR_VECTORS] __page_aligned_data = { { { { 0, 0 } } }, };
+ #endif
+ DECLARE_BITMAP(used_vectors, NR_VECTORS);
+@@ -112,19 +106,19 @@ static inline void preempt_conditional_cli(struct pt_regs *regs)
+ static inline void
+ die_if_kernel(const char *str, struct pt_regs *regs, long err)
+ {
+-      if (!user_mode_vm(regs))
++      if (!user_mode(regs))
+               die(str, regs, err);
+ }
+ #endif
+ static void __kprobes
+-do_trap(int trapnr, int signr, char *str, struct pt_regs *regs,
++do_trap(int trapnr, int signr, const char *str, struct pt_regs *regs,
+       long error_code, siginfo_t *info)
+ {
+       struct task_struct *tsk = current;
+ #ifdef CONFIG_X86_32
+-      if (regs->flags & X86_VM_MASK) {
++      if (v8086_mode(regs)) {
+               /*
+                * traps 0, 1, 3, 4, and 5 should be forwarded to vm86.
+                * On nmi (interrupt 2), do_trap should not be called.
+@@ -135,7 +129,7 @@ do_trap(int trapnr, int signr, char *str, struct pt_regs *regs,
+       }
+ #endif
+-      if (!user_mode(regs))
++      if (!user_mode_novm(regs))
+               goto kernel_trap;
+ #ifdef CONFIG_X86_32
+@@ -158,7 +152,7 @@ trap_signal:
+           printk_ratelimit()) {
+               printk(KERN_INFO
+                      "%s[%d] trap %s ip:%lx sp:%lx error:%lx",
+-                     tsk->comm, tsk->pid, str,
++                     tsk->comm, task_pid_nr(tsk), str,
+                      regs->ip, regs->sp, error_code);
+               print_vma_addr(" in ", regs->ip);
+               printk("\n");
+@@ -175,8 +169,20 @@ kernel_trap:
+       if (!fixup_exception(regs)) {
+               tsk->thread.error_code = error_code;
+               tsk->thread.trap_no = trapnr;
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++              if (trapnr == 12 && ((regs->cs & 0xFFFF) == __KERNEL_CS || (regs->cs & 0xFFFF) == __KERNEXEC_KERNEL_CS))
++                      str = "PAX: suspicious stack segment fault";
++#endif
++
+               die(str, regs, error_code);
+       }
++
++#ifdef CONFIG_PAX_REFCOUNT
++      if (trapnr == 4)
++              pax_report_refcount_overflow(regs);
++#endif
++
+       return;
+ #ifdef CONFIG_X86_32
+@@ -265,14 +271,30 @@ do_general_protection(struct pt_regs *regs, long error_code)
+       conditional_sti(regs);
+ #ifdef CONFIG_X86_32
+-      if (regs->flags & X86_VM_MASK)
++      if (v8086_mode(regs))
+               goto gp_in_vm86;
+ #endif
+       tsk = current;
+-      if (!user_mode(regs))
++      if (!user_mode_novm(regs))
+               goto gp_in_kernel;
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_PAGEEXEC)
++      if (!nx_enabled && tsk->mm && (tsk->mm->pax_flags & MF_PAX_PAGEEXEC)) {
++              struct mm_struct *mm = tsk->mm;
++              unsigned long limit;
++
++              down_write(&mm->mmap_sem);
++              limit = mm->context.user_cs_limit;
++              if (limit < TASK_SIZE) {
++                      track_exec_limit(mm, limit, TASK_SIZE, VM_EXEC);
++                      up_write(&mm->mmap_sem);
++                      return;
++              }
++              up_write(&mm->mmap_sem);
++      }
++#endif
++
+       tsk->thread.error_code = error_code;
+       tsk->thread.trap_no = 13;
+@@ -305,6 +327,13 @@ gp_in_kernel:
+       if (notify_die(DIE_GPF, "general protection fault", regs,
+                               error_code, 13, SIGSEGV) == NOTIFY_STOP)
+               return;
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++      if ((regs->cs & 0xFFFF) == __KERNEL_CS || (regs->cs & 0xFFFF) == __KERNEXEC_KERNEL_CS)
++              die("PAX: suspicious general protection fault", regs, error_code);
++      else
++#endif
++
+       die("general protection fault", regs, error_code);
+ }
+@@ -435,6 +464,17 @@ static notrace __kprobes void default_do_nmi(struct pt_regs *regs)
+ dotraplinkage notrace __kprobes void
+ do_nmi(struct pt_regs *regs, long error_code)
+ {
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++      if (!user_mode(regs)) {
++              unsigned long cs = regs->cs & 0xFFFF;
++              unsigned long ip = ktva_ktla(regs->ip);
++
++              if ((cs == __KERNEL_CS || cs == __KERNEXEC_KERNEL_CS) && ip <= (unsigned long)_etext)
++                      regs->ip = ip;
++      }
++#endif
++
+       nmi_enter();
+       inc_irq_stat(__nmi_count);
+@@ -558,7 +598,7 @@ dotraplinkage void __kprobes do_debug(struct pt_regs *regs, long error_code)
+       }
+ #ifdef CONFIG_X86_32
+-      if (regs->flags & X86_VM_MASK)
++      if (v8086_mode(regs))
+               goto debug_vm86;
+ #endif
+@@ -570,7 +610,7 @@ dotraplinkage void __kprobes do_debug(struct pt_regs *regs, long error_code)
+        * kernel space (but re-enable TF when returning to user mode).
+        */
+       if (condition & DR_STEP) {
+-              if (!user_mode(regs))
++              if (!user_mode_novm(regs))
+                       goto clear_TF_reenable;
+       }
+@@ -757,7 +797,7 @@ do_simd_coprocessor_error(struct pt_regs *regs, long error_code)
+        * Handle strange cache flush from user space exception
+        * in all other cases.  This is undocumented behaviour.
+        */
+-      if (regs->flags & X86_VM_MASK) {
++      if (v8086_mode(regs)) {
+               handle_vm86_fault((struct kernel_vm86_regs *)regs, error_code);
+               return;
+       }
+@@ -798,7 +838,7 @@ asmlinkage void __attribute__((weak)) smp_threshold_interrupt(void)
+ void __math_state_restore(void)
+ {
+       struct thread_info *thread = current_thread_info();
+-      struct task_struct *tsk = thread->task;
++      struct task_struct *tsk = current;
+       /*
+        * Paranoid restore. send a SIGSEGV if we fail to restore the state.
+@@ -825,8 +865,7 @@ void __math_state_restore(void)
+  */
+ asmlinkage void math_state_restore(void)
+ {
+-      struct thread_info *thread = current_thread_info();
+-      struct task_struct *tsk = thread->task;
++      struct task_struct *tsk = current;
+       if (!tsk_used_math(tsk)) {
+               local_irq_enable();
+diff --git a/arch/x86/kernel/verify_cpu.S b/arch/x86/kernel/verify_cpu.S
+new file mode 100644
+index 0000000..50c5edd
+--- /dev/null
++++ b/arch/x86/kernel/verify_cpu.S
+@@ -0,0 +1,140 @@
++/*
++ *
++ *    verify_cpu.S - Code for cpu long mode and SSE verification. This
++ *    code has been borrowed from boot/setup.S and was introduced by
++ *    Andi Kleen.
++ *
++ *    Copyright (c) 2007  Andi Kleen (ak@suse.de)
++ *    Copyright (c) 2007  Eric Biederman (ebiederm@xmission.com)
++ *    Copyright (c) 2007  Vivek Goyal (vgoyal@in.ibm.com)
++ *    Copyright (c) 2010  Kees Cook (kees.cook@canonical.com)
++ *
++ *    This source code is licensed under the GNU General Public License,
++ *    Version 2.  See the file COPYING for more details.
++ *
++ *    This is a common code for verification whether CPU supports
++ *    long mode and SSE or not. It is not called directly instead this
++ *    file is included at various places and compiled in that context.
++ *    This file is expected to run in 32bit code.  Currently:
++ *
++ *    arch/x86/boot/compressed/head_64.S: Boot cpu verification
++ *    arch/x86/kernel/trampoline_64.S: secondary processor verification
++ *    arch/x86/kernel/head_32.S: processor startup
++ *    arch/x86/kernel/acpi/realmode/wakeup.S: 32bit processor resume
++ *
++ *    verify_cpu, returns the status of longmode and SSE in register %eax.
++ *            0: Success    1: Failure
++ *
++ *    On Intel, the XD_DISABLE flag will be cleared as a side-effect.
++ *
++ *    The caller needs to check for the error code and take the action
++ *    appropriately. Either display a message or halt.
++ */
++
++#include <asm/cpufeature.h>
++#include <asm/msr-index.h>
++
++verify_cpu:
++      pushfl                          # Save caller passed flags
++      pushl   $0                      # Kill any dangerous flags
++      popfl
++
++      pushfl                          # standard way to check for cpuid
++      popl    %eax
++      movl    %eax,%ebx
++      xorl    $0x200000,%eax
++      pushl   %eax
++      popfl
++      pushfl
++      popl    %eax
++      cmpl    %eax,%ebx
++      jz      verify_cpu_no_longmode  # cpu has no cpuid
++
++      movl    $0x0,%eax               # See if cpuid 1 is implemented
++      cpuid
++      cmpl    $0x1,%eax
++      jb      verify_cpu_no_longmode  # no cpuid 1
++
++      xor     %di,%di
++      cmpl    $0x68747541,%ebx        # AuthenticAMD
++      jnz     verify_cpu_noamd
++      cmpl    $0x69746e65,%edx
++      jnz     verify_cpu_noamd
++      cmpl    $0x444d4163,%ecx
++      jnz     verify_cpu_noamd
++      mov     $1,%di                  # cpu is from AMD
++      jmp     verify_cpu_check
++
++verify_cpu_noamd:
++      cmpl    $0x756e6547,%ebx        # GenuineIntel?
++      jnz     verify_cpu_check
++      cmpl    $0x49656e69,%edx
++      jnz     verify_cpu_check
++      cmpl    $0x6c65746e,%ecx
++      jnz     verify_cpu_check
++
++      # only call IA32_MISC_ENABLE when:
++      # family > 6 || (family == 6 && model >= 0xd)
++      movl    $0x1, %eax              # check CPU family and model
++      cpuid
++      movl    %eax, %ecx
++
++      andl    $0x0ff00f00, %eax       # mask family and extended family
++      shrl    $8, %eax
++      cmpl    $6, %eax
++      ja      verify_cpu_clear_xd     # family > 6, ok
++      jb      verify_cpu_check        # family < 6, skip
++
++      andl    $0x000f00f0, %ecx       # mask model and extended model
++      shrl    $4, %ecx
++      cmpl    $0xd, %ecx
++      jb      verify_cpu_check        # family == 6, model < 0xd, skip
++
++verify_cpu_clear_xd:
++      movl    $MSR_IA32_MISC_ENABLE, %ecx
++      rdmsr
++      btrl    $2, %edx                # clear MSR_IA32_MISC_ENABLE_XD_DISABLE
++      jnc     verify_cpu_check        # only write MSR if bit was changed
++      wrmsr
++
++verify_cpu_check:
++      movl    $0x1,%eax               # Does the cpu have what it takes
++      cpuid
++      andl    $REQUIRED_MASK0,%edx
++      xorl    $REQUIRED_MASK0,%edx
++      jnz     verify_cpu_no_longmode
++
++      movl    $0x80000000,%eax        # See if extended cpuid is implemented
++      cpuid
++      cmpl    $0x80000001,%eax
++      jb      verify_cpu_no_longmode  # no extended cpuid
++
++      movl    $0x80000001,%eax        # Does the cpu have what it takes
++      cpuid
++      andl    $REQUIRED_MASK1,%edx
++      xorl    $REQUIRED_MASK1,%edx
++      jnz     verify_cpu_no_longmode
++
++verify_cpu_sse_test:
++      movl    $1,%eax
++      cpuid
++      andl    $SSE_MASK,%edx
++      cmpl    $SSE_MASK,%edx
++      je      verify_cpu_sse_ok
++      test    %di,%di
++      jz      verify_cpu_no_longmode  # only try to force SSE on AMD
++      movl    $MSR_K7_HWCR,%ecx
++      rdmsr
++      btr     $15,%eax                # enable SSE
++      wrmsr
++      xor     %di,%di                 # don't loop
++      jmp     verify_cpu_sse_test     # try again
++
++verify_cpu_no_longmode:
++      popfl                           # Restore caller passed flags
++      movl $1,%eax
++      ret
++verify_cpu_sse_ok:
++      popfl                           # Restore caller passed flags
++      xorl %eax, %eax
++      ret
+diff --git a/arch/x86/kernel/verify_cpu_64.S b/arch/x86/kernel/verify_cpu_64.S
+deleted file mode 100644
+index 45b6f8a..0000000
+--- a/arch/x86/kernel/verify_cpu_64.S
++++ /dev/null
+@@ -1,105 +0,0 @@
+-/*
+- *
+- *    verify_cpu.S - Code for cpu long mode and SSE verification. This
+- *    code has been borrowed from boot/setup.S and was introduced by
+- *    Andi Kleen.
+- *
+- *    Copyright (c) 2007  Andi Kleen (ak@suse.de)
+- *    Copyright (c) 2007  Eric Biederman (ebiederm@xmission.com)
+- *    Copyright (c) 2007  Vivek Goyal (vgoyal@in.ibm.com)
+- *
+- *    This source code is licensed under the GNU General Public License,
+- *    Version 2.  See the file COPYING for more details.
+- *
+- *    This is a common code for verification whether CPU supports
+- *    long mode and SSE or not. It is not called directly instead this
+- *    file is included at various places and compiled in that context.
+- *    Following are the current usage.
+- *
+- *    This file is included by both 16bit and 32bit code.
+- *
+- *    arch/x86_64/boot/setup.S : Boot cpu verification (16bit)
+- *    arch/x86_64/boot/compressed/head.S: Boot cpu verification (32bit)
+- *    arch/x86_64/kernel/trampoline.S: secondary processor verfication (16bit)
+- *    arch/x86_64/kernel/acpi/wakeup.S:Verfication at resume (16bit)
+- *
+- *    verify_cpu, returns the status of cpu check in register %eax.
+- *            0: Success    1: Failure
+- *
+- *    The caller needs to check for the error code and take the action
+- *    appropriately. Either display a message or halt.
+- */
+-
+-#include <asm/cpufeature.h>
+-
+-verify_cpu:
+-      pushfl                          # Save caller passed flags
+-      pushl   $0                      # Kill any dangerous flags
+-      popfl
+-
+-      pushfl                          # standard way to check for cpuid
+-      popl    %eax
+-      movl    %eax,%ebx
+-      xorl    $0x200000,%eax
+-      pushl   %eax
+-      popfl
+-      pushfl
+-      popl    %eax
+-      cmpl    %eax,%ebx
+-      jz      verify_cpu_no_longmode  # cpu has no cpuid
+-
+-      movl    $0x0,%eax               # See if cpuid 1 is implemented
+-      cpuid
+-      cmpl    $0x1,%eax
+-      jb      verify_cpu_no_longmode  # no cpuid 1
+-
+-      xor     %di,%di
+-      cmpl    $0x68747541,%ebx        # AuthenticAMD
+-      jnz     verify_cpu_noamd
+-      cmpl    $0x69746e65,%edx
+-      jnz     verify_cpu_noamd
+-      cmpl    $0x444d4163,%ecx
+-      jnz     verify_cpu_noamd
+-      mov     $1,%di                  # cpu is from AMD
+-
+-verify_cpu_noamd:
+-      movl    $0x1,%eax               # Does the cpu have what it takes
+-      cpuid
+-      andl    $REQUIRED_MASK0,%edx
+-      xorl    $REQUIRED_MASK0,%edx
+-      jnz     verify_cpu_no_longmode
+-
+-      movl    $0x80000000,%eax        # See if extended cpuid is implemented
+-      cpuid
+-      cmpl    $0x80000001,%eax
+-      jb      verify_cpu_no_longmode  # no extended cpuid
+-
+-      movl    $0x80000001,%eax        # Does the cpu have what it takes
+-      cpuid
+-      andl    $REQUIRED_MASK1,%edx
+-      xorl    $REQUIRED_MASK1,%edx
+-      jnz     verify_cpu_no_longmode
+-
+-verify_cpu_sse_test:
+-      movl    $1,%eax
+-      cpuid
+-      andl    $SSE_MASK,%edx
+-      cmpl    $SSE_MASK,%edx
+-      je      verify_cpu_sse_ok
+-      test    %di,%di
+-      jz      verify_cpu_no_longmode  # only try to force SSE on AMD
+-      movl    $0xc0010015,%ecx        # HWCR
+-      rdmsr
+-      btr     $15,%eax                # enable SSE
+-      wrmsr
+-      xor     %di,%di                 # don't loop
+-      jmp     verify_cpu_sse_test     # try again
+-
+-verify_cpu_no_longmode:
+-      popfl                           # Restore caller passed flags
+-      movl $1,%eax
+-      ret
+-verify_cpu_sse_ok:
+-      popfl                           # Restore caller passed flags
+-      xorl %eax, %eax
+-      ret
+diff --git a/arch/x86/kernel/vm86_32.c b/arch/x86/kernel/vm86_32.c
+index 9c4e625..c992817 100644
+--- a/arch/x86/kernel/vm86_32.c
++++ b/arch/x86/kernel/vm86_32.c
+@@ -41,6 +41,7 @@
+ #include <linux/ptrace.h>
+ #include <linux/audit.h>
+ #include <linux/stddef.h>
++#include <linux/grsecurity.h>
+ #include <asm/uaccess.h>
+ #include <asm/io.h>
+@@ -148,7 +149,7 @@ struct pt_regs *save_v86_state(struct kernel_vm86_regs *regs)
+               do_exit(SIGSEGV);
+       }
+-      tss = &per_cpu(init_tss, get_cpu());
++      tss = init_tss + get_cpu();
+       current->thread.sp0 = current->thread.saved_sp0;
+       current->thread.sysenter_cs = __KERNEL_CS;
+       load_sp0(tss, &current->thread);
+@@ -208,6 +209,13 @@ int sys_vm86old(struct pt_regs *regs)
+       struct task_struct *tsk;
+       int tmp, ret = -EPERM;
++#ifdef CONFIG_GRKERNSEC_VM86
++      if (!capable(CAP_SYS_RAWIO)) {
++              gr_handle_vm86();
++              goto out;
++      }
++#endif
++
+       tsk = current;
+       if (tsk->thread.saved_sp0)
+               goto out;
+@@ -238,6 +246,14 @@ int sys_vm86(struct pt_regs *regs)
+       int tmp, ret;
+       struct vm86plus_struct __user *v86;
++#ifdef CONFIG_GRKERNSEC_VM86
++      if (!capable(CAP_SYS_RAWIO)) {
++              gr_handle_vm86();
++              ret = -EPERM;
++              goto out;
++      }
++#endif
++
+       tsk = current;
+       switch (regs->bx) {
+       case VM86_REQUEST_IRQ:
+@@ -324,7 +340,7 @@ static void do_sys_vm86(struct kernel_vm86_struct *info, struct task_struct *tsk
+       tsk->thread.saved_fs = info->regs32->fs;
+       tsk->thread.saved_gs = get_user_gs(info->regs32);
+-      tss = &per_cpu(init_tss, get_cpu());
++      tss = init_tss + get_cpu();
+       tsk->thread.sp0 = (unsigned long) &info->VM86_TSS_ESP0;
+       if (cpu_has_sep)
+               tsk->thread.sysenter_cs = 0;
+@@ -529,7 +545,7 @@ static void do_int(struct kernel_vm86_regs *regs, int i,
+               goto cannot_handle;
+       if (i == 0x21 && is_revectored(AH(regs), &KVM86->int21_revectored))
+               goto cannot_handle;
+-      intr_ptr = (unsigned long __user *) (i << 2);
++      intr_ptr = (__force unsigned long __user *) (i << 2);
+       if (get_user(segoffs, intr_ptr))
+               goto cannot_handle;
+       if ((segoffs >> 16) == BIOSSEG)
+diff --git a/arch/x86/kernel/vmi_32.c b/arch/x86/kernel/vmi_32.c
+index d430e4c..831f817 100644
+--- a/arch/x86/kernel/vmi_32.c
++++ b/arch/x86/kernel/vmi_32.c
+@@ -44,12 +44,17 @@ typedef u32 __attribute__((regparm(1))) (VROMFUNC)(void);
+ typedef u64 __attribute__((regparm(2))) (VROMLONGFUNC)(int);
+ #define call_vrom_func(rom,func) \
+-   (((VROMFUNC *)(rom->func))())
++   (((VROMFUNC *)(ktva_ktla(rom.func)))())
+ #define call_vrom_long_func(rom,func,arg) \
+-   (((VROMLONGFUNC *)(rom->func)) (arg))
++({\
++      u64 __reloc = ((VROMLONGFUNC *)(ktva_ktla(rom.func))) (arg);\
++      struct vmi_relocation_info *const __rel = (struct vmi_relocation_info *)&__reloc;\
++      __rel->eip = (unsigned char *)ktva_ktla((unsigned long)__rel->eip);\
++      __reloc;\
++})
+-static struct vrom_header *vmi_rom;
++static struct vrom_header vmi_rom __attribute((__section__(".vmi.rom"), __aligned__(PAGE_SIZE)));
+ static int disable_pge;
+ static int disable_pse;
+ static int disable_sep;
+@@ -76,10 +81,10 @@ static struct {
+       void (*set_initial_ap_state)(int, int);
+       void (*halt)(void);
+       void (*set_lazy_mode)(int mode);
+-} vmi_ops;
++} __no_const vmi_ops __read_only;
+ /* Cached VMI operations */
+-struct vmi_timer_ops vmi_timer_ops;
++struct vmi_timer_ops vmi_timer_ops __read_only;
+ /*
+  * VMI patching routines.
+@@ -94,7 +99,7 @@ struct vmi_timer_ops vmi_timer_ops;
+ static inline void patch_offset(void *insnbuf,
+                               unsigned long ip, unsigned long dest)
+ {
+-        *(unsigned long *)(insnbuf+1) = dest-ip-5;
++      *(unsigned long *)(insnbuf+1) = dest-ip-5;
+ }
+ static unsigned patch_internal(int call, unsigned len, void *insnbuf,
+@@ -102,6 +107,7 @@ static unsigned patch_internal(int call, unsigned len, void *insnbuf,
+ {
+       u64 reloc;
+       struct vmi_relocation_info *const rel = (struct vmi_relocation_info *)&reloc;
++
+       reloc = call_vrom_long_func(vmi_rom, get_reloc, call);
+       switch(rel->type) {
+               case VMI_RELOCATION_CALL_REL:
+@@ -404,13 +410,13 @@ static void vmi_set_pud(pud_t *pudp, pud_t pudval)
+ static void vmi_pte_clear(struct mm_struct *mm, unsigned long addr, pte_t *ptep)
+ {
+-      const pte_t pte = { .pte = 0 };
++      const pte_t pte = __pte(0ULL);
+       vmi_ops.set_pte(pte, ptep, vmi_flags_addr(mm, addr, VMI_PAGE_PT, 0));
+ }
+ static void vmi_pmd_clear(pmd_t *pmd)
+ {
+-      const pte_t pte = { .pte = 0 };
++      const pte_t pte = __pte(0ULL);
+       vmi_ops.set_pte(pte, (pte_t *)pmd, VMI_PAGE_PD);
+ }
+ #endif
+@@ -438,10 +444,10 @@ vmi_startup_ipi_hook(int phys_apicid, unsigned long start_eip,
+       ap.ss = __KERNEL_DS;
+       ap.esp = (unsigned long) start_esp;
+-      ap.ds = __USER_DS;
+-      ap.es = __USER_DS;
++      ap.ds = __KERNEL_DS;
++      ap.es = __KERNEL_DS;
+       ap.fs = __KERNEL_PERCPU;
+-      ap.gs = __KERNEL_STACK_CANARY;
++      savesegment(gs, ap.gs);
+       ap.eflags = 0;
+@@ -486,6 +492,18 @@ static void vmi_leave_lazy_mmu(void)
+       paravirt_leave_lazy_mmu();
+ }
++#ifdef CONFIG_PAX_KERNEXEC
++static unsigned long vmi_pax_open_kernel(void)
++{
++      return 0;
++}
++
++static unsigned long vmi_pax_close_kernel(void)
++{
++      return 0;
++}
++#endif
++
+ static inline int __init check_vmi_rom(struct vrom_header *rom)
+ {
+       struct pci_header *pci;
+@@ -498,6 +516,10 @@ static inline int __init check_vmi_rom(struct vrom_header *rom)
+               return 0;
+       if (rom->vrom_signature != VMI_SIGNATURE)
+               return 0;
++      if (rom->rom_length * 512 > sizeof(*rom)) {
++              printk(KERN_WARNING "PAX: VMI: ROM size too big: %x\n", rom->rom_length * 512);
++              return 0;
++      }
+       if (rom->api_version_maj != VMI_API_REV_MAJOR ||
+           rom->api_version_min+1 < VMI_API_REV_MINOR+1) {
+               printk(KERN_WARNING "VMI: Found mismatched rom version %d.%d\n",
+@@ -562,7 +584,7 @@ static inline int __init probe_vmi_rom(void)
+               struct vrom_header *romstart;
+               romstart = (struct vrom_header *)isa_bus_to_virt(base);
+               if (check_vmi_rom(romstart)) {
+-                      vmi_rom = romstart;
++                      vmi_rom = *romstart;
+                       return 1;
+               }
+       }
+@@ -836,6 +858,11 @@ static inline int __init activate_vmi(void)
+       para_fill(pv_irq_ops.safe_halt, Halt);
++#ifdef CONFIG_PAX_KERNEXEC
++      pv_mmu_ops.pax_open_kernel = vmi_pax_open_kernel;
++      pv_mmu_ops.pax_close_kernel = vmi_pax_close_kernel;
++#endif
++
+       /*
+        * Alternative instruction rewriting doesn't happen soon enough
+        * to convert VMI_IRET to a call instead of a jump; so we have
+@@ -853,16 +880,16 @@ static inline int __init activate_vmi(void)
+ void __init vmi_init(void)
+ {
+-      if (!vmi_rom)
++      if (!vmi_rom.rom_signature)
+               probe_vmi_rom();
+       else
+-              check_vmi_rom(vmi_rom);
++              check_vmi_rom(&vmi_rom);
+       /* In case probing for or validating the ROM failed, basil */
+-      if (!vmi_rom)
++      if (!vmi_rom.rom_signature)
+               return;
+-      reserve_top_address(-vmi_rom->virtual_top);
++      reserve_top_address(-vmi_rom.virtual_top);
+ #ifdef CONFIG_X86_IO_APIC
+       /* This is virtual hardware; timer routing is wired correctly */
+@@ -874,7 +901,7 @@ void __init vmi_activate(void)
+ {
+       unsigned long flags;
+-      if (!vmi_rom)
++      if (!vmi_rom.rom_signature)
+               return;
+       local_irq_save(flags);
+diff --git a/arch/x86/kernel/vmlinux.lds.S b/arch/x86/kernel/vmlinux.lds.S
+index 3c68fe2..12c8280 100644
+--- a/arch/x86/kernel/vmlinux.lds.S
++++ b/arch/x86/kernel/vmlinux.lds.S
+@@ -26,6 +26,13 @@
+ #include <asm/page_types.h>
+ #include <asm/cache.h>
+ #include <asm/boot.h>
++#include <asm/segment.h>
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++#define __KERNEL_TEXT_OFFSET  (LOAD_OFFSET + ____LOAD_PHYSICAL_ADDR)
++#else
++#define __KERNEL_TEXT_OFFSET  0
++#endif
+ #undef i386     /* in case the preprocessor is a 32bit one */
+@@ -34,40 +41,53 @@ OUTPUT_FORMAT(CONFIG_OUTPUT_FORMAT, CONFIG_OUTPUT_FORMAT, CONFIG_OUTPUT_FORMAT)
+ #ifdef CONFIG_X86_32
+ OUTPUT_ARCH(i386)
+ ENTRY(phys_startup_32)
+-jiffies = jiffies_64;
+ #else
+ OUTPUT_ARCH(i386:x86-64)
+ ENTRY(phys_startup_64)
+-jiffies_64 = jiffies;
+ #endif
+ PHDRS {
+       text PT_LOAD FLAGS(5);          /* R_E */
+-      data PT_LOAD FLAGS(7);          /* RWE */
++#ifdef CONFIG_X86_32
++      module PT_LOAD FLAGS(5);        /* R_E */
++#endif
++#ifdef CONFIG_XEN
++      rodata PT_LOAD FLAGS(5);        /* R_E */
++#else
++      rodata PT_LOAD FLAGS(4);        /* R__ */
++#endif
++      data PT_LOAD FLAGS(6);          /* RW_ */
+ #ifdef CONFIG_X86_64
+       user PT_LOAD FLAGS(5);          /* R_E */
++#endif
++      init.begin PT_LOAD FLAGS(6);    /* RW_ */
+ #ifdef CONFIG_SMP
+       percpu PT_LOAD FLAGS(6);        /* RW_ */
+ #endif
++      text.init PT_LOAD FLAGS(5);     /* R_E */
++      text.exit PT_LOAD FLAGS(5);     /* R_E */
+       init PT_LOAD FLAGS(7);          /* RWE */
+-#endif
+       note PT_NOTE FLAGS(0);          /* ___ */
+ }
+ SECTIONS
+ {
+ #ifdef CONFIG_X86_32
+-        . = LOAD_OFFSET + LOAD_PHYSICAL_ADDR;
+-        phys_startup_32 = startup_32 - LOAD_OFFSET;
++      . = LOAD_OFFSET + ____LOAD_PHYSICAL_ADDR;
+ #else
+-        . = __START_KERNEL;
+-        phys_startup_64 = startup_64 - LOAD_OFFSET;
++      . = __START_KERNEL;
+ #endif
+       /* Text and read-only data */
+-      .text :  AT(ADDR(.text) - LOAD_OFFSET) {
+-              _text = .;
++      .text (. - __KERNEL_TEXT_OFFSET): AT(ADDR(.text) - LOAD_OFFSET + __KERNEL_TEXT_OFFSET) {
+               /* bootstrapping code */
++#ifdef CONFIG_X86_32
++              phys_startup_32 = startup_32 - LOAD_OFFSET + __KERNEL_TEXT_OFFSET;
++#else
++              phys_startup_64 = startup_64 - LOAD_OFFSET + __KERNEL_TEXT_OFFSET;
++#endif
++              __LOAD_PHYSICAL_ADDR = . - LOAD_OFFSET + __KERNEL_TEXT_OFFSET;
++              _text = .;
+               HEAD_TEXT
+ #ifdef CONFIG_X86_32
+               . = ALIGN(PAGE_SIZE);
+@@ -82,28 +102,71 @@ SECTIONS
+               IRQENTRY_TEXT
+               *(.fixup)
+               *(.gnu.warning)
+-              /* End of text section */
+-              _etext = .;
+       } :text = 0x9090
+-      NOTES :text :note
++      . += __KERNEL_TEXT_OFFSET;
+-      EXCEPTION_TABLE(16) :text = 0x9090
++#ifdef CONFIG_X86_32
++      . = ALIGN(PAGE_SIZE);
++      .vmi.rom : AT(ADDR(.vmi.rom) - LOAD_OFFSET) {
++              *(.vmi.rom)
++      } :module
++
++      . = ALIGN(PAGE_SIZE);
++      .module.text : AT(ADDR(.module.text) - LOAD_OFFSET) {
++
++#if defined(CONFIG_PAX_KERNEXEC) && defined(CONFIG_MODULES)
++              MODULES_EXEC_VADDR = .;
++              BYTE(0)
++              . += (CONFIG_PAX_KERNEXEC_MODULE_TEXT * 1024 * 1024);
++              . = ALIGN(HPAGE_SIZE);
++              MODULES_EXEC_END = . - 1;
++#endif
++
++      } :module
++#endif
++
++      .text.end : AT(ADDR(.text.end) - LOAD_OFFSET) {
++              /* End of text section */
++              _etext = . - __KERNEL_TEXT_OFFSET;
++      }
++
++#ifdef CONFIG_X86_32
++      . = ALIGN(PAGE_SIZE);
++      .rodata.page_aligned : AT(ADDR(.rodata.page_aligned) - LOAD_OFFSET) {
++              *(.idt)
++              . = ALIGN(PAGE_SIZE);
++              *(.empty_zero_page)
++              *(.swapper_pg_fixmap)
++              *(.swapper_pg_pmd)
++              *(.swapper_pg_dir)
++              *(.trampoline_pg_dir)
++      } :rodata
++#endif
++
++      . = ALIGN(PAGE_SIZE);
++      NOTES :rodata :note
++
++      EXCEPTION_TABLE(16) :rodata
+       RO_DATA(PAGE_SIZE)
+       /* Data */
+       .data : AT(ADDR(.data) - LOAD_OFFSET) {
++
++#ifdef CONFIG_PAX_KERNEXEC
++              . = ALIGN(HPAGE_SIZE);
++#else
++              . = ALIGN(PAGE_SIZE);
++#endif
++
+               /* Start of data section */
+               _sdata = .;
+               /* init_task */
+               INIT_TASK_DATA(THREAD_SIZE)
+-#ifdef CONFIG_X86_32
+-              /* 32 bit has nosave before _edata */
+               NOSAVE_DATA
+-#endif
+               PAGE_ALIGNED_DATA(PAGE_SIZE)
+@@ -112,6 +175,8 @@ SECTIONS
+               DATA_DATA
+               CONSTRUCTORS
++              jiffies = jiffies_64;
++
+               /* rarely changed data like cpu maps */
+               READ_MOSTLY_DATA(CONFIG_X86_INTERNODE_CACHE_BYTES)
+@@ -166,12 +231,6 @@ SECTIONS
+       }
+       vgetcpu_mode = VVIRT(.vgetcpu_mode);
+-      . = ALIGN(CONFIG_X86_L1_CACHE_BYTES);
+-      .jiffies : AT(VLOAD(.jiffies)) {
+-              *(.jiffies)
+-      }
+-      jiffies = VVIRT(.jiffies);
+-
+       .vsyscall_3 ADDR(.vsyscall_0) + 3072: AT(VLOAD(.vsyscall_3)) {
+               *(.vsyscall_3)
+       }
+@@ -187,12 +246,19 @@ SECTIONS
+ #endif /* CONFIG_X86_64 */
+       /* Init code and data - will be freed after init */
+-      . = ALIGN(PAGE_SIZE);
+       .init.begin : AT(ADDR(.init.begin) - LOAD_OFFSET) {
++              BYTE(0)
++
++#ifdef CONFIG_PAX_KERNEXEC
++              . = ALIGN(HPAGE_SIZE);
++#else
++              . = ALIGN(PAGE_SIZE);
++#endif
++
+               __init_begin = .; /* paired with __init_end */
+-      }
++      } :init.begin
+-#if defined(CONFIG_X86_64) && defined(CONFIG_SMP)
++#ifdef CONFIG_SMP
+       /*
+        * percpu offsets are zero-based on SMP.  PERCPU_VADDR() changes the
+        * output PHDR, so the next output section - .init.text - should
+@@ -201,12 +267,27 @@ SECTIONS
+       PERCPU_VADDR(0, :percpu)
+ #endif
+-      INIT_TEXT_SECTION(PAGE_SIZE)
+-#ifdef CONFIG_X86_64
+-      :init
+-#endif
++      . = ALIGN(PAGE_SIZE);
++      init_begin = .;
++      .init.text (. - __KERNEL_TEXT_OFFSET): AT(init_begin - LOAD_OFFSET) {
++              VMLINUX_SYMBOL(_sinittext) = .;
++              INIT_TEXT
++              VMLINUX_SYMBOL(_einittext) = .;
++              . = ALIGN(PAGE_SIZE);
++      } :text.init
+-      INIT_DATA_SECTION(16)
++      /*
++       * .exit.text is discard at runtime, not link time, to deal with
++       *  references from .altinstructions and .eh_frame
++       */
++      .exit.text : AT(ADDR(.exit.text) - LOAD_OFFSET + __KERNEL_TEXT_OFFSET) {
++              EXIT_TEXT
++              . = ALIGN(16);
++      } :text.exit
++      . = init_begin + SIZEOF(.init.text) + SIZEOF(.exit.text);
++
++      . = ALIGN(PAGE_SIZE);
++      INIT_DATA_SECTION(16) :init
+       .x86_cpu_dev.init : AT(ADDR(.x86_cpu_dev.init) - LOAD_OFFSET) {
+               __x86_cpu_dev_start = .;
+@@ -232,19 +313,11 @@ SECTIONS
+               *(.altinstr_replacement)
+       }
+-      /*
+-       * .exit.text is discard at runtime, not link time, to deal with
+-       *  references from .altinstructions and .eh_frame
+-       */
+-      .exit.text : AT(ADDR(.exit.text) - LOAD_OFFSET) {
+-              EXIT_TEXT
+-      }
+-
+       .exit.data : AT(ADDR(.exit.data) - LOAD_OFFSET) {
+               EXIT_DATA
+       }
+-#if !defined(CONFIG_X86_64) || !defined(CONFIG_SMP)
++#ifndef CONFIG_SMP
+       PERCPU(PAGE_SIZE)
+ #endif
+@@ -267,12 +340,6 @@ SECTIONS
+               . = ALIGN(PAGE_SIZE);
+       }
+-#ifdef CONFIG_X86_64
+-      .data_nosave : AT(ADDR(.data_nosave) - LOAD_OFFSET) {
+-              NOSAVE_DATA
+-      }
+-#endif
+-
+       /* BSS */
+       . = ALIGN(PAGE_SIZE);
+       .bss : AT(ADDR(.bss) - LOAD_OFFSET) {
+@@ -288,6 +355,7 @@ SECTIONS
+               __brk_base = .;
+               . += 64 * 1024;         /* 64k alignment slop space */
+               *(.brk_reservation)     /* areas brk users have reserved */
++              . = ALIGN(HPAGE_SIZE);
+               __brk_limit = .;
+       }
+@@ -316,13 +384,12 @@ SECTIONS
+  * for the boot processor.
+  */
+ #define INIT_PER_CPU(x) init_per_cpu__##x = per_cpu__##x + __per_cpu_load
+-INIT_PER_CPU(gdt_page);
+ INIT_PER_CPU(irq_stack_union);
+ /*
+  * Build-time check on the image size:
+  */
+-. = ASSERT((_end - _text <= KERNEL_IMAGE_SIZE),
++. = ASSERT((_end - _text - __KERNEL_TEXT_OFFSET <= KERNEL_IMAGE_SIZE),
+          "kernel image bigger than KERNEL_IMAGE_SIZE");
+ #ifdef CONFIG_SMP
+diff --git a/arch/x86/kernel/vsyscall_64.c b/arch/x86/kernel/vsyscall_64.c
+index 62f39d7..3bc46a1 100644
+--- a/arch/x86/kernel/vsyscall_64.c
++++ b/arch/x86/kernel/vsyscall_64.c
+@@ -80,6 +80,7 @@ void update_vsyscall(struct timespec *wall_time, struct clocksource *clock,
+       write_seqlock_irqsave(&vsyscall_gtod_data.lock, flags);
+       /* copy vsyscall data */
++      strlcpy(vsyscall_gtod_data.clock.name, clock->name, sizeof vsyscall_gtod_data.clock.name);
+       vsyscall_gtod_data.clock.vread = clock->vread;
+       vsyscall_gtod_data.clock.cycle_last = clock->cycle_last;
+       vsyscall_gtod_data.clock.mask = clock->mask;
+@@ -203,7 +204,7 @@ vgetcpu(unsigned *cpu, unsigned *node, struct getcpu_cache *tcache)
+          We do this here because otherwise user space would do it on
+          its own in a likely inferior way (no access to jiffies).
+          If you don't like it pass NULL. */
+-      if (tcache && tcache->blob[0] == (j = __jiffies)) {
++      if (tcache && tcache->blob[0] == (j = jiffies)) {
+               p = tcache->blob[1];
+       } else if (__vgetcpu_mode == VGETCPU_RDTSCP) {
+               /* Load per CPU data from RDTSCP */
+diff --git a/arch/x86/kernel/x8664_ksyms_64.c b/arch/x86/kernel/x8664_ksyms_64.c
+index 3909e3b..5433a97 100644
+--- a/arch/x86/kernel/x8664_ksyms_64.c
++++ b/arch/x86/kernel/x8664_ksyms_64.c
+@@ -30,8 +30,6 @@ EXPORT_SYMBOL(__put_user_8);
+ EXPORT_SYMBOL(copy_user_generic);
+ EXPORT_SYMBOL(__copy_user_nocache);
+-EXPORT_SYMBOL(copy_from_user);
+-EXPORT_SYMBOL(copy_to_user);
+ EXPORT_SYMBOL(__copy_from_user_inatomic);
+ EXPORT_SYMBOL(copy_page);
+diff --git a/arch/x86/kernel/xsave.c b/arch/x86/kernel/xsave.c
+index c5ee17e..d63218f 100644
+--- a/arch/x86/kernel/xsave.c
++++ b/arch/x86/kernel/xsave.c
+@@ -54,7 +54,7 @@ int check_for_xstate(struct i387_fxsave_struct __user *buf,
+           fx_sw_user->xstate_size > fx_sw_user->extended_size)
+               return -1;
+-      err = __get_user(magic2, (__u32 *) (((void *)fpstate) +
++      err = __get_user(magic2, (__u32 __user *) (((void __user *)fpstate) +
+                                           fx_sw_user->extended_size -
+                                           FP_XSTATE_MAGIC2_SIZE));
+       /*
+@@ -196,7 +196,7 @@ fx_only:
+        * the other extended state.
+        */
+       xrstor_state(init_xstate_buf, pcntxt_mask & ~XSTATE_FPSSE);
+-      return fxrstor_checking((__force struct i387_fxsave_struct *)buf);
++      return fxrstor_checking((struct i387_fxsave_struct __force_kernel *)buf);
+ }
+ /*
+@@ -228,7 +228,7 @@ int restore_i387_xstate(void __user *buf)
+       if (task_thread_info(tsk)->status & TS_XSAVE)
+               err = restore_user_xstate(buf);
+       else
+-              err = fxrstor_checking((__force struct i387_fxsave_struct *)
++              err = fxrstor_checking((struct i387_fxsave_struct __user *)
+                                      buf);
+       if (unlikely(err)) {
+               /*
+diff --git a/arch/x86/kvm/emulate.c b/arch/x86/kvm/emulate.c
+index 1350e43..a94b011 100644
+--- a/arch/x86/kvm/emulate.c
++++ b/arch/x86/kvm/emulate.c
+@@ -81,8 +81,8 @@
+ #define Src2CL      (1<<29)
+ #define Src2ImmByte (2<<29)
+ #define Src2One     (3<<29)
+-#define Src2Imm16   (4<<29)
+-#define Src2Mask    (7<<29)
++#define Src2Imm16   (4U<<29)
++#define Src2Mask    (7U<<29)
+ enum {
+       Group1_80, Group1_81, Group1_82, Group1_83,
+@@ -411,6 +411,7 @@ static u32 group2_table[] = {
+ #define ____emulate_2op(_op, _src, _dst, _eflags, _x, _y, _suffix)    \
+       do {                                                            \
++              unsigned long _tmp;                                     \
+               __asm__ __volatile__ (                                  \
+                       _PRE_EFLAGS("0", "4", "2")                      \
+                       _op _suffix " %"_x"3,%1; "                      \
+@@ -424,8 +425,6 @@ static u32 group2_table[] = {
+ /* Raw emulation: instruction has two explicit operands. */
+ #define __emulate_2op_nobyte(_op,_src,_dst,_eflags,_wx,_wy,_lx,_ly,_qx,_qy) \
+       do {                                                            \
+-              unsigned long _tmp;                                     \
+-                                                                      \
+               switch ((_dst).bytes) {                                 \
+               case 2:                                                 \
+                       ____emulate_2op(_op,_src,_dst,_eflags,_wx,_wy,"w"); \
+@@ -441,7 +440,6 @@ static u32 group2_table[] = {
+ #define __emulate_2op(_op,_src,_dst,_eflags,_bx,_by,_wx,_wy,_lx,_ly,_qx,_qy) \
+       do {                                                                 \
+-              unsigned long _tmp;                                          \
+               switch ((_dst).bytes) {                                      \
+               case 1:                                                      \
+                       ____emulate_2op(_op,_src,_dst,_eflags,_bx,_by,"b");  \
+diff --git a/arch/x86/kvm/lapic.c b/arch/x86/kvm/lapic.c
+index 8dfeaaa..4daa395 100644
+--- a/arch/x86/kvm/lapic.c
++++ b/arch/x86/kvm/lapic.c
+@@ -52,7 +52,7 @@
+ #define APIC_BUS_CYCLE_NS 1
+ /* #define apic_debug(fmt,arg...) printk(KERN_WARNING fmt,##arg) */
+-#define apic_debug(fmt, arg...)
++#define apic_debug(fmt, arg...) do {} while (0)
+ #define APIC_LVT_NUM                  6
+ /* 14 is the version for Xeon and Pentium 8.4.8*/
+diff --git a/arch/x86/kvm/paging_tmpl.h b/arch/x86/kvm/paging_tmpl.h
+index 3bc2707..dd157e2 100644
+--- a/arch/x86/kvm/paging_tmpl.h
++++ b/arch/x86/kvm/paging_tmpl.h
+@@ -416,6 +416,8 @@ static int FNAME(page_fault)(struct kvm_vcpu *vcpu, gva_t addr,
+       int level = PT_PAGE_TABLE_LEVEL;
+       unsigned long mmu_seq;
++      pax_track_stack();
++
+       pgprintk("%s: addr %lx err %x\n", __func__, addr, error_code);
+       kvm_mmu_audit(vcpu, "pre page fault");
+@@ -461,6 +463,7 @@ static int FNAME(page_fault)(struct kvm_vcpu *vcpu, gva_t addr,
+       kvm_mmu_free_some_pages(vcpu);
+       sptep = FNAME(fetch)(vcpu, addr, &walker, user_fault, write_fault,
+                            level, &write_pt, pfn);
++      (void)sptep;
+       pgprintk("%s: shadow pte %p %llx ptwrite %d\n", __func__,
+                sptep, *sptep, write_pt);
+diff --git a/arch/x86/kvm/svm.c b/arch/x86/kvm/svm.c
+index 7c6e63e..c5d92c1 100644
+--- a/arch/x86/kvm/svm.c
++++ b/arch/x86/kvm/svm.c
+@@ -2486,7 +2486,11 @@ static void reload_tss(struct kvm_vcpu *vcpu)
+       int cpu = raw_smp_processor_id();
+       struct svm_cpu_data *svm_data = per_cpu(svm_data, cpu);
++
++      pax_open_kernel();
+       svm_data->tss_desc->type = 9; /* available 32/64-bit TSS */
++      pax_close_kernel();
++
+       load_TR_desc();
+ }
+@@ -2947,7 +2951,7 @@ static bool svm_gb_page_enable(void)
+       return true;
+ }
+-static struct kvm_x86_ops svm_x86_ops = {
++static const struct kvm_x86_ops svm_x86_ops = {
+       .cpu_has_kvm_support = has_svm,
+       .disabled_by_bios = is_disabled,
+       .hardware_setup = svm_hardware_setup,
+diff --git a/arch/x86/kvm/vmx.c b/arch/x86/kvm/vmx.c
+index e6d925f..e7a4af8 100644
+--- a/arch/x86/kvm/vmx.c
++++ b/arch/x86/kvm/vmx.c
+@@ -570,7 +570,11 @@ static void reload_tss(void)
+       kvm_get_gdt(&gdt);
+       descs = (void *)gdt.base;
++
++      pax_open_kernel();
+       descs[GDT_ENTRY_TSS].type = 9; /* available TSS */
++      pax_close_kernel();
++
+       load_TR_desc();
+ }
+@@ -1410,8 +1414,11 @@ static __init int hardware_setup(void)
+       if (!cpu_has_vmx_flexpriority())
+               flexpriority_enabled = 0;
+-      if (!cpu_has_vmx_tpr_shadow())
+-              kvm_x86_ops->update_cr8_intercept = NULL;
++      if (!cpu_has_vmx_tpr_shadow()) {
++              pax_open_kernel();
++              *(void **)&kvm_x86_ops->update_cr8_intercept = NULL;
++              pax_close_kernel();
++      }
+       if (enable_ept && !cpu_has_vmx_ept_2m_page())
+               kvm_disable_largepages();
+@@ -2362,7 +2369,7 @@ static int vmx_vcpu_setup(struct vcpu_vmx *vmx)
+       vmcs_writel(HOST_IDTR_BASE, dt.base);   /* 22.2.4 */
+       asm("mov $.Lkvm_vmx_return, %0" : "=r"(kvm_vmx_return));
+-      vmcs_writel(HOST_RIP, kvm_vmx_return); /* 22.2.5 */
++      vmcs_writel(HOST_RIP, ktla_ktva(kvm_vmx_return)); /* 22.2.5 */
+       vmcs_write32(VM_EXIT_MSR_STORE_COUNT, 0);
+       vmcs_write32(VM_EXIT_MSR_LOAD_COUNT, 0);
+       vmcs_write32(VM_ENTRY_MSR_LOAD_COUNT, 0);
+@@ -3718,6 +3725,12 @@ static void vmx_vcpu_run(struct kvm_vcpu *vcpu, struct kvm_run *kvm_run)
+               "jmp .Lkvm_vmx_return \n\t"
+               ".Llaunched: " __ex(ASM_VMX_VMRESUME) "\n\t"
+               ".Lkvm_vmx_return: "
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++              "ljmp %[cs],$.Lkvm_vmx_return2\n\t"
++              ".Lkvm_vmx_return2: "
++#endif
++
+               /* Save guest registers, load host registers, keep flags */
+               "xchg %0,     (%%"R"sp) \n\t"
+               "mov %%"R"ax, %c[rax](%0) \n\t"
+@@ -3764,8 +3777,13 @@ static void vmx_vcpu_run(struct kvm_vcpu *vcpu, struct kvm_run *kvm_run)
+               [r15]"i"(offsetof(struct vcpu_vmx, vcpu.arch.regs[VCPU_REGS_R15])),
+ #endif
+               [cr2]"i"(offsetof(struct vcpu_vmx, vcpu.arch.cr2))
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++              ,[cs]"i"(__KERNEL_CS)
++#endif
++
+             : "cc", "memory"
+-              , R"bx", R"di", R"si"
++              , R"ax", R"bx", R"di", R"si"
+ #ifdef CONFIG_X86_64
+               , "r8", "r9", "r10", "r11", "r12", "r13", "r14", "r15"
+ #endif
+@@ -3782,7 +3800,16 @@ static void vmx_vcpu_run(struct kvm_vcpu *vcpu, struct kvm_run *kvm_run)
+       if (vmx->rmode.irq.pending)
+               fixup_rmode_irq(vmx);
+-      asm("mov %0, %%ds; mov %0, %%es" : : "r"(__USER_DS));
++      asm("mov %0, %%ds; mov %0, %%es; mov %0, %%ss" : : "r"(__KERNEL_DS));
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++      loadsegment(fs, __KERNEL_PERCPU);
++#endif
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      __set_fs(current_thread_info()->addr_limit);
++#endif
++
+       vmx->launched = 1;
+       vmx_complete_interrupts(vmx);
+@@ -3957,7 +3984,7 @@ static bool vmx_gb_page_enable(void)
+       return false;
+ }
+-static struct kvm_x86_ops vmx_x86_ops = {
++static const struct kvm_x86_ops vmx_x86_ops = {
+       .cpu_has_kvm_support = cpu_has_kvm_support,
+       .disabled_by_bios = vmx_disabled_by_bios,
+       .hardware_setup = hardware_setup,
+diff --git a/arch/x86/kvm/x86.c b/arch/x86/kvm/x86.c
+index df1cefb..5e882ad 100644
+--- a/arch/x86/kvm/x86.c
++++ b/arch/x86/kvm/x86.c
+@@ -82,7 +82,7 @@ static void update_cr8_intercept(struct kvm_vcpu *vcpu);
+ static int kvm_dev_ioctl_get_supported_cpuid(struct kvm_cpuid2 *cpuid,
+                                   struct kvm_cpuid_entry2 __user *entries);
+-struct kvm_x86_ops *kvm_x86_ops;
++const struct kvm_x86_ops *kvm_x86_ops;
+ EXPORT_SYMBOL_GPL(kvm_x86_ops);
+ int ignore_msrs = 0;
+@@ -1430,15 +1430,20 @@ static int kvm_vcpu_ioctl_set_cpuid2(struct kvm_vcpu *vcpu,
+                                    struct kvm_cpuid2 *cpuid,
+                                    struct kvm_cpuid_entry2 __user *entries)
+ {
+-      int r;
++      int r, i;
+       r = -E2BIG;
+       if (cpuid->nent > KVM_MAX_CPUID_ENTRIES)
+               goto out;
+       r = -EFAULT;
+-      if (copy_from_user(&vcpu->arch.cpuid_entries, entries,
+-                         cpuid->nent * sizeof(struct kvm_cpuid_entry2)))
++      if (!access_ok(VERIFY_READ, entries, cpuid->nent * sizeof(struct kvm_cpuid_entry2)))
+               goto out;
++      for (i = 0; i < cpuid->nent; ++i) {
++              struct kvm_cpuid_entry2 cpuid_entry;
++              if (__copy_from_user(&cpuid_entry, entries + i, sizeof(cpuid_entry)))
++                      goto out;
++              vcpu->arch.cpuid_entries[i] = cpuid_entry;
++      }
+       vcpu->arch.cpuid_nent = cpuid->nent;
+       kvm_apic_set_version(vcpu);
+       return 0;
+@@ -1451,16 +1456,20 @@ static int kvm_vcpu_ioctl_get_cpuid2(struct kvm_vcpu *vcpu,
+                                    struct kvm_cpuid2 *cpuid,
+                                    struct kvm_cpuid_entry2 __user *entries)
+ {
+-      int r;
++      int r, i;
+       vcpu_load(vcpu);
+       r = -E2BIG;
+       if (cpuid->nent < vcpu->arch.cpuid_nent)
+               goto out;
+       r = -EFAULT;
+-      if (copy_to_user(entries, &vcpu->arch.cpuid_entries,
+-                       vcpu->arch.cpuid_nent * sizeof(struct kvm_cpuid_entry2)))
++      if (!access_ok(VERIFY_WRITE, entries, vcpu->arch.cpuid_nent * sizeof(struct kvm_cpuid_entry2)))
+               goto out;
++      for (i = 0; i < vcpu->arch.cpuid_nent; ++i) {
++              struct kvm_cpuid_entry2 cpuid_entry = vcpu->arch.cpuid_entries[i];
++              if (__copy_to_user(entries + i, &cpuid_entry, sizeof(cpuid_entry)))
++                      goto out;
++      }
+       return 0;
+ out:
+@@ -1678,7 +1687,7 @@ static int kvm_vcpu_ioctl_set_lapic(struct kvm_vcpu *vcpu,
+ static int kvm_vcpu_ioctl_interrupt(struct kvm_vcpu *vcpu,
+                                   struct kvm_interrupt *irq)
+ {
+-      if (irq->irq < 0 || irq->irq >= 256)
++      if (irq->irq >= 256)
+               return -EINVAL;
+       if (irqchip_in_kernel(vcpu->kvm))
+               return -ENXIO;
+@@ -3260,10 +3269,10 @@ static struct notifier_block kvmclock_cpufreq_notifier_block = {
+         .notifier_call  = kvmclock_cpufreq_notifier
+ };
+-int kvm_arch_init(void *opaque)
++int kvm_arch_init(const void *opaque)
+ {
+       int r, cpu;
+-      struct kvm_x86_ops *ops = (struct kvm_x86_ops *)opaque;
++      const struct kvm_x86_ops *ops = (const struct kvm_x86_ops *)opaque;
+       if (kvm_x86_ops) {
+               printk(KERN_ERR "kvm: already loaded the other module\n");
+diff --git a/arch/x86/lguest/boot.c b/arch/x86/lguest/boot.c
+index 7e59dc1..b88c98f 100644
+--- a/arch/x86/lguest/boot.c
++++ b/arch/x86/lguest/boot.c
+@@ -1172,9 +1172,10 @@ static __init int early_put_chars(u32 vtermno, const char *buf, int count)
+  * Rebooting also tells the Host we're finished, but the RESTART flag tells the
+  * Launcher to reboot us.
+  */
+-static void lguest_restart(char *reason)
++static __noreturn void lguest_restart(char *reason)
+ {
+       kvm_hypercall2(LHCALL_SHUTDOWN, __pa(reason), LGUEST_SHUTDOWN_RESTART);
++      BUG();
+ }
+ /*G:050
+diff --git a/arch/x86/lib/atomic64_32.c b/arch/x86/lib/atomic64_32.c
+index 824fa0b..c619e96 100644
+--- a/arch/x86/lib/atomic64_32.c
++++ b/arch/x86/lib/atomic64_32.c
+@@ -25,6 +25,12 @@ u64 atomic64_cmpxchg(atomic64_t *ptr, u64 old_val, u64 new_val)
+ }
+ EXPORT_SYMBOL(atomic64_cmpxchg);
++u64 atomic64_cmpxchg_unchecked(atomic64_unchecked_t *ptr, u64 old_val, u64 new_val)
++{
++      return cmpxchg8b(&ptr->counter, old_val, new_val);
++}
++EXPORT_SYMBOL(atomic64_cmpxchg_unchecked);
++
+ /**
+  * atomic64_xchg - xchg atomic64 variable
+  * @ptr:      pointer to type atomic64_t
+@@ -56,6 +62,36 @@ u64 atomic64_xchg(atomic64_t *ptr, u64 new_val)
+ EXPORT_SYMBOL(atomic64_xchg);
+ /**
++ * atomic64_xchg_unchecked - xchg atomic64 variable
++ * @ptr:      pointer to type atomic64_unchecked_t
++ * @new_val:  value to assign
++ *
++ * Atomically xchgs the value of @ptr to @new_val and returns
++ * the old value.
++ */
++u64 atomic64_xchg_unchecked(atomic64_unchecked_t *ptr, u64 new_val)
++{
++      /*
++       * Try first with a (possibly incorrect) assumption about
++       * what we have there. We'll do two loops most likely,
++       * but we'll get an ownership MESI transaction straight away
++       * instead of a read transaction followed by a
++       * flush-for-ownership transaction:
++       */
++      u64 old_val, real_val = 0;
++
++      do {
++              old_val = real_val;
++
++              real_val = atomic64_cmpxchg_unchecked(ptr, old_val, new_val);
++
++      } while (real_val != old_val);
++
++      return old_val;
++}
++EXPORT_SYMBOL(atomic64_xchg_unchecked);
++
++/**
+  * atomic64_set - set atomic64 variable
+  * @ptr:      pointer to type atomic64_t
+  * @new_val:  value to assign
+@@ -69,7 +105,19 @@ void atomic64_set(atomic64_t *ptr, u64 new_val)
+ EXPORT_SYMBOL(atomic64_set);
+ /**
+-EXPORT_SYMBOL(atomic64_read);
++ * atomic64_unchecked_set - set atomic64 variable
++ * @ptr:      pointer to type atomic64_unchecked_t
++ * @new_val:  value to assign
++ *
++ * Atomically sets the value of @ptr to @new_val.
++ */
++void atomic64_set_unchecked(atomic64_unchecked_t *ptr, u64 new_val)
++{
++      atomic64_xchg_unchecked(ptr, new_val);
++}
++EXPORT_SYMBOL(atomic64_set_unchecked);
++
++/**
+  * atomic64_add_return - add and return
+  * @delta: integer value to add
+  * @ptr:   pointer to type atomic64_t
+@@ -99,24 +147,72 @@ noinline u64 atomic64_add_return(u64 delta, atomic64_t *ptr)
+ }
+ EXPORT_SYMBOL(atomic64_add_return);
++/**
++ * atomic64_add_return_unchecked - add and return
++ * @delta: integer value to add
++ * @ptr:   pointer to type atomic64_unchecked_t
++ *
++ * Atomically adds @delta to @ptr and returns @delta + *@ptr
++ */
++noinline u64 atomic64_add_return_unchecked(u64 delta, atomic64_unchecked_t *ptr)
++{
++      /*
++       * Try first with a (possibly incorrect) assumption about
++       * what we have there. We'll do two loops most likely,
++       * but we'll get an ownership MESI transaction straight away
++       * instead of a read transaction followed by a
++       * flush-for-ownership transaction:
++       */
++      u64 old_val, new_val, real_val = 0;
++
++      do {
++              old_val = real_val;
++              new_val = old_val + delta;
++
++              real_val = atomic64_cmpxchg_unchecked(ptr, old_val, new_val);
++
++      } while (real_val != old_val);
++
++      return new_val;
++}
++EXPORT_SYMBOL(atomic64_add_return_unchecked);
++
+ u64 atomic64_sub_return(u64 delta, atomic64_t *ptr)
+ {
+       return atomic64_add_return(-delta, ptr);
+ }
+ EXPORT_SYMBOL(atomic64_sub_return);
++u64 atomic64_sub_return_unchecked(u64 delta, atomic64_unchecked_t *ptr)
++{
++      return atomic64_add_return_unchecked(-delta, ptr);
++}
++EXPORT_SYMBOL(atomic64_sub_return_unchecked);
++
+ u64 atomic64_inc_return(atomic64_t *ptr)
+ {
+       return atomic64_add_return(1, ptr);
+ }
+ EXPORT_SYMBOL(atomic64_inc_return);
++u64 atomic64_inc_return_unchecked(atomic64_unchecked_t *ptr)
++{
++      return atomic64_add_return_unchecked(1, ptr);
++}
++EXPORT_SYMBOL(atomic64_inc_return_unchecked);
++
+ u64 atomic64_dec_return(atomic64_t *ptr)
+ {
+       return atomic64_sub_return(1, ptr);
+ }
+ EXPORT_SYMBOL(atomic64_dec_return);
++u64 atomic64_dec_return_unchecked(atomic64_unchecked_t *ptr)
++{
++      return atomic64_sub_return_unchecked(1, ptr);
++}
++EXPORT_SYMBOL(atomic64_dec_return_unchecked);
++
+ /**
+  * atomic64_add - add integer to atomic64 variable
+  * @delta: integer value to add
+@@ -131,6 +227,19 @@ void atomic64_add(u64 delta, atomic64_t *ptr)
+ EXPORT_SYMBOL(atomic64_add);
+ /**
++ * atomic64_add_unchecked - add integer to atomic64 variable
++ * @delta: integer value to add
++ * @ptr:   pointer to type atomic64_unchecked_t
++ *
++ * Atomically adds @delta to @ptr.
++ */
++void atomic64_add_unchecked(u64 delta, atomic64_unchecked_t *ptr)
++{
++      atomic64_add_return_unchecked(delta, ptr);
++}
++EXPORT_SYMBOL(atomic64_add_unchecked);
++
++/**
+  * atomic64_sub - subtract the atomic64 variable
+  * @delta: integer value to subtract
+  * @ptr:   pointer to type atomic64_t
+@@ -144,6 +253,19 @@ void atomic64_sub(u64 delta, atomic64_t *ptr)
+ EXPORT_SYMBOL(atomic64_sub);
+ /**
++ * atomic64_sub_unchecked - subtract the atomic64 variable
++ * @delta: integer value to subtract
++ * @ptr:   pointer to type atomic64_unchecked_t
++ *
++ * Atomically subtracts @delta from @ptr.
++ */
++void atomic64_sub_unchecked(u64 delta, atomic64_unchecked_t *ptr)
++{
++      atomic64_add_unchecked(-delta, ptr);
++}
++EXPORT_SYMBOL(atomic64_sub_unchecked);
++
++/**
+  * atomic64_sub_and_test - subtract value from variable and test result
+  * @delta: integer value to subtract
+  * @ptr:   pointer to type atomic64_t
+@@ -173,6 +295,18 @@ void atomic64_inc(atomic64_t *ptr)
+ EXPORT_SYMBOL(atomic64_inc);
+ /**
++ * atomic64_inc_unchecked - increment atomic64 variable
++ * @ptr: pointer to type atomic64_unchecked_t
++ *
++ * Atomically increments @ptr by 1.
++ */
++void atomic64_inc_unchecked(atomic64_unchecked_t *ptr)
++{
++      atomic64_add_unchecked(1, ptr);
++}
++EXPORT_SYMBOL(atomic64_inc_unchecked);
++
++/**
+  * atomic64_dec - decrement atomic64 variable
+  * @ptr: pointer to type atomic64_t
+  *
+@@ -185,6 +319,18 @@ void atomic64_dec(atomic64_t *ptr)
+ EXPORT_SYMBOL(atomic64_dec);
+ /**
++ * atomic64_dec_unchecked - decrement atomic64 variable
++ * @ptr: pointer to type atomic64_unchecked_t
++ *
++ * Atomically decrements @ptr by 1.
++ */
++void atomic64_dec_unchecked(atomic64_unchecked_t *ptr)
++{
++      atomic64_sub_unchecked(1, ptr);
++}
++EXPORT_SYMBOL(atomic64_dec_unchecked);
++
++/**
+  * atomic64_dec_and_test - decrement and test
+  * @ptr: pointer to type atomic64_t
+  *
+diff --git a/arch/x86/lib/checksum_32.S b/arch/x86/lib/checksum_32.S
+index adbccd0..98f96c8 100644
+--- a/arch/x86/lib/checksum_32.S
++++ b/arch/x86/lib/checksum_32.S
+@@ -28,7 +28,8 @@
+ #include <linux/linkage.h>
+ #include <asm/dwarf2.h>
+ #include <asm/errno.h>
+-                              
++#include <asm/segment.h>
++
+ /*
+  * computes a partial checksum, e.g. for TCP/UDP fragments
+  */
+@@ -304,9 +305,28 @@ unsigned int csum_partial_copy_generic (const char *src, char *dst,
+ #define ARGBASE 16            
+ #define FP            12
+-              
+-ENTRY(csum_partial_copy_generic)
++
++ENTRY(csum_partial_copy_generic_to_user)
+       CFI_STARTPROC
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pushl %gs
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %es
++      CFI_ADJUST_CFA_OFFSET -4
++      jmp csum_partial_copy_generic
++#endif
++
++ENTRY(csum_partial_copy_generic_from_user)
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pushl %gs
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %ds
++      CFI_ADJUST_CFA_OFFSET -4
++#endif
++
++ENTRY(csum_partial_copy_generic)
+       subl  $4,%esp   
+       CFI_ADJUST_CFA_OFFSET 4
+       pushl %edi
+@@ -331,7 +351,7 @@ ENTRY(csum_partial_copy_generic)
+       jmp 4f
+ SRC(1:        movw (%esi), %bx        )
+       addl $2, %esi
+-DST(  movw %bx, (%edi)        )
++DST(  movw %bx, %es:(%edi)    )
+       addl $2, %edi
+       addw %bx, %ax   
+       adcl $0, %eax
+@@ -343,30 +363,30 @@ DST(     movw %bx, (%edi)        )
+ SRC(1:        movl (%esi), %ebx       )
+ SRC(  movl 4(%esi), %edx      )
+       adcl %ebx, %eax
+-DST(  movl %ebx, (%edi)       )
++DST(  movl %ebx, %es:(%edi)   )
+       adcl %edx, %eax
+-DST(  movl %edx, 4(%edi)      )
++DST(  movl %edx, %es:4(%edi)  )
+ SRC(  movl 8(%esi), %ebx      )
+ SRC(  movl 12(%esi), %edx     )
+       adcl %ebx, %eax
+-DST(  movl %ebx, 8(%edi)      )
++DST(  movl %ebx, %es:8(%edi)  )
+       adcl %edx, %eax
+-DST(  movl %edx, 12(%edi)     )
++DST(  movl %edx, %es:12(%edi) )
+ SRC(  movl 16(%esi), %ebx     )
+ SRC(  movl 20(%esi), %edx     )
+       adcl %ebx, %eax
+-DST(  movl %ebx, 16(%edi)     )
++DST(  movl %ebx, %es:16(%edi) )
+       adcl %edx, %eax
+-DST(  movl %edx, 20(%edi)     )
++DST(  movl %edx, %es:20(%edi) )
+ SRC(  movl 24(%esi), %ebx     )
+ SRC(  movl 28(%esi), %edx     )
+       adcl %ebx, %eax
+-DST(  movl %ebx, 24(%edi)     )
++DST(  movl %ebx, %es:24(%edi) )
+       adcl %edx, %eax
+-DST(  movl %edx, 28(%edi)     )
++DST(  movl %edx, %es:28(%edi) )
+       lea 32(%esi), %esi
+       lea 32(%edi), %edi
+@@ -380,7 +400,7 @@ DST(       movl %edx, 28(%edi)     )
+       shrl $2, %edx                   # This clears CF
+ SRC(3:        movl (%esi), %ebx       )
+       adcl %ebx, %eax
+-DST(  movl %ebx, (%edi)       )
++DST(  movl %ebx, %es:(%edi)   )
+       lea 4(%esi), %esi
+       lea 4(%edi), %edi
+       dec %edx
+@@ -392,12 +412,12 @@ DST(     movl %ebx, (%edi)       )
+       jb 5f
+ SRC(  movw (%esi), %cx        )
+       leal 2(%esi), %esi
+-DST(  movw %cx, (%edi)        )
++DST(  movw %cx, %es:(%edi)    )
+       leal 2(%edi), %edi
+       je 6f
+       shll $16,%ecx
+ SRC(5:        movb (%esi), %cl        )
+-DST(  movb %cl, (%edi)        )
++DST(  movb %cl, %es:(%edi)    )
+ 6:    addl %ecx, %eax
+       adcl $0, %eax
+ 7:
+@@ -408,7 +428,7 @@ DST(       movb %cl, (%edi)        )
+ 6001:
+       movl ARGBASE+20(%esp), %ebx     # src_err_ptr
+-      movl $-EFAULT, (%ebx)
++      movl $-EFAULT, %ss:(%ebx)
+       # zero the complete destination - computing the rest
+       # is too much work 
+@@ -421,11 +441,19 @@ DST(     movb %cl, (%edi)        )
+ 6002:
+       movl ARGBASE+24(%esp), %ebx     # dst_err_ptr
+-      movl $-EFAULT,(%ebx)
++      movl $-EFAULT,%ss:(%ebx)
+       jmp 5000b
+ .previous
++      pushl %ss
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %ds
++      CFI_ADJUST_CFA_OFFSET -4
++      pushl %ss
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %es
++      CFI_ADJUST_CFA_OFFSET -4
+       popl %ebx
+       CFI_ADJUST_CFA_OFFSET -4
+       CFI_RESTORE ebx
+@@ -439,26 +467,47 @@ DST(     movb %cl, (%edi)        )
+       CFI_ADJUST_CFA_OFFSET -4
+       ret     
+       CFI_ENDPROC
+-ENDPROC(csum_partial_copy_generic)
++ENDPROC(csum_partial_copy_generic_to_user)
+ #else
+ /* Version for PentiumII/PPro */
+ #define ROUND1(x) \
++      nop; nop; nop;                          \
+       SRC(movl x(%esi), %ebx  )       ;       \
+       addl %ebx, %eax                 ;       \
+-      DST(movl %ebx, x(%edi)  )       ; 
++      DST(movl %ebx, %es:x(%edi))     ;
+ #define ROUND(x) \
++      nop; nop; nop;                          \
+       SRC(movl x(%esi), %ebx  )       ;       \
+       adcl %ebx, %eax                 ;       \
+-      DST(movl %ebx, x(%edi)  )       ;
++      DST(movl %ebx, %es:x(%edi))     ;
+ #define ARGBASE 12
+-              
+-ENTRY(csum_partial_copy_generic)
++
++ENTRY(csum_partial_copy_generic_to_user)
+       CFI_STARTPROC
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pushl %gs
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %es
++      CFI_ADJUST_CFA_OFFSET -4
++      jmp csum_partial_copy_generic
++#endif
++
++ENTRY(csum_partial_copy_generic_from_user)
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pushl %gs
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %ds
++      CFI_ADJUST_CFA_OFFSET -4
++#endif
++
++ENTRY(csum_partial_copy_generic)
+       pushl %ebx
+       CFI_ADJUST_CFA_OFFSET 4
+       CFI_REL_OFFSET ebx, 0
+@@ -482,7 +531,7 @@ ENTRY(csum_partial_copy_generic)
+       subl %ebx, %edi  
+       lea  -1(%esi),%edx
+       andl $-32,%edx
+-      lea 3f(%ebx,%ebx), %ebx
++      lea 3f(%ebx,%ebx,2), %ebx
+       testl %esi, %esi 
+       jmp *%ebx
+ 1:    addl $64,%esi
+@@ -503,19 +552,19 @@ ENTRY(csum_partial_copy_generic)
+       jb 5f
+ SRC(  movw (%esi), %dx         )
+       leal 2(%esi), %esi
+-DST(  movw %dx, (%edi)         )
++DST(  movw %dx, %es:(%edi)     )
+       leal 2(%edi), %edi
+       je 6f
+       shll $16,%edx
+ 5:
+ SRC(  movb (%esi), %dl         )
+-DST(  movb %dl, (%edi)         )
++DST(  movb %dl, %es:(%edi)     )
+ 6:    addl %edx, %eax
+       adcl $0, %eax
+ 7:
+ .section .fixup, "ax"
+ 6001: movl    ARGBASE+20(%esp), %ebx  # src_err_ptr   
+-      movl $-EFAULT, (%ebx)
++      movl $-EFAULT, %ss:(%ebx)
+       # zero the complete destination (computing the rest is too much work)
+       movl ARGBASE+8(%esp),%edi       # dst
+       movl ARGBASE+12(%esp),%ecx      # len
+@@ -523,10 +572,21 @@ DST(     movb %dl, (%edi)         )
+       rep; stosb
+       jmp 7b
+ 6002: movl ARGBASE+24(%esp), %ebx     # dst_err_ptr
+-      movl $-EFAULT, (%ebx)
++      movl $-EFAULT, %ss:(%ebx)
+       jmp  7b                 
+ .previous                             
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      pushl %ss
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %ds
++      CFI_ADJUST_CFA_OFFSET -4
++      pushl %ss
++      CFI_ADJUST_CFA_OFFSET 4
++      popl %es
++      CFI_ADJUST_CFA_OFFSET -4
++#endif
++
+       popl %esi
+       CFI_ADJUST_CFA_OFFSET -4
+       CFI_RESTORE esi
+@@ -538,7 +598,7 @@ DST(       movb %dl, (%edi)         )
+       CFI_RESTORE ebx
+       ret
+       CFI_ENDPROC
+-ENDPROC(csum_partial_copy_generic)
++ENDPROC(csum_partial_copy_generic_to_user)
+                               
+ #undef ROUND
+ #undef ROUND1         
+diff --git a/arch/x86/lib/clear_page_64.S b/arch/x86/lib/clear_page_64.S
+index ebeafcc..1e3a402 100644
+--- a/arch/x86/lib/clear_page_64.S
++++ b/arch/x86/lib/clear_page_64.S
+@@ -1,5 +1,6 @@
+ #include <linux/linkage.h>
+ #include <asm/dwarf2.h>
++#include <asm/alternative-asm.h>
+ /*
+  * Zero a page.       
+@@ -10,6 +11,7 @@ ENTRY(clear_page_c)
+       movl $4096/8,%ecx
+       xorl %eax,%eax
+       rep stosq
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(clear_page_c)
+@@ -33,6 +35,7 @@ ENTRY(clear_page)
+       leaq    64(%rdi),%rdi
+       jnz     .Lloop
+       nop
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ .Lclear_page_end:
+@@ -43,7 +46,7 @@ ENDPROC(clear_page)
+ #include <asm/cpufeature.h>
+-      .section .altinstr_replacement,"ax"
++      .section .altinstr_replacement,"a"
+ 1:    .byte 0xeb                                      /* jmp <disp8> */
+       .byte (clear_page_c - clear_page) - (2f - 1b)   /* offset */
+ 2:
+diff --git a/arch/x86/lib/copy_page_64.S b/arch/x86/lib/copy_page_64.S
+index 727a5d4..333818a 100644
+--- a/arch/x86/lib/copy_page_64.S
++++ b/arch/x86/lib/copy_page_64.S
+@@ -2,12 +2,14 @@
+ #include <linux/linkage.h>
+ #include <asm/dwarf2.h>
++#include <asm/alternative-asm.h>
+       ALIGN
+ copy_page_c:
+       CFI_STARTPROC
+       movl $4096/8,%ecx
+       rep movsq
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(copy_page_c)
+@@ -38,7 +40,7 @@ ENTRY(copy_page)
+       movq     16 (%rsi), %rdx
+       movq     24 (%rsi), %r8
+       movq     32 (%rsi), %r9
+-      movq     40 (%rsi), %r10
++      movq     40 (%rsi), %r13
+       movq     48 (%rsi), %r11
+       movq     56 (%rsi), %r12
+@@ -49,7 +51,7 @@ ENTRY(copy_page)
+       movq     %rdx, 16 (%rdi)
+       movq     %r8,  24 (%rdi)
+       movq     %r9,  32 (%rdi)
+-      movq     %r10, 40 (%rdi)
++      movq     %r13, 40 (%rdi)
+       movq     %r11, 48 (%rdi)
+       movq     %r12, 56 (%rdi)
+@@ -68,7 +70,7 @@ ENTRY(copy_page)
+       movq     16 (%rsi), %rdx
+       movq     24 (%rsi), %r8
+       movq     32 (%rsi), %r9
+-      movq     40 (%rsi), %r10
++      movq     40 (%rsi), %r13
+       movq     48 (%rsi), %r11
+       movq     56 (%rsi), %r12
+@@ -77,7 +79,7 @@ ENTRY(copy_page)
+       movq     %rdx, 16 (%rdi)
+       movq     %r8,  24 (%rdi)
+       movq     %r9,  32 (%rdi)
+-      movq     %r10, 40 (%rdi)
++      movq     %r13, 40 (%rdi)
+       movq     %r11, 48 (%rdi)
+       movq     %r12, 56 (%rdi)
+@@ -94,6 +96,7 @@ ENTRY(copy_page)
+       CFI_RESTORE r13
+       addq    $3*8,%rsp
+       CFI_ADJUST_CFA_OFFSET -3*8
++      pax_force_retaddr
+       ret
+ .Lcopy_page_end:
+       CFI_ENDPROC
+@@ -104,7 +107,7 @@ ENDPROC(copy_page)
+ #include <asm/cpufeature.h>
+-      .section .altinstr_replacement,"ax"
++      .section .altinstr_replacement,"a"
+ 1:    .byte 0xeb                                      /* jmp <disp8> */
+       .byte (copy_page_c - copy_page) - (2f - 1b)     /* offset */
+ 2:
+diff --git a/arch/x86/lib/copy_user_64.S b/arch/x86/lib/copy_user_64.S
+index af8debd..40c75f3 100644
+--- a/arch/x86/lib/copy_user_64.S
++++ b/arch/x86/lib/copy_user_64.S
+@@ -15,13 +15,15 @@
+ #include <asm/asm-offsets.h>
+ #include <asm/thread_info.h>
+ #include <asm/cpufeature.h>
++#include <asm/pgtable.h>
++#include <asm/alternative-asm.h>
+       .macro ALTERNATIVE_JUMP feature,orig,alt
+ 0:
+       .byte 0xe9      /* 32bit jump */
+       .long \orig-1f  /* by default jump to orig */
+ 1:
+-      .section .altinstr_replacement,"ax"
++      .section .altinstr_replacement,"a"
+ 2:    .byte 0xe9                      /* near jump with 32bit immediate */
+       .long \alt-1b /* offset */   /* or alternatively to alt */
+       .previous
+@@ -64,55 +66,26 @@
+ #endif
+       .endm
+-/* Standard copy_to_user with segment limit checking */
+-ENTRY(copy_to_user)
+-      CFI_STARTPROC
+-      GET_THREAD_INFO(%rax)
+-      movq %rdi,%rcx
+-      addq %rdx,%rcx
+-      jc bad_to_user
+-      cmpq TI_addr_limit(%rax),%rcx
+-      ja bad_to_user
+-      ALTERNATIVE_JUMP X86_FEATURE_REP_GOOD,copy_user_generic_unrolled,copy_user_generic_string
+-      CFI_ENDPROC
+-ENDPROC(copy_to_user)
+-
+-/* Standard copy_from_user with segment limit checking */
+-ENTRY(copy_from_user)
+-      CFI_STARTPROC
+-      GET_THREAD_INFO(%rax)
+-      movq %rsi,%rcx
+-      addq %rdx,%rcx
+-      jc bad_from_user
+-      cmpq TI_addr_limit(%rax),%rcx
+-      ja bad_from_user
+-      ALTERNATIVE_JUMP X86_FEATURE_REP_GOOD,copy_user_generic_unrolled,copy_user_generic_string
+-      CFI_ENDPROC
+-ENDPROC(copy_from_user)
+-
+ ENTRY(copy_user_generic)
+       CFI_STARTPROC
+       ALTERNATIVE_JUMP X86_FEATURE_REP_GOOD,copy_user_generic_unrolled,copy_user_generic_string
+       CFI_ENDPROC
+ ENDPROC(copy_user_generic)
+-ENTRY(__copy_from_user_inatomic)
+-      CFI_STARTPROC
+-      ALTERNATIVE_JUMP X86_FEATURE_REP_GOOD,copy_user_generic_unrolled,copy_user_generic_string
+-      CFI_ENDPROC
+-ENDPROC(__copy_from_user_inatomic)
+-
+       .section .fixup,"ax"
+       /* must zero dest */
+ ENTRY(bad_from_user)
+ bad_from_user:
+       CFI_STARTPROC
++      testl %edx,%edx
++      js bad_to_user
+       movl %edx,%ecx
+       xorl %eax,%eax
+       rep
+       stosb
+ bad_to_user:
+       movl %edx,%eax
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(bad_from_user)
+@@ -142,19 +115,19 @@ ENTRY(copy_user_generic_unrolled)
+       jz 17f
+ 1:    movq (%rsi),%r8
+ 2:    movq 1*8(%rsi),%r9
+-3:    movq 2*8(%rsi),%r10
++3:    movq 2*8(%rsi),%rax
+ 4:    movq 3*8(%rsi),%r11
+ 5:    movq %r8,(%rdi)
+ 6:    movq %r9,1*8(%rdi)
+-7:    movq %r10,2*8(%rdi)
++7:    movq %rax,2*8(%rdi)
+ 8:    movq %r11,3*8(%rdi)
+ 9:    movq 4*8(%rsi),%r8
+ 10:   movq 5*8(%rsi),%r9
+-11:   movq 6*8(%rsi),%r10
++11:   movq 6*8(%rsi),%rax
+ 12:   movq 7*8(%rsi),%r11
+ 13:   movq %r8,4*8(%rdi)
+ 14:   movq %r9,5*8(%rdi)
+-15:   movq %r10,6*8(%rdi)
++15:   movq %rax,6*8(%rdi)
+ 16:   movq %r11,7*8(%rdi)
+       leaq 64(%rsi),%rsi
+       leaq 64(%rdi),%rdi
+@@ -180,6 +153,7 @@ ENTRY(copy_user_generic_unrolled)
+       decl %ecx
+       jnz 21b
+ 23:   xor %eax,%eax
++      pax_force_retaddr
+       ret
+       .section .fixup,"ax"
+@@ -252,6 +226,7 @@ ENTRY(copy_user_generic_string)
+ 3:    rep
+       movsb
+ 4:    xorl %eax,%eax
++      pax_force_retaddr
+       ret
+       .section .fixup,"ax"
+diff --git a/arch/x86/lib/copy_user_nocache_64.S b/arch/x86/lib/copy_user_nocache_64.S
+index cb0c112..e3a6895 100644
+--- a/arch/x86/lib/copy_user_nocache_64.S
++++ b/arch/x86/lib/copy_user_nocache_64.S
+@@ -8,12 +8,14 @@
+ #include <linux/linkage.h>
+ #include <asm/dwarf2.h>
++#include <asm/alternative-asm.h>
+ #define FIX_ALIGNMENT 1
+ #include <asm/current.h>
+ #include <asm/asm-offsets.h>
+ #include <asm/thread_info.h>
++#include <asm/pgtable.h>
+       .macro ALIGN_DESTINATION
+ #ifdef FIX_ALIGNMENT
+@@ -50,6 +52,15 @@
+  */
+ ENTRY(__copy_user_nocache)
+       CFI_STARTPROC
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      mov $PAX_USER_SHADOW_BASE,%rcx
++      cmp %rcx,%rsi
++      jae 1f
++      add %rcx,%rsi
++1:
++#endif
++
+       cmpl $8,%edx
+       jb 20f          /* less then 8 bytes, go to byte copy loop */
+       ALIGN_DESTINATION
+@@ -59,19 +70,19 @@ ENTRY(__copy_user_nocache)
+       jz 17f
+ 1:    movq (%rsi),%r8
+ 2:    movq 1*8(%rsi),%r9
+-3:    movq 2*8(%rsi),%r10
++3:    movq 2*8(%rsi),%rax
+ 4:    movq 3*8(%rsi),%r11
+ 5:    movnti %r8,(%rdi)
+ 6:    movnti %r9,1*8(%rdi)
+-7:    movnti %r10,2*8(%rdi)
++7:    movnti %rax,2*8(%rdi)
+ 8:    movnti %r11,3*8(%rdi)
+ 9:    movq 4*8(%rsi),%r8
+ 10:   movq 5*8(%rsi),%r9
+-11:   movq 6*8(%rsi),%r10
++11:   movq 6*8(%rsi),%rax
+ 12:   movq 7*8(%rsi),%r11
+ 13:   movnti %r8,4*8(%rdi)
+ 14:   movnti %r9,5*8(%rdi)
+-15:   movnti %r10,6*8(%rdi)
++15:   movnti %rax,6*8(%rdi)
+ 16:   movnti %r11,7*8(%rdi)
+       leaq 64(%rsi),%rsi
+       leaq 64(%rdi),%rdi
+@@ -98,6 +109,7 @@ ENTRY(__copy_user_nocache)
+       jnz 21b
+ 23:   xorl %eax,%eax
+       sfence
++      pax_force_retaddr
+       ret
+       .section .fixup,"ax"
+diff --git a/arch/x86/lib/csum-copy_64.S b/arch/x86/lib/csum-copy_64.S
+index f0dba36..48cb4d6 100644
+--- a/arch/x86/lib/csum-copy_64.S
++++ b/arch/x86/lib/csum-copy_64.S
+@@ -8,6 +8,7 @@
+ #include <linux/linkage.h>
+ #include <asm/dwarf2.h>
+ #include <asm/errno.h>
++#include <asm/alternative-asm.h>
+ /*
+  * Checksum copy with exception handling.
+@@ -228,6 +229,7 @@ ENTRY(csum_partial_copy_generic)
+       CFI_RESTORE rbp
+       addq $7*8,%rsp
+       CFI_ADJUST_CFA_OFFSET -7*8
++      pax_force_retaddr 0, 1
+       ret
+       CFI_RESTORE_STATE
+diff --git a/arch/x86/lib/csum-wrappers_64.c b/arch/x86/lib/csum-wrappers_64.c
+index 459b58a..9570bc7 100644
+--- a/arch/x86/lib/csum-wrappers_64.c
++++ b/arch/x86/lib/csum-wrappers_64.c
+@@ -52,7 +52,13 @@ csum_partial_copy_from_user(const void __user *src, void *dst,
+                       len -= 2;
+               }
+       }
+-      isum = csum_partial_copy_generic((__force const void *)src,
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if ((unsigned long)src < PAX_USER_SHADOW_BASE)
++              src += PAX_USER_SHADOW_BASE;
++#endif
++
++      isum = csum_partial_copy_generic((const void __force_kernel *)src,
+                               dst, len, isum, errp, NULL);
+       if (unlikely(*errp))
+               goto out_err;
+@@ -105,7 +111,13 @@ csum_partial_copy_to_user(const void *src, void __user *dst,
+       }
+       *errp = 0;
+-      return csum_partial_copy_generic(src, (void __force *)dst,
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if ((unsigned long)dst < PAX_USER_SHADOW_BASE)
++              dst += PAX_USER_SHADOW_BASE;
++#endif
++
++      return csum_partial_copy_generic(src, (void __force_kernel *)dst,
+                                        len, isum, NULL, errp);
+ }
+ EXPORT_SYMBOL(csum_partial_copy_to_user);
+diff --git a/arch/x86/lib/getuser.S b/arch/x86/lib/getuser.S
+index 51f1504..ddac4c1 100644
+--- a/arch/x86/lib/getuser.S
++++ b/arch/x86/lib/getuser.S
+@@ -33,15 +33,38 @@
+ #include <asm/asm-offsets.h>
+ #include <asm/thread_info.h>
+ #include <asm/asm.h>
++#include <asm/segment.h>
++#include <asm/pgtable.h>
++#include <asm/alternative-asm.h>
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#define __copyuser_seg gs;
++#else
++#define __copyuser_seg
++#endif
+       .text
+ ENTRY(__get_user_1)
+       CFI_STARTPROC
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_MEMORY_UDEREF)
+       GET_THREAD_INFO(%_ASM_DX)
+       cmp TI_addr_limit(%_ASM_DX),%_ASM_AX
+       jae bad_get_user
+-1:    movzb (%_ASM_AX),%edx
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      mov $PAX_USER_SHADOW_BASE,%_ASM_DX
++      cmp %_ASM_DX,%_ASM_AX
++      jae 1234f
++      add %_ASM_DX,%_ASM_AX
++1234:
++#endif
++
++#endif
++
++1:    __copyuser_seg movzb (%_ASM_AX),%edx
+       xor %eax,%eax
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(__get_user_1)
+@@ -49,12 +72,26 @@ ENDPROC(__get_user_1)
+ ENTRY(__get_user_2)
+       CFI_STARTPROC
+       add $1,%_ASM_AX
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_MEMORY_UDEREF)
+       jc bad_get_user
+       GET_THREAD_INFO(%_ASM_DX)
+       cmp TI_addr_limit(%_ASM_DX),%_ASM_AX
+       jae bad_get_user
+-2:    movzwl -1(%_ASM_AX),%edx
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      mov $PAX_USER_SHADOW_BASE,%_ASM_DX
++      cmp %_ASM_DX,%_ASM_AX
++      jae 1234f
++      add %_ASM_DX,%_ASM_AX
++1234:
++#endif
++
++#endif
++
++2:    __copyuser_seg movzwl -1(%_ASM_AX),%edx
+       xor %eax,%eax
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(__get_user_2)
+@@ -62,12 +99,26 @@ ENDPROC(__get_user_2)
+ ENTRY(__get_user_4)
+       CFI_STARTPROC
+       add $3,%_ASM_AX
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_MEMORY_UDEREF)
+       jc bad_get_user
+       GET_THREAD_INFO(%_ASM_DX)
+       cmp TI_addr_limit(%_ASM_DX),%_ASM_AX
+       jae bad_get_user
+-3:    mov -3(%_ASM_AX),%edx
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      mov $PAX_USER_SHADOW_BASE,%_ASM_DX
++      cmp %_ASM_DX,%_ASM_AX
++      jae 1234f
++      add %_ASM_DX,%_ASM_AX
++1234:
++#endif
++
++#endif
++
++3:    __copyuser_seg mov -3(%_ASM_AX),%edx
+       xor %eax,%eax
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(__get_user_4)
+@@ -80,8 +131,18 @@ ENTRY(__get_user_8)
+       GET_THREAD_INFO(%_ASM_DX)
+       cmp TI_addr_limit(%_ASM_DX),%_ASM_AX
+       jae     bad_get_user
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      mov $PAX_USER_SHADOW_BASE,%_ASM_DX
++      cmp %_ASM_DX,%_ASM_AX
++      jae 1234f
++      add %_ASM_DX,%_ASM_AX
++1234:
++#endif
++
+ 4:    movq -7(%_ASM_AX),%_ASM_DX
+       xor %eax,%eax
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(__get_user_8)
+@@ -91,6 +152,7 @@ bad_get_user:
+       CFI_STARTPROC
+       xor %edx,%edx
+       mov $(-EFAULT),%_ASM_AX
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ END(bad_get_user)
+diff --git a/arch/x86/lib/iomap_copy_64.S b/arch/x86/lib/iomap_copy_64.S
+index 05a95e7..326f2fa 100644
+--- a/arch/x86/lib/iomap_copy_64.S
++++ b/arch/x86/lib/iomap_copy_64.S
+@@ -17,6 +17,7 @@
+ #include <linux/linkage.h>
+ #include <asm/dwarf2.h>
++#include <asm/alternative-asm.h>
+ /*
+  * override generic version in lib/iomap_copy.c
+@@ -25,6 +26,7 @@ ENTRY(__iowrite32_copy)
+       CFI_STARTPROC
+       movl %edx,%ecx
+       rep movsd
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(__iowrite32_copy)
+diff --git a/arch/x86/lib/memcpy_64.S b/arch/x86/lib/memcpy_64.S
+index ad5441e..610e351 100644
+--- a/arch/x86/lib/memcpy_64.S
++++ b/arch/x86/lib/memcpy_64.S
+@@ -4,6 +4,7 @@
+ #include <asm/cpufeature.h>
+ #include <asm/dwarf2.h>
++#include <asm/alternative-asm.h>
+ /*
+  * memcpy - Copy a memory block.
+@@ -34,6 +35,7 @@ memcpy_c:
+       rep movsq
+       movl %edx, %ecx
+       rep movsb
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(memcpy_c)
+@@ -118,6 +120,7 @@ ENTRY(memcpy)
+       jnz .Lloop_1
+ .Lend:
++      pax_force_retaddr 0, 1
+       ret
+       CFI_ENDPROC
+ ENDPROC(memcpy)
+@@ -128,7 +131,7 @@ ENDPROC(__memcpy)
+        * It is also a lot simpler. Use this when possible:
+        */
+-      .section .altinstr_replacement, "ax"
++      .section .altinstr_replacement, "a"
+ 1:    .byte 0xeb                              /* jmp <disp8> */
+       .byte (memcpy_c - memcpy) - (2f - 1b)   /* offset */
+ 2:
+diff --git a/arch/x86/lib/memset_64.S b/arch/x86/lib/memset_64.S
+index 2c59481..7e9ba4e 100644
+--- a/arch/x86/lib/memset_64.S
++++ b/arch/x86/lib/memset_64.S
+@@ -2,6 +2,7 @@
+ #include <linux/linkage.h>
+ #include <asm/dwarf2.h>
++#include <asm/alternative-asm.h>
+ /*
+  * ISO C memset - set a memory block to a byte value.
+@@ -28,6 +29,7 @@ memset_c:
+       movl %r8d,%ecx
+       rep stosb
+       movq %r9,%rax
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ ENDPROC(memset_c)
+@@ -35,13 +37,13 @@ ENDPROC(memset_c)
+ ENTRY(memset)
+ ENTRY(__memset)
+       CFI_STARTPROC
+-      movq %rdi,%r10
+       movq %rdx,%r11
+       /* expand byte value  */
+       movzbl %sil,%ecx
+       movabs $0x0101010101010101,%rax
+       mul    %rcx             /* with rax, clobbers rdx */
++      movq  %rdi,%rdx
+       /* align dst */
+       movl  %edi,%r9d
+@@ -95,7 +97,8 @@ ENTRY(__memset)
+       jnz     .Lloop_1
+ .Lende:
+-      movq    %r10,%rax
++      movq    %rdx,%rax
++      pax_force_retaddr
+       ret
+       CFI_RESTORE_STATE
+@@ -118,7 +121,7 @@ ENDPROC(__memset)
+ #include <asm/cpufeature.h>
+-      .section .altinstr_replacement,"ax"
++      .section .altinstr_replacement,"a"
+ 1:    .byte 0xeb                              /* jmp <disp8> */
+       .byte (memset_c - memset) - (2f - 1b)   /* offset */
+ 2:
+diff --git a/arch/x86/lib/mmx_32.c b/arch/x86/lib/mmx_32.c
+index c9f2d9b..e7fd2c0 100644
+--- a/arch/x86/lib/mmx_32.c
++++ b/arch/x86/lib/mmx_32.c
+@@ -29,6 +29,7 @@ void *_mmx_memcpy(void *to, const void *from, size_t len)
+ {
+       void *p;
+       int i;
++      unsigned long cr0;
+       if (unlikely(in_interrupt()))
+               return __memcpy(to, from, len);
+@@ -39,44 +40,72 @@ void *_mmx_memcpy(void *to, const void *from, size_t len)
+       kernel_fpu_begin();
+       __asm__ __volatile__ (
+-              "1: prefetch (%0)\n"            /* This set is 28 bytes */
+-              "   prefetch 64(%0)\n"
+-              "   prefetch 128(%0)\n"
+-              "   prefetch 192(%0)\n"
+-              "   prefetch 256(%0)\n"
++              "1: prefetch (%1)\n"            /* This set is 28 bytes */
++              "   prefetch 64(%1)\n"
++              "   prefetch 128(%1)\n"
++              "   prefetch 192(%1)\n"
++              "   prefetch 256(%1)\n"
+               "2:  \n"
+               ".section .fixup, \"ax\"\n"
+-              "3: movw $0x1AEB, 1b\n" /* jmp on 26 bytes */
++              "3:  \n"
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %%cr0, %0\n"
++              "   movl %0, %%eax\n"
++              "   andl $0xFFFEFFFF, %%eax\n"
++              "   movl %%eax, %%cr0\n"
++#endif
++
++              "   movw $0x1AEB, 1b\n" /* jmp on 26 bytes */
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %0, %%cr0\n"
++#endif
++
+               "   jmp 2b\n"
+               ".previous\n"
+                       _ASM_EXTABLE(1b, 3b)
+-                      : : "r" (from));
++                      : "=&r" (cr0) : "r" (from) : "ax");
+       for ( ; i > 5; i--) {
+               __asm__ __volatile__ (
+-              "1:  prefetch 320(%0)\n"
+-              "2:  movq (%0), %%mm0\n"
+-              "  movq 8(%0), %%mm1\n"
+-              "  movq 16(%0), %%mm2\n"
+-              "  movq 24(%0), %%mm3\n"
+-              "  movq %%mm0, (%1)\n"
+-              "  movq %%mm1, 8(%1)\n"
+-              "  movq %%mm2, 16(%1)\n"
+-              "  movq %%mm3, 24(%1)\n"
+-              "  movq 32(%0), %%mm0\n"
+-              "  movq 40(%0), %%mm1\n"
+-              "  movq 48(%0), %%mm2\n"
+-              "  movq 56(%0), %%mm3\n"
+-              "  movq %%mm0, 32(%1)\n"
+-              "  movq %%mm1, 40(%1)\n"
+-              "  movq %%mm2, 48(%1)\n"
+-              "  movq %%mm3, 56(%1)\n"
++              "1:  prefetch 320(%1)\n"
++              "2:  movq (%1), %%mm0\n"
++              "  movq 8(%1), %%mm1\n"
++              "  movq 16(%1), %%mm2\n"
++              "  movq 24(%1), %%mm3\n"
++              "  movq %%mm0, (%2)\n"
++              "  movq %%mm1, 8(%2)\n"
++              "  movq %%mm2, 16(%2)\n"
++              "  movq %%mm3, 24(%2)\n"
++              "  movq 32(%1), %%mm0\n"
++              "  movq 40(%1), %%mm1\n"
++              "  movq 48(%1), %%mm2\n"
++              "  movq 56(%1), %%mm3\n"
++              "  movq %%mm0, 32(%2)\n"
++              "  movq %%mm1, 40(%2)\n"
++              "  movq %%mm2, 48(%2)\n"
++              "  movq %%mm3, 56(%2)\n"
+               ".section .fixup, \"ax\"\n"
+-              "3: movw $0x05EB, 1b\n" /* jmp on 5 bytes */
++              "3:\n"
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %%cr0, %0\n"
++              "   movl %0, %%eax\n"
++              "   andl $0xFFFEFFFF, %%eax\n"
++              "   movl %%eax, %%cr0\n"
++#endif
++
++              "   movw $0x05EB, 1b\n" /* jmp on 5 bytes */
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %0, %%cr0\n"
++#endif
++
+               "   jmp 2b\n"
+               ".previous\n"
+                       _ASM_EXTABLE(1b, 3b)
+-                      : : "r" (from), "r" (to) : "memory");
++                      : "=&r" (cr0) : "r" (from), "r" (to) : "memory", "ax");
+               from += 64;
+               to += 64;
+@@ -158,6 +187,7 @@ static void fast_clear_page(void *page)
+ static void fast_copy_page(void *to, void *from)
+ {
+       int i;
++      unsigned long cr0;
+       kernel_fpu_begin();
+@@ -166,42 +196,70 @@ static void fast_copy_page(void *to, void *from)
+        * but that is for later. -AV
+        */
+       __asm__ __volatile__(
+-              "1: prefetch (%0)\n"
+-              "   prefetch 64(%0)\n"
+-              "   prefetch 128(%0)\n"
+-              "   prefetch 192(%0)\n"
+-              "   prefetch 256(%0)\n"
++              "1: prefetch (%1)\n"
++              "   prefetch 64(%1)\n"
++              "   prefetch 128(%1)\n"
++              "   prefetch 192(%1)\n"
++              "   prefetch 256(%1)\n"
+               "2:  \n"
+               ".section .fixup, \"ax\"\n"
+-              "3: movw $0x1AEB, 1b\n" /* jmp on 26 bytes */
++              "3:  \n"
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %%cr0, %0\n"
++              "   movl %0, %%eax\n"
++              "   andl $0xFFFEFFFF, %%eax\n"
++              "   movl %%eax, %%cr0\n"
++#endif
++
++              "   movw $0x1AEB, 1b\n" /* jmp on 26 bytes */
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %0, %%cr0\n"
++#endif
++
+               "   jmp 2b\n"
+               ".previous\n"
+-                      _ASM_EXTABLE(1b, 3b) : : "r" (from));
++                      _ASM_EXTABLE(1b, 3b) : "=&r" (cr0) : "r" (from) : "ax");
+       for (i = 0; i < (4096-320)/64; i++) {
+               __asm__ __volatile__ (
+-              "1: prefetch 320(%0)\n"
+-              "2: movq (%0), %%mm0\n"
+-              "   movntq %%mm0, (%1)\n"
+-              "   movq 8(%0), %%mm1\n"
+-              "   movntq %%mm1, 8(%1)\n"
+-              "   movq 16(%0), %%mm2\n"
+-              "   movntq %%mm2, 16(%1)\n"
+-              "   movq 24(%0), %%mm3\n"
+-              "   movntq %%mm3, 24(%1)\n"
+-              "   movq 32(%0), %%mm4\n"
+-              "   movntq %%mm4, 32(%1)\n"
+-              "   movq 40(%0), %%mm5\n"
+-              "   movntq %%mm5, 40(%1)\n"
+-              "   movq 48(%0), %%mm6\n"
+-              "   movntq %%mm6, 48(%1)\n"
+-              "   movq 56(%0), %%mm7\n"
+-              "   movntq %%mm7, 56(%1)\n"
++              "1: prefetch 320(%1)\n"
++              "2: movq (%1), %%mm0\n"
++              "   movntq %%mm0, (%2)\n"
++              "   movq 8(%1), %%mm1\n"
++              "   movntq %%mm1, 8(%2)\n"
++              "   movq 16(%1), %%mm2\n"
++              "   movntq %%mm2, 16(%2)\n"
++              "   movq 24(%1), %%mm3\n"
++              "   movntq %%mm3, 24(%2)\n"
++              "   movq 32(%1), %%mm4\n"
++              "   movntq %%mm4, 32(%2)\n"
++              "   movq 40(%1), %%mm5\n"
++              "   movntq %%mm5, 40(%2)\n"
++              "   movq 48(%1), %%mm6\n"
++              "   movntq %%mm6, 48(%2)\n"
++              "   movq 56(%1), %%mm7\n"
++              "   movntq %%mm7, 56(%2)\n"
+               ".section .fixup, \"ax\"\n"
+-              "3: movw $0x05EB, 1b\n" /* jmp on 5 bytes */
++              "3:\n"
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %%cr0, %0\n"
++              "   movl %0, %%eax\n"
++              "   andl $0xFFFEFFFF, %%eax\n"
++              "   movl %%eax, %%cr0\n"
++#endif
++
++              "   movw $0x05EB, 1b\n" /* jmp on 5 bytes */
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %0, %%cr0\n"
++#endif
++
+               "   jmp 2b\n"
+               ".previous\n"
+-              _ASM_EXTABLE(1b, 3b) : : "r" (from), "r" (to) : "memory");
++              _ASM_EXTABLE(1b, 3b) : "=&r" (cr0) : "r" (from), "r" (to) : "memory", "ax");
+               from += 64;
+               to += 64;
+@@ -280,47 +338,76 @@ static void fast_clear_page(void *page)
+ static void fast_copy_page(void *to, void *from)
+ {
+       int i;
++      unsigned long cr0;
+       kernel_fpu_begin();
+       __asm__ __volatile__ (
+-              "1: prefetch (%0)\n"
+-              "   prefetch 64(%0)\n"
+-              "   prefetch 128(%0)\n"
+-              "   prefetch 192(%0)\n"
+-              "   prefetch 256(%0)\n"
++              "1: prefetch (%1)\n"
++              "   prefetch 64(%1)\n"
++              "   prefetch 128(%1)\n"
++              "   prefetch 192(%1)\n"
++              "   prefetch 256(%1)\n"
+               "2:  \n"
+               ".section .fixup, \"ax\"\n"
+-              "3: movw $0x1AEB, 1b\n" /* jmp on 26 bytes */
++              "3:  \n"
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %%cr0, %0\n"
++              "   movl %0, %%eax\n"
++              "   andl $0xFFFEFFFF, %%eax\n"
++              "   movl %%eax, %%cr0\n"
++#endif
++
++              "   movw $0x1AEB, 1b\n" /* jmp on 26 bytes */
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %0, %%cr0\n"
++#endif
++
+               "   jmp 2b\n"
+               ".previous\n"
+-                      _ASM_EXTABLE(1b, 3b) : : "r" (from));
++                      _ASM_EXTABLE(1b, 3b) : "=&r" (cr0) : "r" (from) : "ax");
+       for (i = 0; i < 4096/64; i++) {
+               __asm__ __volatile__ (
+-              "1: prefetch 320(%0)\n"
+-              "2: movq (%0), %%mm0\n"
+-              "   movq 8(%0), %%mm1\n"
+-              "   movq 16(%0), %%mm2\n"
+-              "   movq 24(%0), %%mm3\n"
+-              "   movq %%mm0, (%1)\n"
+-              "   movq %%mm1, 8(%1)\n"
+-              "   movq %%mm2, 16(%1)\n"
+-              "   movq %%mm3, 24(%1)\n"
+-              "   movq 32(%0), %%mm0\n"
+-              "   movq 40(%0), %%mm1\n"
+-              "   movq 48(%0), %%mm2\n"
+-              "   movq 56(%0), %%mm3\n"
+-              "   movq %%mm0, 32(%1)\n"
+-              "   movq %%mm1, 40(%1)\n"
+-              "   movq %%mm2, 48(%1)\n"
+-              "   movq %%mm3, 56(%1)\n"
++              "1: prefetch 320(%1)\n"
++              "2: movq (%1), %%mm0\n"
++              "   movq 8(%1), %%mm1\n"
++              "   movq 16(%1), %%mm2\n"
++              "   movq 24(%1), %%mm3\n"
++              "   movq %%mm0, (%2)\n"
++              "   movq %%mm1, 8(%2)\n"
++              "   movq %%mm2, 16(%2)\n"
++              "   movq %%mm3, 24(%2)\n"
++              "   movq 32(%1), %%mm0\n"
++              "   movq 40(%1), %%mm1\n"
++              "   movq 48(%1), %%mm2\n"
++              "   movq 56(%1), %%mm3\n"
++              "   movq %%mm0, 32(%2)\n"
++              "   movq %%mm1, 40(%2)\n"
++              "   movq %%mm2, 48(%2)\n"
++              "   movq %%mm3, 56(%2)\n"
+               ".section .fixup, \"ax\"\n"
+-              "3: movw $0x05EB, 1b\n" /* jmp on 5 bytes */
++              "3:\n"
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %%cr0, %0\n"
++              "   movl %0, %%eax\n"
++              "   andl $0xFFFEFFFF, %%eax\n"
++              "   movl %%eax, %%cr0\n"
++#endif
++
++              "   movw $0x05EB, 1b\n" /* jmp on 5 bytes */
++
++#ifdef CONFIG_PAX_KERNEXEC
++              "   movl %0, %%cr0\n"
++#endif
++
+               "   jmp 2b\n"
+               ".previous\n"
+                       _ASM_EXTABLE(1b, 3b)
+-                      : : "r" (from), "r" (to) : "memory");
++                      : "=&r" (cr0) : "r" (from), "r" (to) : "memory", "ax");
+               from += 64;
+               to += 64;
+diff --git a/arch/x86/lib/msr-reg.S b/arch/x86/lib/msr-reg.S
+index 69fa106..adda88b 100644
+--- a/arch/x86/lib/msr-reg.S
++++ b/arch/x86/lib/msr-reg.S
+@@ -3,6 +3,7 @@
+ #include <asm/dwarf2.h>
+ #include <asm/asm.h>
+ #include <asm/msr.h>
++#include <asm/alternative-asm.h>
+ #ifdef CONFIG_X86_64
+ /*
+@@ -16,7 +17,7 @@ ENTRY(native_\op\()_safe_regs)
+       CFI_STARTPROC
+       pushq_cfi %rbx
+       pushq_cfi %rbp
+-      movq    %rdi, %r10      /* Save pointer */
++      movq    %rdi, %r9       /* Save pointer */
+       xorl    %r11d, %r11d    /* Return value */
+       movl    (%rdi), %eax
+       movl    4(%rdi), %ecx
+@@ -27,16 +28,17 @@ ENTRY(native_\op\()_safe_regs)
+       movl    28(%rdi), %edi
+       CFI_REMEMBER_STATE
+ 1:    \op
+-2:    movl    %eax, (%r10)
++2:    movl    %eax, (%r9)
+       movl    %r11d, %eax     /* Return value */
+-      movl    %ecx, 4(%r10)
+-      movl    %edx, 8(%r10)
+-      movl    %ebx, 12(%r10)
+-      movl    %ebp, 20(%r10)
+-      movl    %esi, 24(%r10)
+-      movl    %edi, 28(%r10)
++      movl    %ecx, 4(%r9)
++      movl    %edx, 8(%r9)
++      movl    %ebx, 12(%r9)
++      movl    %ebp, 20(%r9)
++      movl    %esi, 24(%r9)
++      movl    %edi, 28(%r9)
+       popq_cfi %rbp
+       popq_cfi %rbx
++      pax_force_retaddr
+       ret
+ 3:
+       CFI_RESTORE_STATE
+diff --git a/arch/x86/lib/putuser.S b/arch/x86/lib/putuser.S
+index 36b0d15..d381858 100644
+--- a/arch/x86/lib/putuser.S
++++ b/arch/x86/lib/putuser.S
+@@ -15,7 +15,9 @@
+ #include <asm/thread_info.h>
+ #include <asm/errno.h>
+ #include <asm/asm.h>
+-
++#include <asm/segment.h>
++#include <asm/pgtable.h>
++#include <asm/alternative-asm.h>
+ /*
+  * __put_user_X
+@@ -29,52 +31,119 @@
+  * as they get called from within inline assembly.
+  */
+-#define ENTER CFI_STARTPROC ; \
+-              GET_THREAD_INFO(%_ASM_BX)
+-#define EXIT  ret ; \
++#define ENTER CFI_STARTPROC
++#define EXIT  pax_force_retaddr; ret ; \
+               CFI_ENDPROC
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#define _DEST %_ASM_CX,%_ASM_BX
++#else
++#define _DEST %_ASM_CX
++#endif
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#define __copyuser_seg gs;
++#else
++#define __copyuser_seg
++#endif
++
+ .text
+ ENTRY(__put_user_1)
+       ENTER
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_MEMORY_UDEREF)
++      GET_THREAD_INFO(%_ASM_BX)
+       cmp TI_addr_limit(%_ASM_BX),%_ASM_CX
+       jae bad_put_user
+-1:    movb %al,(%_ASM_CX)
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      mov $PAX_USER_SHADOW_BASE,%_ASM_BX
++      cmp %_ASM_BX,%_ASM_CX
++      jb 1234f
++      xor %ebx,%ebx
++1234:
++#endif
++
++#endif
++
++1:    __copyuser_seg movb %al,(_DEST)
+       xor %eax,%eax
+       EXIT
+ ENDPROC(__put_user_1)
+ ENTRY(__put_user_2)
+       ENTER
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_MEMORY_UDEREF)
++      GET_THREAD_INFO(%_ASM_BX)
+       mov TI_addr_limit(%_ASM_BX),%_ASM_BX
+       sub $1,%_ASM_BX
+       cmp %_ASM_BX,%_ASM_CX
+       jae bad_put_user
+-2:    movw %ax,(%_ASM_CX)
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      mov $PAX_USER_SHADOW_BASE,%_ASM_BX
++      cmp %_ASM_BX,%_ASM_CX
++      jb 1234f
++      xor %ebx,%ebx
++1234:
++#endif
++
++#endif
++
++2:    __copyuser_seg movw %ax,(_DEST)
+       xor %eax,%eax
+       EXIT
+ ENDPROC(__put_user_2)
+ ENTRY(__put_user_4)
+       ENTER
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_MEMORY_UDEREF)
++      GET_THREAD_INFO(%_ASM_BX)
+       mov TI_addr_limit(%_ASM_BX),%_ASM_BX
+       sub $3,%_ASM_BX
+       cmp %_ASM_BX,%_ASM_CX
+       jae bad_put_user
+-3:    movl %eax,(%_ASM_CX)
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      mov $PAX_USER_SHADOW_BASE,%_ASM_BX
++      cmp %_ASM_BX,%_ASM_CX
++      jb 1234f
++      xor %ebx,%ebx
++1234:
++#endif
++
++#endif
++
++3:    __copyuser_seg movl %eax,(_DEST)
+       xor %eax,%eax
+       EXIT
+ ENDPROC(__put_user_4)
+ ENTRY(__put_user_8)
+       ENTER
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_MEMORY_UDEREF)
++      GET_THREAD_INFO(%_ASM_BX)
+       mov TI_addr_limit(%_ASM_BX),%_ASM_BX
+       sub $7,%_ASM_BX
+       cmp %_ASM_BX,%_ASM_CX
+       jae bad_put_user
+-4:    mov %_ASM_AX,(%_ASM_CX)
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      mov $PAX_USER_SHADOW_BASE,%_ASM_BX
++      cmp %_ASM_BX,%_ASM_CX
++      jb 1234f
++      xor %ebx,%ebx
++1234:
++#endif
++
++#endif
++
++4:    __copyuser_seg mov %_ASM_AX,(_DEST)
+ #ifdef CONFIG_X86_32
+-5:    movl %edx,4(%_ASM_CX)
++5:    __copyuser_seg movl %edx,4(_DEST)
+ #endif
+       xor %eax,%eax
+       EXIT
+diff --git a/arch/x86/lib/rwlock_64.S b/arch/x86/lib/rwlock_64.S
+index 05ea55f..6345b9a 100644
+--- a/arch/x86/lib/rwlock_64.S
++++ b/arch/x86/lib/rwlock_64.S
+@@ -2,6 +2,7 @@
+ #include <linux/linkage.h>
+ #include <asm/rwlock.h>
++#include <asm/asm.h>
+ #include <asm/alternative-asm.h>
+ #include <asm/dwarf2.h>
+@@ -10,13 +11,34 @@ ENTRY(__write_lock_failed)
+       CFI_STARTPROC
+       LOCK_PREFIX
+       addl $RW_LOCK_BIAS,(%rdi)
++
++#ifdef CONFIG_PAX_REFCOUNT
++      jno 1234f
++      LOCK_PREFIX
++      subl $RW_LOCK_BIAS,(%rdi)
++      int $4
++1234:
++      _ASM_EXTABLE(1234b, 1234b)
++#endif
++
+ 1:    rep
+       nop
+       cmpl $RW_LOCK_BIAS,(%rdi)
+       jne 1b
+       LOCK_PREFIX
+       subl $RW_LOCK_BIAS,(%rdi)
++
++#ifdef CONFIG_PAX_REFCOUNT
++      jno 1234f
++      LOCK_PREFIX
++      addl $RW_LOCK_BIAS,(%rdi)
++      int $4
++1234:
++      _ASM_EXTABLE(1234b, 1234b)
++#endif
++
+       jnz  __write_lock_failed
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ END(__write_lock_failed)
+@@ -26,13 +48,34 @@ ENTRY(__read_lock_failed)
+       CFI_STARTPROC
+       LOCK_PREFIX
+       incl (%rdi)
++
++#ifdef CONFIG_PAX_REFCOUNT
++      jno 1234f
++      LOCK_PREFIX
++      decl (%rdi)
++      int $4
++1234:
++      _ASM_EXTABLE(1234b, 1234b)
++#endif
++
+ 1:    rep
+       nop
+       cmpl $1,(%rdi)
+       js 1b
+       LOCK_PREFIX
+       decl (%rdi)
++
++#ifdef CONFIG_PAX_REFCOUNT
++      jno 1234f
++      LOCK_PREFIX
++      incl (%rdi)
++      int $4
++1234:
++      _ASM_EXTABLE(1234b, 1234b)
++#endif
++
+       js __read_lock_failed
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+ END(__read_lock_failed)
+diff --git a/arch/x86/lib/rwsem_64.S b/arch/x86/lib/rwsem_64.S
+index 15acecf..f768b10 100644
+--- a/arch/x86/lib/rwsem_64.S
++++ b/arch/x86/lib/rwsem_64.S
+@@ -48,6 +48,7 @@ ENTRY(call_rwsem_down_read_failed)
+       call rwsem_down_read_failed
+       popq %rdx
+       restore_common_regs
++      pax_force_retaddr
+       ret
+       ENDPROC(call_rwsem_down_read_failed)
+@@ -56,6 +57,7 @@ ENTRY(call_rwsem_down_write_failed)
+       movq %rax,%rdi
+       call rwsem_down_write_failed
+       restore_common_regs
++      pax_force_retaddr
+       ret
+       ENDPROC(call_rwsem_down_write_failed)
+@@ -66,7 +68,8 @@ ENTRY(call_rwsem_wake)
+       movq %rax,%rdi
+       call rwsem_wake
+       restore_common_regs
+-1:    ret
++1:    pax_force_retaddr
++      ret
+       ENDPROC(call_rwsem_wake)
+ /* Fix up special calling conventions */
+@@ -77,5 +80,6 @@ ENTRY(call_rwsem_downgrade_wake)
+       call rwsem_downgrade_wake
+       popq %rdx
+       restore_common_regs
++      pax_force_retaddr
+       ret
+       ENDPROC(call_rwsem_downgrade_wake)
+diff --git a/arch/x86/lib/thunk_64.S b/arch/x86/lib/thunk_64.S
+index bf9a7d5..fb06ab5 100644
+--- a/arch/x86/lib/thunk_64.S
++++ b/arch/x86/lib/thunk_64.S
+@@ -10,7 +10,8 @@
+       #include <asm/dwarf2.h>
+       #include <asm/calling.h>                        
+       #include <asm/rwlock.h>
+-              
++      #include <asm/alternative-asm.h>
++
+       /* rdi: arg1 ... normal C conventions. rax is saved/restored. */        
+       .macro thunk name,func
+       .globl \name
+@@ -70,6 +71,7 @@
+       SAVE_ARGS
+ restore:
+       RESTORE_ARGS
++      pax_force_retaddr
+       ret     
+       CFI_ENDPROC
+       
+@@ -77,5 +79,6 @@ restore:
+       SAVE_ARGS
+ restore_norax:        
+       RESTORE_ARGS 1
++      pax_force_retaddr
+       ret
+       CFI_ENDPROC
+diff --git a/arch/x86/lib/usercopy_32.c b/arch/x86/lib/usercopy_32.c
+index 1f118d4..ec4a953 100644
+--- a/arch/x86/lib/usercopy_32.c
++++ b/arch/x86/lib/usercopy_32.c
+@@ -43,7 +43,7 @@ do {                                                                    \
+       __asm__ __volatile__(                                              \
+               "       testl %1,%1\n"                                     \
+               "       jz 2f\n"                                           \
+-              "0:     lodsb\n"                                           \
++              "0:     "__copyuser_seg"lodsb\n"                           \
+               "       stosb\n"                                           \
+               "       testb %%al,%%al\n"                                 \
+               "       jz 1f\n"                                           \
+@@ -128,10 +128,12 @@ do {                                                                     \
+       int __d0;                                                       \
+       might_fault();                                                  \
+       __asm__ __volatile__(                                           \
++              __COPYUSER_SET_ES                                       \
+               "0:     rep; stosl\n"                                   \
+               "       movl %2,%0\n"                                   \
+               "1:     rep; stosb\n"                                   \
+               "2:\n"                                                  \
++              __COPYUSER_RESTORE_ES                                   \
+               ".section .fixup,\"ax\"\n"                              \
+               "3:     lea 0(%2,%0,4),%0\n"                            \
+               "       jmp 2b\n"                                       \
+@@ -200,6 +202,7 @@ long strnlen_user(const char __user *s, long n)
+       might_fault();
+       __asm__ __volatile__(
++              __COPYUSER_SET_ES
+               "       testl %0, %0\n"
+               "       jz 3f\n"
+               "       andl %0,%%ecx\n"
+@@ -208,6 +211,7 @@ long strnlen_user(const char __user *s, long n)
+               "       subl %%ecx,%0\n"
+               "       addl %0,%%eax\n"
+               "1:\n"
++              __COPYUSER_RESTORE_ES
+               ".section .fixup,\"ax\"\n"
+               "2:     xorl %%eax,%%eax\n"
+               "       jmp 1b\n"
+@@ -227,7 +231,7 @@ EXPORT_SYMBOL(strnlen_user);
+ #ifdef CONFIG_X86_INTEL_USERCOPY
+ static unsigned long
+-__copy_user_intel(void __user *to, const void *from, unsigned long size)
++__generic_copy_to_user_intel(void __user *to, const void *from, unsigned long size)
+ {
+       int d0, d1;
+       __asm__ __volatile__(
+@@ -239,36 +243,36 @@ __copy_user_intel(void __user *to, const void *from, unsigned long size)
+                      "       .align 2,0x90\n"
+                      "3:     movl 0(%4), %%eax\n"
+                      "4:     movl 4(%4), %%edx\n"
+-                     "5:     movl %%eax, 0(%3)\n"
+-                     "6:     movl %%edx, 4(%3)\n"
++                     "5:     "__copyuser_seg" movl %%eax, 0(%3)\n"
++                     "6:     "__copyuser_seg" movl %%edx, 4(%3)\n"
+                      "7:     movl 8(%4), %%eax\n"
+                      "8:     movl 12(%4),%%edx\n"
+-                     "9:     movl %%eax, 8(%3)\n"
+-                     "10:    movl %%edx, 12(%3)\n"
++                     "9:     "__copyuser_seg" movl %%eax, 8(%3)\n"
++                     "10:    "__copyuser_seg" movl %%edx, 12(%3)\n"
+                      "11:    movl 16(%4), %%eax\n"
+                      "12:    movl 20(%4), %%edx\n"
+-                     "13:    movl %%eax, 16(%3)\n"
+-                     "14:    movl %%edx, 20(%3)\n"
++                     "13:    "__copyuser_seg" movl %%eax, 16(%3)\n"
++                     "14:    "__copyuser_seg" movl %%edx, 20(%3)\n"
+                      "15:    movl 24(%4), %%eax\n"
+                      "16:    movl 28(%4), %%edx\n"
+-                     "17:    movl %%eax, 24(%3)\n"
+-                     "18:    movl %%edx, 28(%3)\n"
++                     "17:    "__copyuser_seg" movl %%eax, 24(%3)\n"
++                     "18:    "__copyuser_seg" movl %%edx, 28(%3)\n"
+                      "19:    movl 32(%4), %%eax\n"
+                      "20:    movl 36(%4), %%edx\n"
+-                     "21:    movl %%eax, 32(%3)\n"
+-                     "22:    movl %%edx, 36(%3)\n"
++                     "21:    "__copyuser_seg" movl %%eax, 32(%3)\n"
++                     "22:    "__copyuser_seg" movl %%edx, 36(%3)\n"
+                      "23:    movl 40(%4), %%eax\n"
+                      "24:    movl 44(%4), %%edx\n"
+-                     "25:    movl %%eax, 40(%3)\n"
+-                     "26:    movl %%edx, 44(%3)\n"
++                     "25:    "__copyuser_seg" movl %%eax, 40(%3)\n"
++                     "26:    "__copyuser_seg" movl %%edx, 44(%3)\n"
+                      "27:    movl 48(%4), %%eax\n"
+                      "28:    movl 52(%4), %%edx\n"
+-                     "29:    movl %%eax, 48(%3)\n"
+-                     "30:    movl %%edx, 52(%3)\n"
++                     "29:    "__copyuser_seg" movl %%eax, 48(%3)\n"
++                     "30:    "__copyuser_seg" movl %%edx, 52(%3)\n"
+                      "31:    movl 56(%4), %%eax\n"
+                      "32:    movl 60(%4), %%edx\n"
+-                     "33:    movl %%eax, 56(%3)\n"
+-                     "34:    movl %%edx, 60(%3)\n"
++                     "33:    "__copyuser_seg" movl %%eax, 56(%3)\n"
++                     "34:    "__copyuser_seg" movl %%edx, 60(%3)\n"
+                      "       addl $-64, %0\n"
+                      "       addl $64, %4\n"
+                      "       addl $64, %3\n"
+@@ -278,10 +282,119 @@ __copy_user_intel(void __user *to, const void *from, unsigned long size)
+                      "       shrl  $2, %0\n"
+                      "       andl  $3, %%eax\n"
+                      "       cld\n"
++                     __COPYUSER_SET_ES
+                      "99:    rep; movsl\n"
+                      "36:    movl %%eax, %0\n"
+                      "37:    rep; movsb\n"
+                      "100:\n"
++                     __COPYUSER_RESTORE_ES
++                     ".section .fixup,\"ax\"\n"
++                     "101:   lea 0(%%eax,%0,4),%0\n"
++                     "       jmp 100b\n"
++                     ".previous\n"
++                     ".section __ex_table,\"a\"\n"
++                     "       .align 4\n"
++                     "       .long 1b,100b\n"
++                     "       .long 2b,100b\n"
++                     "       .long 3b,100b\n"
++                     "       .long 4b,100b\n"
++                     "       .long 5b,100b\n"
++                     "       .long 6b,100b\n"
++                     "       .long 7b,100b\n"
++                     "       .long 8b,100b\n"
++                     "       .long 9b,100b\n"
++                     "       .long 10b,100b\n"
++                     "       .long 11b,100b\n"
++                     "       .long 12b,100b\n"
++                     "       .long 13b,100b\n"
++                     "       .long 14b,100b\n"
++                     "       .long 15b,100b\n"
++                     "       .long 16b,100b\n"
++                     "       .long 17b,100b\n"
++                     "       .long 18b,100b\n"
++                     "       .long 19b,100b\n"
++                     "       .long 20b,100b\n"
++                     "       .long 21b,100b\n"
++                     "       .long 22b,100b\n"
++                     "       .long 23b,100b\n"
++                     "       .long 24b,100b\n"
++                     "       .long 25b,100b\n"
++                     "       .long 26b,100b\n"
++                     "       .long 27b,100b\n"
++                     "       .long 28b,100b\n"
++                     "       .long 29b,100b\n"
++                     "       .long 30b,100b\n"
++                     "       .long 31b,100b\n"
++                     "       .long 32b,100b\n"
++                     "       .long 33b,100b\n"
++                     "       .long 34b,100b\n"
++                     "       .long 35b,100b\n"
++                     "       .long 36b,100b\n"
++                     "       .long 37b,100b\n"
++                     "       .long 99b,101b\n"
++                     ".previous"
++                     : "=&c"(size), "=&D" (d0), "=&S" (d1)
++                     :  "1"(to), "2"(from), "0"(size)
++                     : "eax", "edx", "memory");
++      return size;
++}
++
++static unsigned long
++__generic_copy_from_user_intel(void *to, const void __user *from, unsigned long size)
++{
++      int d0, d1;
++      __asm__ __volatile__(
++                     "       .align 2,0x90\n"
++                     "1:     "__copyuser_seg" movl 32(%4), %%eax\n"
++                     "       cmpl $67, %0\n"
++                     "       jbe 3f\n"
++                     "2:     "__copyuser_seg" movl 64(%4), %%eax\n"
++                     "       .align 2,0x90\n"
++                     "3:     "__copyuser_seg" movl 0(%4), %%eax\n"
++                     "4:     "__copyuser_seg" movl 4(%4), %%edx\n"
++                     "5:     movl %%eax, 0(%3)\n"
++                     "6:     movl %%edx, 4(%3)\n"
++                     "7:     "__copyuser_seg" movl 8(%4), %%eax\n"
++                     "8:     "__copyuser_seg" movl 12(%4),%%edx\n"
++                     "9:     movl %%eax, 8(%3)\n"
++                     "10:    movl %%edx, 12(%3)\n"
++                     "11:    "__copyuser_seg" movl 16(%4), %%eax\n"
++                     "12:    "__copyuser_seg" movl 20(%4), %%edx\n"
++                     "13:    movl %%eax, 16(%3)\n"
++                     "14:    movl %%edx, 20(%3)\n"
++                     "15:    "__copyuser_seg" movl 24(%4), %%eax\n"
++                     "16:    "__copyuser_seg" movl 28(%4), %%edx\n"
++                     "17:    movl %%eax, 24(%3)\n"
++                     "18:    movl %%edx, 28(%3)\n"
++                     "19:    "__copyuser_seg" movl 32(%4), %%eax\n"
++                     "20:    "__copyuser_seg" movl 36(%4), %%edx\n"
++                     "21:    movl %%eax, 32(%3)\n"
++                     "22:    movl %%edx, 36(%3)\n"
++                     "23:    "__copyuser_seg" movl 40(%4), %%eax\n"
++                     "24:    "__copyuser_seg" movl 44(%4), %%edx\n"
++                     "25:    movl %%eax, 40(%3)\n"
++                     "26:    movl %%edx, 44(%3)\n"
++                     "27:    "__copyuser_seg" movl 48(%4), %%eax\n"
++                     "28:    "__copyuser_seg" movl 52(%4), %%edx\n"
++                     "29:    movl %%eax, 48(%3)\n"
++                     "30:    movl %%edx, 52(%3)\n"
++                     "31:    "__copyuser_seg" movl 56(%4), %%eax\n"
++                     "32:    "__copyuser_seg" movl 60(%4), %%edx\n"
++                     "33:    movl %%eax, 56(%3)\n"
++                     "34:    movl %%edx, 60(%3)\n"
++                     "       addl $-64, %0\n"
++                     "       addl $64, %4\n"
++                     "       addl $64, %3\n"
++                     "       cmpl $63, %0\n"
++                     "       ja  1b\n"
++                     "35:    movl  %0, %%eax\n"
++                     "       shrl  $2, %0\n"
++                     "       andl  $3, %%eax\n"
++                     "       cld\n"
++                     "99:    rep; "__copyuser_seg" movsl\n"
++                     "36:    movl %%eax, %0\n"
++                     "37:    rep; "__copyuser_seg" movsb\n"
++                     "100:\n"
+                      ".section .fixup,\"ax\"\n"
+                      "101:   lea 0(%%eax,%0,4),%0\n"
+                      "       jmp 100b\n"
+@@ -339,41 +452,41 @@ __copy_user_zeroing_intel(void *to, const void __user *from, unsigned long size)
+       int d0, d1;
+       __asm__ __volatile__(
+                      "        .align 2,0x90\n"
+-                     "0:      movl 32(%4), %%eax\n"
++                     "0:      "__copyuser_seg" movl 32(%4), %%eax\n"
+                      "        cmpl $67, %0\n"
+                      "        jbe 2f\n"
+-                     "1:      movl 64(%4), %%eax\n"
++                     "1:      "__copyuser_seg" movl 64(%4), %%eax\n"
+                      "        .align 2,0x90\n"
+-                     "2:      movl 0(%4), %%eax\n"
+-                     "21:     movl 4(%4), %%edx\n"
++                     "2:      "__copyuser_seg" movl 0(%4), %%eax\n"
++                     "21:     "__copyuser_seg" movl 4(%4), %%edx\n"
+                      "        movl %%eax, 0(%3)\n"
+                      "        movl %%edx, 4(%3)\n"
+-                     "3:      movl 8(%4), %%eax\n"
+-                     "31:     movl 12(%4),%%edx\n"
++                     "3:      "__copyuser_seg" movl 8(%4), %%eax\n"
++                     "31:     "__copyuser_seg" movl 12(%4),%%edx\n"
+                      "        movl %%eax, 8(%3)\n"
+                      "        movl %%edx, 12(%3)\n"
+-                     "4:      movl 16(%4), %%eax\n"
+-                     "41:     movl 20(%4), %%edx\n"
++                     "4:      "__copyuser_seg" movl 16(%4), %%eax\n"
++                     "41:     "__copyuser_seg" movl 20(%4), %%edx\n"
+                      "        movl %%eax, 16(%3)\n"
+                      "        movl %%edx, 20(%3)\n"
+-                     "10:     movl 24(%4), %%eax\n"
+-                     "51:     movl 28(%4), %%edx\n"
++                     "10:     "__copyuser_seg" movl 24(%4), %%eax\n"
++                     "51:     "__copyuser_seg" movl 28(%4), %%edx\n"
+                      "        movl %%eax, 24(%3)\n"
+                      "        movl %%edx, 28(%3)\n"
+-                     "11:     movl 32(%4), %%eax\n"
+-                     "61:     movl 36(%4), %%edx\n"
++                     "11:     "__copyuser_seg" movl 32(%4), %%eax\n"
++                     "61:     "__copyuser_seg" movl 36(%4), %%edx\n"
+                      "        movl %%eax, 32(%3)\n"
+                      "        movl %%edx, 36(%3)\n"
+-                     "12:     movl 40(%4), %%eax\n"
+-                     "71:     movl 44(%4), %%edx\n"
++                     "12:     "__copyuser_seg" movl 40(%4), %%eax\n"
++                     "71:     "__copyuser_seg" movl 44(%4), %%edx\n"
+                      "        movl %%eax, 40(%3)\n"
+                      "        movl %%edx, 44(%3)\n"
+-                     "13:     movl 48(%4), %%eax\n"
+-                     "81:     movl 52(%4), %%edx\n"
++                     "13:     "__copyuser_seg" movl 48(%4), %%eax\n"
++                     "81:     "__copyuser_seg" movl 52(%4), %%edx\n"
+                      "        movl %%eax, 48(%3)\n"
+                      "        movl %%edx, 52(%3)\n"
+-                     "14:     movl 56(%4), %%eax\n"
+-                     "91:     movl 60(%4), %%edx\n"
++                     "14:     "__copyuser_seg" movl 56(%4), %%eax\n"
++                     "91:     "__copyuser_seg" movl 60(%4), %%edx\n"
+                      "        movl %%eax, 56(%3)\n"
+                      "        movl %%edx, 60(%3)\n"
+                      "        addl $-64, %0\n"
+@@ -385,9 +498,9 @@ __copy_user_zeroing_intel(void *to, const void __user *from, unsigned long size)
+                      "        shrl  $2, %0\n"
+                      "        andl $3, %%eax\n"
+                      "        cld\n"
+-                     "6:      rep; movsl\n"
++                     "6:      rep; "__copyuser_seg" movsl\n"
+                      "        movl %%eax,%0\n"
+-                     "7:      rep; movsb\n"
++                     "7:      rep; "__copyuser_seg" movsb\n"
+                      "8:\n"
+                      ".section .fixup,\"ax\"\n"
+                      "9:      lea 0(%%eax,%0,4),%0\n"
+@@ -440,41 +553,41 @@ static unsigned long __copy_user_zeroing_intel_nocache(void *to,
+       __asm__ __volatile__(
+              "        .align 2,0x90\n"
+-             "0:      movl 32(%4), %%eax\n"
++             "0:      "__copyuser_seg" movl 32(%4), %%eax\n"
+              "        cmpl $67, %0\n"
+              "        jbe 2f\n"
+-             "1:      movl 64(%4), %%eax\n"
++             "1:      "__copyuser_seg" movl 64(%4), %%eax\n"
+              "        .align 2,0x90\n"
+-             "2:      movl 0(%4), %%eax\n"
+-             "21:     movl 4(%4), %%edx\n"
++             "2:      "__copyuser_seg" movl 0(%4), %%eax\n"
++             "21:     "__copyuser_seg" movl 4(%4), %%edx\n"
+              "        movnti %%eax, 0(%3)\n"
+              "        movnti %%edx, 4(%3)\n"
+-             "3:      movl 8(%4), %%eax\n"
+-             "31:     movl 12(%4),%%edx\n"
++             "3:      "__copyuser_seg" movl 8(%4), %%eax\n"
++             "31:     "__copyuser_seg" movl 12(%4),%%edx\n"
+              "        movnti %%eax, 8(%3)\n"
+              "        movnti %%edx, 12(%3)\n"
+-             "4:      movl 16(%4), %%eax\n"
+-             "41:     movl 20(%4), %%edx\n"
++             "4:      "__copyuser_seg" movl 16(%4), %%eax\n"
++             "41:     "__copyuser_seg" movl 20(%4), %%edx\n"
+              "        movnti %%eax, 16(%3)\n"
+              "        movnti %%edx, 20(%3)\n"
+-             "10:     movl 24(%4), %%eax\n"
+-             "51:     movl 28(%4), %%edx\n"
++             "10:     "__copyuser_seg" movl 24(%4), %%eax\n"
++             "51:     "__copyuser_seg" movl 28(%4), %%edx\n"
+              "        movnti %%eax, 24(%3)\n"
+              "        movnti %%edx, 28(%3)\n"
+-             "11:     movl 32(%4), %%eax\n"
+-             "61:     movl 36(%4), %%edx\n"
++             "11:     "__copyuser_seg" movl 32(%4), %%eax\n"
++             "61:     "__copyuser_seg" movl 36(%4), %%edx\n"
+              "        movnti %%eax, 32(%3)\n"
+              "        movnti %%edx, 36(%3)\n"
+-             "12:     movl 40(%4), %%eax\n"
+-             "71:     movl 44(%4), %%edx\n"
++             "12:     "__copyuser_seg" movl 40(%4), %%eax\n"
++             "71:     "__copyuser_seg" movl 44(%4), %%edx\n"
+              "        movnti %%eax, 40(%3)\n"
+              "        movnti %%edx, 44(%3)\n"
+-             "13:     movl 48(%4), %%eax\n"
+-             "81:     movl 52(%4), %%edx\n"
++             "13:     "__copyuser_seg" movl 48(%4), %%eax\n"
++             "81:     "__copyuser_seg" movl 52(%4), %%edx\n"
+              "        movnti %%eax, 48(%3)\n"
+              "        movnti %%edx, 52(%3)\n"
+-             "14:     movl 56(%4), %%eax\n"
+-             "91:     movl 60(%4), %%edx\n"
++             "14:     "__copyuser_seg" movl 56(%4), %%eax\n"
++             "91:     "__copyuser_seg" movl 60(%4), %%edx\n"
+              "        movnti %%eax, 56(%3)\n"
+              "        movnti %%edx, 60(%3)\n"
+              "        addl $-64, %0\n"
+@@ -487,9 +600,9 @@ static unsigned long __copy_user_zeroing_intel_nocache(void *to,
+              "        shrl  $2, %0\n"
+              "        andl $3, %%eax\n"
+              "        cld\n"
+-             "6:      rep; movsl\n"
++             "6:      rep; "__copyuser_seg" movsl\n"
+              "        movl %%eax,%0\n"
+-             "7:      rep; movsb\n"
++             "7:      rep; "__copyuser_seg" movsb\n"
+              "8:\n"
+              ".section .fixup,\"ax\"\n"
+              "9:      lea 0(%%eax,%0,4),%0\n"
+@@ -537,41 +650,41 @@ static unsigned long __copy_user_intel_nocache(void *to,
+       __asm__ __volatile__(
+              "        .align 2,0x90\n"
+-             "0:      movl 32(%4), %%eax\n"
++             "0:      "__copyuser_seg" movl 32(%4), %%eax\n"
+              "        cmpl $67, %0\n"
+              "        jbe 2f\n"
+-             "1:      movl 64(%4), %%eax\n"
++             "1:      "__copyuser_seg" movl 64(%4), %%eax\n"
+              "        .align 2,0x90\n"
+-             "2:      movl 0(%4), %%eax\n"
+-             "21:     movl 4(%4), %%edx\n"
++             "2:      "__copyuser_seg" movl 0(%4), %%eax\n"
++             "21:     "__copyuser_seg" movl 4(%4), %%edx\n"
+              "        movnti %%eax, 0(%3)\n"
+              "        movnti %%edx, 4(%3)\n"
+-             "3:      movl 8(%4), %%eax\n"
+-             "31:     movl 12(%4),%%edx\n"
++             "3:      "__copyuser_seg" movl 8(%4), %%eax\n"
++             "31:     "__copyuser_seg" movl 12(%4),%%edx\n"
+              "        movnti %%eax, 8(%3)\n"
+              "        movnti %%edx, 12(%3)\n"
+-             "4:      movl 16(%4), %%eax\n"
+-             "41:     movl 20(%4), %%edx\n"
++             "4:      "__copyuser_seg" movl 16(%4), %%eax\n"
++             "41:     "__copyuser_seg" movl 20(%4), %%edx\n"
+              "        movnti %%eax, 16(%3)\n"
+              "        movnti %%edx, 20(%3)\n"
+-             "10:     movl 24(%4), %%eax\n"
+-             "51:     movl 28(%4), %%edx\n"
++             "10:     "__copyuser_seg" movl 24(%4), %%eax\n"
++             "51:     "__copyuser_seg" movl 28(%4), %%edx\n"
+              "        movnti %%eax, 24(%3)\n"
+              "        movnti %%edx, 28(%3)\n"
+-             "11:     movl 32(%4), %%eax\n"
+-             "61:     movl 36(%4), %%edx\n"
++             "11:     "__copyuser_seg" movl 32(%4), %%eax\n"
++             "61:     "__copyuser_seg" movl 36(%4), %%edx\n"
+              "        movnti %%eax, 32(%3)\n"
+              "        movnti %%edx, 36(%3)\n"
+-             "12:     movl 40(%4), %%eax\n"
+-             "71:     movl 44(%4), %%edx\n"
++             "12:     "__copyuser_seg" movl 40(%4), %%eax\n"
++             "71:     "__copyuser_seg" movl 44(%4), %%edx\n"
+              "        movnti %%eax, 40(%3)\n"
+              "        movnti %%edx, 44(%3)\n"
+-             "13:     movl 48(%4), %%eax\n"
+-             "81:     movl 52(%4), %%edx\n"
++             "13:     "__copyuser_seg" movl 48(%4), %%eax\n"
++             "81:     "__copyuser_seg" movl 52(%4), %%edx\n"
+              "        movnti %%eax, 48(%3)\n"
+              "        movnti %%edx, 52(%3)\n"
+-             "14:     movl 56(%4), %%eax\n"
+-             "91:     movl 60(%4), %%edx\n"
++             "14:     "__copyuser_seg" movl 56(%4), %%eax\n"
++             "91:     "__copyuser_seg" movl 60(%4), %%edx\n"
+              "        movnti %%eax, 56(%3)\n"
+              "        movnti %%edx, 60(%3)\n"
+              "        addl $-64, %0\n"
+@@ -584,9 +697,9 @@ static unsigned long __copy_user_intel_nocache(void *to,
+              "        shrl  $2, %0\n"
+              "        andl $3, %%eax\n"
+              "        cld\n"
+-             "6:      rep; movsl\n"
++             "6:      rep; "__copyuser_seg" movsl\n"
+              "        movl %%eax,%0\n"
+-             "7:      rep; movsb\n"
++             "7:      rep; "__copyuser_seg" movsb\n"
+              "8:\n"
+              ".section .fixup,\"ax\"\n"
+              "9:      lea 0(%%eax,%0,4),%0\n"
+@@ -629,32 +742,36 @@ static unsigned long __copy_user_intel_nocache(void *to,
+  */
+ unsigned long __copy_user_zeroing_intel(void *to, const void __user *from,
+                                       unsigned long size);
+-unsigned long __copy_user_intel(void __user *to, const void *from,
++unsigned long __generic_copy_to_user_intel(void __user *to, const void *from,
++                                      unsigned long size);
++unsigned long __generic_copy_from_user_intel(void *to, const void __user *from,
+                                       unsigned long size);
+ unsigned long __copy_user_zeroing_intel_nocache(void *to,
+                               const void __user *from, unsigned long size);
+ #endif /* CONFIG_X86_INTEL_USERCOPY */
+ /* Generic arbitrary sized copy.  */
+-#define __copy_user(to, from, size)                                   \
++#define __copy_user(to, from, size, prefix, set, restore)             \
+ do {                                                                  \
+       int __d0, __d1, __d2;                                           \
+       __asm__ __volatile__(                                           \
++              set                                                     \
+               "       cmp  $7,%0\n"                                   \
+               "       jbe  1f\n"                                      \
+               "       movl %1,%0\n"                                   \
+               "       negl %0\n"                                      \
+               "       andl $7,%0\n"                                   \
+               "       subl %0,%3\n"                                   \
+-              "4:     rep; movsb\n"                                   \
++              "4:     rep; "prefix"movsb\n"                           \
+               "       movl %3,%0\n"                                   \
+               "       shrl $2,%0\n"                                   \
+               "       andl $3,%3\n"                                   \
+               "       .align 2,0x90\n"                                \
+-              "0:     rep; movsl\n"                                   \
++              "0:     rep; "prefix"movsl\n"                           \
+               "       movl %3,%0\n"                                   \
+-              "1:     rep; movsb\n"                                   \
++              "1:     rep; "prefix"movsb\n"                           \
+               "2:\n"                                                  \
++              restore                                                 \
+               ".section .fixup,\"ax\"\n"                              \
+               "5:     addl %3,%0\n"                                   \
+               "       jmp 2b\n"                                       \
+@@ -682,14 +799,14 @@ do {                                                                     \
+               "       negl %0\n"                                      \
+               "       andl $7,%0\n"                                   \
+               "       subl %0,%3\n"                                   \
+-              "4:     rep; movsb\n"                                   \
++              "4:     rep; "__copyuser_seg"movsb\n"                   \
+               "       movl %3,%0\n"                                   \
+               "       shrl $2,%0\n"                                   \
+               "       andl $3,%3\n"                                   \
+               "       .align 2,0x90\n"                                \
+-              "0:     rep; movsl\n"                                   \
++              "0:     rep; "__copyuser_seg"movsl\n"                   \
+               "       movl %3,%0\n"                                   \
+-              "1:     rep; movsb\n"                                   \
++              "1:     rep; "__copyuser_seg"movsb\n"                   \
+               "2:\n"                                                  \
+               ".section .fixup,\"ax\"\n"                              \
+               "5:     addl %3,%0\n"                                   \
+@@ -775,9 +892,9 @@ survive:
+       }
+ #endif
+       if (movsl_is_ok(to, from, n))
+-              __copy_user(to, from, n);
++              __copy_user(to, from, n, "", __COPYUSER_SET_ES, __COPYUSER_RESTORE_ES);
+       else
+-              n = __copy_user_intel(to, from, n);
++              n = __generic_copy_to_user_intel(to, from, n);
+       return n;
+ }
+ EXPORT_SYMBOL(__copy_to_user_ll);
+@@ -797,10 +914,9 @@ unsigned long __copy_from_user_ll_nozero(void *to, const void __user *from,
+                                        unsigned long n)
+ {
+       if (movsl_is_ok(to, from, n))
+-              __copy_user(to, from, n);
++              __copy_user(to, from, n, __copyuser_seg, "", "");
+       else
+-              n = __copy_user_intel((void __user *)to,
+-                                    (const void *)from, n);
++              n = __generic_copy_from_user_intel(to, from, n);
+       return n;
+ }
+ EXPORT_SYMBOL(__copy_from_user_ll_nozero);
+@@ -827,59 +943,38 @@ unsigned long __copy_from_user_ll_nocache_nozero(void *to, const void __user *fr
+       if (n > 64 && cpu_has_xmm2)
+               n = __copy_user_intel_nocache(to, from, n);
+       else
+-              __copy_user(to, from, n);
++              __copy_user(to, from, n, __copyuser_seg, "", "");
+ #else
+-      __copy_user(to, from, n);
++      __copy_user(to, from, n, __copyuser_seg, "", "");
+ #endif
+       return n;
+ }
+ EXPORT_SYMBOL(__copy_from_user_ll_nocache_nozero);
+-/**
+- * copy_to_user: - Copy a block of data into user space.
+- * @to:   Destination address, in user space.
+- * @from: Source address, in kernel space.
+- * @n:    Number of bytes to copy.
+- *
+- * Context: User context only.  This function may sleep.
+- *
+- * Copy data from kernel space to user space.
+- *
+- * Returns number of bytes that could not be copied.
+- * On success, this will be zero.
+- */
+-unsigned long
+-copy_to_user(void __user *to, const void *from, unsigned long n)
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++void __set_fs(mm_segment_t x)
+ {
+-      if (access_ok(VERIFY_WRITE, to, n))
+-              n = __copy_to_user(to, from, n);
+-      return n;
++      switch (x.seg) {
++      case 0:
++              loadsegment(gs, 0);
++              break;
++      case TASK_SIZE_MAX:
++              loadsegment(gs, __USER_DS);
++              break;
++      case -1UL:
++              loadsegment(gs, __KERNEL_DS);
++              break;
++      default:
++              BUG();
++      }
++      return;
+ }
+-EXPORT_SYMBOL(copy_to_user);
++EXPORT_SYMBOL(__set_fs);
+-/**
+- * copy_from_user: - Copy a block of data from user space.
+- * @to:   Destination address, in kernel space.
+- * @from: Source address, in user space.
+- * @n:    Number of bytes to copy.
+- *
+- * Context: User context only.  This function may sleep.
+- *
+- * Copy data from user space to kernel space.
+- *
+- * Returns number of bytes that could not be copied.
+- * On success, this will be zero.
+- *
+- * If some data could not be copied, this function will pad the copied
+- * data to the requested size using zero bytes.
+- */
+-unsigned long
+-copy_from_user(void *to, const void __user *from, unsigned long n)
++void set_fs(mm_segment_t x)
+ {
+-      if (access_ok(VERIFY_READ, from, n))
+-              n = __copy_from_user(to, from, n);
+-      else
+-              memset(to, 0, n);
+-      return n;
++      current_thread_info()->addr_limit = x;
++      __set_fs(x);
+ }
+-EXPORT_SYMBOL(copy_from_user);
++EXPORT_SYMBOL(set_fs);
++#endif
+diff --git a/arch/x86/lib/usercopy_64.c b/arch/x86/lib/usercopy_64.c
+index b7c2849..8633ad8 100644
+--- a/arch/x86/lib/usercopy_64.c
++++ b/arch/x86/lib/usercopy_64.c
+@@ -42,6 +42,12 @@ long
+ __strncpy_from_user(char *dst, const char __user *src, long count)
+ {
+       long res;
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if ((unsigned long)src < PAX_USER_SHADOW_BASE)
++              src += PAX_USER_SHADOW_BASE;
++#endif
++
+       __do_strncpy_from_user(dst, src, count, res);
+       return res;
+ }
+@@ -65,6 +71,12 @@ unsigned long __clear_user(void __user *addr, unsigned long size)
+ {
+       long __d0;
+       might_fault();
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++      if ((unsigned long)addr < PAX_USER_SHADOW_BASE)
++              addr += PAX_USER_SHADOW_BASE;
++#endif
++
+       /* no memory constraint because it doesn't change any memory gcc knows
+          about */
+       asm volatile(
+@@ -149,12 +161,20 @@ long strlen_user(const char __user *s)
+ }
+ EXPORT_SYMBOL(strlen_user);
+-unsigned long copy_in_user(void __user *to, const void __user *from, unsigned len)
++unsigned long copy_in_user(void __user *to, const void __user *from, unsigned long len)
+ {
+-      if (access_ok(VERIFY_WRITE, to, len) && access_ok(VERIFY_READ, from, len)) { 
+-              return copy_user_generic((__force void *)to, (__force void *)from, len);
+-      } 
+-      return len;             
++      if (access_ok(VERIFY_WRITE, to, len) && access_ok(VERIFY_READ, from, len)) {
++
++#ifdef CONFIG_PAX_MEMORY_UDEREF
++              if ((unsigned long)to < PAX_USER_SHADOW_BASE)
++                      to += PAX_USER_SHADOW_BASE;
++              if ((unsigned long)from < PAX_USER_SHADOW_BASE)
++                      from += PAX_USER_SHADOW_BASE;
++#endif
++
++              return copy_user_generic((void __force_kernel *)to, (void __force_kernel *)from, len);
++      }
++      return len;
+ }
+ EXPORT_SYMBOL(copy_in_user);
+@@ -164,7 +184,7 @@ EXPORT_SYMBOL(copy_in_user);
+  * it is not necessary to optimize tail handling.
+  */
+ unsigned long
+-copy_user_handle_tail(char *to, char *from, unsigned len, unsigned zerorest)
++copy_user_handle_tail(char __user *to, char __user *from, unsigned long len, unsigned zerorest)
+ {
+       char c;
+       unsigned zero_len;
+diff --git a/arch/x86/mm/extable.c b/arch/x86/mm/extable.c
+index 61b41ca..5fef66a 100644
+--- a/arch/x86/mm/extable.c
++++ b/arch/x86/mm/extable.c
+@@ -1,14 +1,71 @@
+ #include <linux/module.h>
+ #include <linux/spinlock.h>
++#include <linux/sort.h>
+ #include <asm/uaccess.h>
++#include <asm/pgtable.h>
++/*
++ * The exception table needs to be sorted so that the binary
++ * search that we use to find entries in it works properly.
++ * This is used both for the kernel exception table and for
++ * the exception tables of modules that get loaded.
++ */
++static int cmp_ex(const void *a, const void *b)
++{
++      const struct exception_table_entry *x = a, *y = b;
++
++      /* avoid overflow */
++      if (x->insn > y->insn)
++              return 1;
++      if (x->insn < y->insn)
++              return -1;
++      return 0;
++}
++
++static void swap_ex(void *a, void *b, int size)
++{
++      struct exception_table_entry t, *x = a, *y = b;
++
++      t = *x;
++
++      pax_open_kernel();
++      *x = *y;
++      *y = t;
++      pax_close_kernel();
++}
++
++void sort_extable(struct exception_table_entry *start,
++                struct exception_table_entry *finish)
++{
++      sort(start, finish - start, sizeof(struct exception_table_entry),
++           cmp_ex, swap_ex);
++}
++
++#ifdef CONFIG_MODULES
++/*
++ * If the exception table is sorted, any referring to the module init
++ * will be at the beginning or the end.
++ */
++void trim_init_extable(struct module *m)
++{
++      /*trim the beginning*/
++      while (m->num_exentries && within_module_init(m->extable[0].insn, m)) {
++              m->extable++;
++              m->num_exentries--;
++      }
++      /*trim the end*/
++      while (m->num_exentries &&
++              within_module_init(m->extable[m->num_exentries-1].insn, m))
++              m->num_exentries--;
++}
++#endif /* CONFIG_MODULES */
+ int fixup_exception(struct pt_regs *regs)
+ {
+       const struct exception_table_entry *fixup;
+ #ifdef CONFIG_PNPBIOS
+-      if (unlikely(SEGMENT_IS_PNP_CODE(regs->cs))) {
++      if (unlikely(!v8086_mode(regs) && SEGMENT_IS_PNP_CODE(regs->cs))) {
+               extern u32 pnp_bios_fault_eip, pnp_bios_fault_esp;
+               extern u32 pnp_bios_is_utter_crap;
+               pnp_bios_is_utter_crap = 1;
+diff --git a/arch/x86/mm/fault.c b/arch/x86/mm/fault.c
+index 8ac0d76..87899a4 100644
+--- a/arch/x86/mm/fault.c
++++ b/arch/x86/mm/fault.c
+@@ -11,10 +11,19 @@
+ #include <linux/kprobes.h>            /* __kprobes, ...               */
+ #include <linux/mmiotrace.h>          /* kmmio_handler, ...           */
+ #include <linux/perf_event.h>         /* perf_sw_event                */
++#include <linux/unistd.h>
++#include <linux/compiler.h>
+ #include <asm/traps.h>                        /* dotraplinkage, ...           */
+ #include <asm/pgalloc.h>              /* pgd_*(), ...                 */
+ #include <asm/kmemcheck.h>            /* kmemcheck_*(), ...           */
++#include <asm/vsyscall.h>
++#include <asm/tlbflush.h>
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++#include <asm/stacktrace.h>
++#include "../kernel/dumpstack.h"
++#endif
+ /*
+  * Page fault error code bits:
+@@ -51,7 +60,7 @@ static inline int notify_page_fault(struct pt_regs *regs)
+       int ret = 0;
+       /* kprobe_running() needs smp_processor_id() */
+-      if (kprobes_built_in() && !user_mode_vm(regs)) {
++      if (kprobes_built_in() && !user_mode(regs)) {
+               preempt_disable();
+               if (kprobe_running() && kprobe_fault_handler(regs, 14))
+                       ret = 1;
+@@ -112,7 +121,10 @@ check_prefetch_opcode(struct pt_regs *regs, unsigned char *instr,
+               return !instr_lo || (instr_lo>>1) == 1;
+       case 0x00:
+               /* Prefetch instruction is 0x0F0D or 0x0F18 */
+-              if (probe_kernel_address(instr, opcode))
++              if (user_mode(regs)) {
++                      if (__copy_from_user_inatomic(&opcode, (unsigned char __force_user *)(instr), 1))
++                              return 0;
++              } else if (probe_kernel_address(instr, opcode))
+                       return 0;
+               *prefetch = (instr_lo == 0xF) &&
+@@ -146,7 +158,10 @@ is_prefetch(struct pt_regs *regs, unsigned long error_code, unsigned long addr)
+       while (instr < max_instr) {
+               unsigned char opcode;
+-              if (probe_kernel_address(instr, opcode))
++              if (user_mode(regs)) {
++                      if (__copy_from_user_inatomic(&opcode, (unsigned char __force_user *)(instr), 1))
++                              break;
++              } else if (probe_kernel_address(instr, opcode))
+                       break;
+               instr++;
+@@ -172,6 +187,34 @@ force_sig_info_fault(int si_signo, int si_code, unsigned long address,
+       force_sig_info(si_signo, &info, tsk);
+ }
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++static bool pax_is_fetch_fault(struct pt_regs *regs, unsigned long error_code, unsigned long address);
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++static int pax_handle_fetch_fault(struct pt_regs *regs);
++#endif
++
++#ifdef CONFIG_PAX_PAGEEXEC
++static inline pmd_t * pax_get_pmd(struct mm_struct *mm, unsigned long address)
++{
++      pgd_t *pgd;
++      pud_t *pud;
++      pmd_t *pmd;
++
++      pgd = pgd_offset(mm, address);
++      if (!pgd_present(*pgd))
++              return NULL;
++      pud = pud_offset(pgd, address);
++      if (!pud_present(*pud))
++              return NULL;
++      pmd = pmd_offset(pud, address);
++      if (!pmd_present(*pmd))
++              return NULL;
++      return pmd;
++}
++#endif
++
+ DEFINE_SPINLOCK(pgd_lock);
+ LIST_HEAD(pgd_list);
+@@ -224,11 +267,24 @@ void vmalloc_sync_all(void)
+            address += PMD_SIZE) {
+               unsigned long flags;
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              unsigned long cpu;
++#else
+               struct page *page;
++#endif
+               spin_lock_irqsave(&pgd_lock, flags);
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              for (cpu = 0; cpu < NR_CPUS; ++cpu) {
++                      pgd_t *pgd = get_cpu_pgd(cpu);
++#else
+               list_for_each_entry(page, &pgd_list, lru) {
+-                      if (!vmalloc_sync_one(page_address(page), address))
++                      pgd_t *pgd = page_address(page);
++#endif
++
++                      if (!vmalloc_sync_one(pgd, address))
+                               break;
+               }
+               spin_unlock_irqrestore(&pgd_lock, flags);
+@@ -258,6 +314,11 @@ static noinline int vmalloc_fault(unsigned long address)
+        * an interrupt in the middle of a task switch..
+        */
+       pgd_paddr = read_cr3();
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++      BUG_ON(__pa(get_cpu_pgd(smp_processor_id())) != (pgd_paddr & PHYSICAL_PAGE_MASK));
++#endif
++
+       pmd_k = vmalloc_sync_one(__va(pgd_paddr), address);
+       if (!pmd_k)
+               return -1;
+@@ -332,15 +393,27 @@ void vmalloc_sync_all(void)
+               const pgd_t *pgd_ref = pgd_offset_k(address);
+               unsigned long flags;
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              unsigned long cpu;
++#else
+               struct page *page;
++#endif
+               if (pgd_none(*pgd_ref))
+                       continue;
+               spin_lock_irqsave(&pgd_lock, flags);
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              for (cpu = 0; cpu < NR_CPUS; ++cpu) {
++                      pgd_t *pgd = pgd_offset_cpu(cpu, address);
++#else
+               list_for_each_entry(page, &pgd_list, lru) {
+                       pgd_t *pgd;
+                       pgd = (pgd_t *)page_address(page) + pgd_index(address);
++#endif
++
+                       if (pgd_none(*pgd))
+                               set_pgd(pgd, *pgd_ref);
+                       else
+@@ -373,7 +446,14 @@ static noinline int vmalloc_fault(unsigned long address)
+        * happen within a race in page table update. In the later
+        * case just flush:
+        */
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++      BUG_ON(__pa(get_cpu_pgd(smp_processor_id())) != (read_cr3() & PHYSICAL_PAGE_MASK));
++      pgd = pgd_offset_cpu(smp_processor_id(), address);
++#else
+       pgd = pgd_offset(current->active_mm, address);
++#endif
++
+       pgd_ref = pgd_offset_k(address);
+       if (pgd_none(*pgd_ref))
+               return -1;
+@@ -535,7 +615,7 @@ static int is_errata93(struct pt_regs *regs, unsigned long address)
+ static int is_errata100(struct pt_regs *regs, unsigned long address)
+ {
+ #ifdef CONFIG_X86_64
+-      if ((regs->cs == __USER32_CS || (regs->cs & (1<<2))) && (address >> 32))
++      if ((regs->cs == __USER32_CS || (regs->cs & SEGMENT_LDT)) && (address >> 32))
+               return 1;
+ #endif
+       return 0;
+@@ -562,7 +642,7 @@ static int is_f00f_bug(struct pt_regs *regs, unsigned long address)
+ }
+ static const char nx_warning[] = KERN_CRIT
+-"kernel tried to execute NX-protected page - exploit attempt? (uid: %d)\n";
++"kernel tried to execute NX-protected page - exploit attempt? (uid: %d, task: %s, pid: %d)\n";
+ static void
+ show_fault_oops(struct pt_regs *regs, unsigned long error_code,
+@@ -571,15 +651,26 @@ show_fault_oops(struct pt_regs *regs, unsigned long error_code,
+       if (!oops_may_print())
+               return;
+-      if (error_code & PF_INSTR) {
++      if (nx_enabled && (error_code & PF_INSTR)) {
+               unsigned int level;
+               pte_t *pte = lookup_address(address, &level);
+               if (pte && pte_present(*pte) && !pte_exec(*pte))
+-                      printk(nx_warning, current_uid());
++                      printk(nx_warning, current_uid(), current->comm, task_pid_nr(current));
+       }
++#ifdef CONFIG_PAX_KERNEXEC
++      if (init_mm.start_code <= address && address < init_mm.end_code) {
++              if (current->signal->curr_ip)
++                      printk(KERN_ERR "PAX: From %pI4: %s:%d, uid/euid: %u/%u, attempted to modify kernel code\n",
++                                       &current->signal->curr_ip, current->comm, task_pid_nr(current), current_uid(), current_euid());
++              else
++                      printk(KERN_ERR "PAX: %s:%d, uid/euid: %u/%u, attempted to modify kernel code\n",
++                                       current->comm, task_pid_nr(current), current_uid(), current_euid());
++      }
++#endif
++
+       printk(KERN_ALERT "BUG: unable to handle kernel ");
+       if (address < PAGE_SIZE)
+               printk(KERN_CONT "NULL pointer dereference");
+@@ -705,6 +796,23 @@ __bad_area_nosemaphore(struct pt_regs *regs, unsigned long error_code,
+ {
+       struct task_struct *tsk = current;
++#ifdef CONFIG_X86_64
++      struct mm_struct *mm = tsk->mm;
++
++      if (mm && (error_code & PF_INSTR) && mm->context.vdso) {
++              if (regs->ip == (unsigned long)vgettimeofday) {
++                      regs->ip = (unsigned long)VDSO64_SYMBOL(mm->context.vdso, fallback_gettimeofday);
++                      return;
++              } else if (regs->ip == (unsigned long)vtime) {
++                      regs->ip = (unsigned long)VDSO64_SYMBOL(mm->context.vdso, fallback_time);
++                      return;
++              } else if (regs->ip == (unsigned long)vgetcpu) {
++                      regs->ip = (unsigned long)VDSO64_SYMBOL(mm->context.vdso, getcpu);
++                      return;
++              }
++      }
++#endif
++
+       /* User mode accesses just cause a SIGSEGV */
+       if (error_code & PF_USER) {
+               /*
+@@ -722,6 +830,21 @@ __bad_area_nosemaphore(struct pt_regs *regs, unsigned long error_code,
+               if (is_errata100(regs, address))
+                       return;
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++              if (pax_is_fetch_fault(regs, error_code, address)) {
++
++#ifdef CONFIG_PAX_EMUTRAMP
++                      switch (pax_handle_fetch_fault(regs)) {
++                      case 2:
++                              return;
++                      }
++#endif
++
++                      pax_report_fault(regs, (void *)regs->ip, (void *)regs->sp);
++                      do_group_exit(SIGKILL);
++              }
++#endif
++
+               if (unlikely(show_unhandled_signals))
+                       show_signal_msg(regs, error_code, address, tsk);
+@@ -818,7 +941,7 @@ do_sigbus(struct pt_regs *regs, unsigned long error_code, unsigned long address,
+       if (fault & VM_FAULT_HWPOISON) {
+               printk(KERN_ERR
+       "MCE: Killing %s:%d due to hardware memory corruption fault at %lx\n",
+-                      tsk->comm, tsk->pid, address);
++                      tsk->comm, task_pid_nr(tsk), address);
+               code = BUS_MCEERR_AR;
+       }
+ #endif
+@@ -857,6 +980,99 @@ static int spurious_fault_check(unsigned long error_code, pte_t *pte)
+       return 1;
+ }
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_PAGEEXEC)
++static int pax_handle_pageexec_fault(struct pt_regs *regs, struct mm_struct *mm, unsigned long address, unsigned long error_code)
++{
++      pte_t *pte;
++      pmd_t *pmd;
++      spinlock_t *ptl;
++      unsigned char pte_mask;
++
++      if (nx_enabled || (error_code & (PF_PROT|PF_USER)) != (PF_PROT|PF_USER) || v8086_mode(regs) ||
++          !(mm->pax_flags & MF_PAX_PAGEEXEC))
++              return 0;
++
++      /* PaX: it's our fault, let's handle it if we can */
++
++      /* PaX: take a look at read faults before acquiring any locks */
++      if (unlikely(!(error_code & PF_WRITE) && (regs->ip == address))) {
++              /* instruction fetch attempt from a protected page in user mode */
++              up_read(&mm->mmap_sem);
++
++#ifdef CONFIG_PAX_EMUTRAMP
++              switch (pax_handle_fetch_fault(regs)) {
++              case 2:
++                      return 1;
++              }
++#endif
++
++              pax_report_fault(regs, (void *)regs->ip, (void *)regs->sp);
++              do_group_exit(SIGKILL);
++      }
++
++      pmd = pax_get_pmd(mm, address);
++      if (unlikely(!pmd))
++              return 0;
++
++      pte = pte_offset_map_lock(mm, pmd, address, &ptl);
++      if (unlikely(!(pte_val(*pte) & _PAGE_PRESENT) || pte_user(*pte))) {
++              pte_unmap_unlock(pte, ptl);
++              return 0;
++      }
++
++      if (unlikely((error_code & PF_WRITE) && !pte_write(*pte))) {
++              /* write attempt to a protected page in user mode */
++              pte_unmap_unlock(pte, ptl);
++              return 0;
++      }
++
++#ifdef CONFIG_SMP
++      if (likely(address > get_limit(regs->cs) && cpu_isset(smp_processor_id(), mm->context.cpu_user_cs_mask)))
++#else
++      if (likely(address > get_limit(regs->cs)))
++#endif
++      {
++              set_pte(pte, pte_mkread(*pte));
++              __flush_tlb_one(address);
++              pte_unmap_unlock(pte, ptl);
++              up_read(&mm->mmap_sem);
++              return 1;
++      }
++
++      pte_mask = _PAGE_ACCESSED | _PAGE_USER | ((error_code & PF_WRITE) << (_PAGE_BIT_DIRTY-1));
++
++      /*
++       * PaX: fill DTLB with user rights and retry
++       */
++      __asm__ __volatile__ (
++              "orb %2,(%1)\n"
++#if defined(CONFIG_M586) || defined(CONFIG_M586TSC)
++/*
++ * PaX: let this uncommented 'invlpg' remind us on the behaviour of Intel's
++ * (and AMD's) TLBs. namely, they do not cache PTEs that would raise *any*
++ * page fault when examined during a TLB load attempt. this is true not only
++ * for PTEs holding a non-present entry but also present entries that will
++ * raise a page fault (such as those set up by PaX, or the copy-on-write
++ * mechanism). in effect it means that we do *not* need to flush the TLBs
++ * for our target pages since their PTEs are simply not in the TLBs at all.
++
++ * the best thing in omitting it is that we gain around 15-20% speed in the
++ * fast path of the page fault handler and can get rid of tracing since we
++ * can no longer flush unintended entries.
++ */
++              "invlpg (%0)\n"
++#endif
++              __copyuser_seg"testb $0,(%0)\n"
++              "xorb %3,(%1)\n"
++              :
++              : "r" (address), "r" (pte), "q" (pte_mask), "i" (_PAGE_USER)
++              : "memory", "cc");
++      pte_unmap_unlock(pte, ptl);
++      up_read(&mm->mmap_sem);
++      return 1;
++}
++#endif
++
+ /*
+  * Handle a spurious fault caused by a stale TLB entry.
+  *
+@@ -923,6 +1139,9 @@ int show_unhandled_signals = 1;
+ static inline int
+ access_error(unsigned long error_code, int write, struct vm_area_struct *vma)
+ {
++      if (nx_enabled && (error_code & PF_INSTR) && !(vma->vm_flags & VM_EXEC))
++              return 1;
++
+       if (write) {
+               /* write, present and write, not present: */
+               if (unlikely(!(vma->vm_flags & VM_WRITE)))
+@@ -956,16 +1175,30 @@ do_page_fault(struct pt_regs *regs, unsigned long error_code)
+ {
+       struct vm_area_struct *vma;
+       struct task_struct *tsk;
+-      unsigned long address;
+       struct mm_struct *mm;
+       int write;
+       int fault;
+-      tsk = current;
+-      mm = tsk->mm;
+-
+       /* Get the faulting address: */
+-      address = read_cr2();
++      unsigned long address = read_cr2();
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++      if (!user_mode(regs) && address < 2 * PAX_USER_SHADOW_BASE) {
++              if (!search_exception_tables(regs->ip)) {
++                      bad_area_nosemaphore(regs, error_code, address);
++                      return;
++              }
++              if (address < PAX_USER_SHADOW_BASE) {
++                      printk(KERN_ERR "PAX: please report this to pageexec@freemail.hu\n");
++                      printk(KERN_ERR "PAX: faulting IP: %pA\n", (void *)regs->ip);
++                      show_trace_log_lvl(NULL, NULL, (void *)regs->sp, regs->bp, KERN_ERR);
++              } else
++                      address -= PAX_USER_SHADOW_BASE;
++      }
++#endif
++
++      tsk = current;
++      mm = tsk->mm;
+       /*
+        * Detect and handle instructions that would cause a page fault for
+@@ -1026,7 +1259,7 @@ do_page_fault(struct pt_regs *regs, unsigned long error_code)
+        * User-mode registers count as a user access even for any
+        * potential system fault or CPU buglet:
+        */
+-      if (user_mode_vm(regs)) {
++      if (user_mode(regs)) {
+               local_irq_enable();
+               error_code |= PF_USER;
+       } else {
+@@ -1080,6 +1313,11 @@ do_page_fault(struct pt_regs *regs, unsigned long error_code)
+               might_sleep();
+       }
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_PAGEEXEC)
++      if (pax_handle_pageexec_fault(regs, mm, address, error_code))
++              return;
++#endif
++
+       vma = find_vma(mm, address);
+       if (unlikely(!vma)) {
+               bad_area(regs, error_code, address);
+@@ -1091,18 +1329,24 @@ do_page_fault(struct pt_regs *regs, unsigned long error_code)
+               bad_area(regs, error_code, address);
+               return;
+       }
+-      if (error_code & PF_USER) {
+-              /*
+-               * Accessing the stack below %sp is always a bug.
+-               * The large cushion allows instructions like enter
+-               * and pusha to work. ("enter $65535, $31" pushes
+-               * 32 pointers and then decrements %sp by 65535.)
+-               */
+-              if (unlikely(address + 65536 + 32 * sizeof(unsigned long) < regs->sp)) {
+-                      bad_area(regs, error_code, address);
+-                      return;
+-              }
++      /*
++       * Accessing the stack below %sp is always a bug.
++       * The large cushion allows instructions like enter
++       * and pusha to work. ("enter $65535, $31" pushes
++       * 32 pointers and then decrements %sp by 65535.)
++       */
++      if (unlikely(address + 65536 + 32 * sizeof(unsigned long) < task_pt_regs(tsk)->sp)) {
++              bad_area(regs, error_code, address);
++              return;
+       }
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (unlikely((mm->pax_flags & MF_PAX_SEGMEXEC) && vma->vm_end - SEGMEXEC_TASK_SIZE - 1 < address - SEGMEXEC_TASK_SIZE - 1)) {
++              bad_area(regs, error_code, address);
++              return;
++      }
++#endif
++
+       if (unlikely(expand_stack(vma, address))) {
+               bad_area(regs, error_code, address);
+               return;
+@@ -1146,3 +1390,292 @@ good_area:
+       up_read(&mm->mmap_sem);
+ }
++
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++static bool pax_is_fetch_fault(struct pt_regs *regs, unsigned long error_code, unsigned long address)
++{
++      struct mm_struct *mm = current->mm;
++      unsigned long ip = regs->ip;
++
++      if (v8086_mode(regs))
++              ip = ((regs->cs & 0xffff) << 4) + (ip & 0xffff);
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (mm->pax_flags & MF_PAX_PAGEEXEC) {
++              if ((__supported_pte_mask & _PAGE_NX) && (error_code & PF_INSTR))
++                      return true;
++              if (!(error_code & (PF_PROT | PF_WRITE)) && ip == address)
++                      return true;
++              return false;
++      }
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC) {
++              if (!(error_code & (PF_PROT | PF_WRITE)) && (ip + SEGMEXEC_TASK_SIZE == address))
++                      return true;
++              return false;
++      }
++#endif
++
++      return false;
++}
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++static int pax_handle_fetch_fault_32(struct pt_regs *regs)
++{
++      int err;
++
++      do { /* PaX: libffi trampoline emulation */
++              unsigned char mov, jmp;
++              unsigned int addr1, addr2;
++
++#ifdef CONFIG_X86_64
++              if ((regs->ip + 9) >> 32)
++                      break;
++#endif
++
++              err = get_user(mov, (unsigned char __user *)regs->ip);
++              err |= get_user(addr1, (unsigned int __user *)(regs->ip + 1));
++              err |= get_user(jmp, (unsigned char __user *)(regs->ip + 5));
++              err |= get_user(addr2, (unsigned int __user *)(regs->ip + 6));
++
++              if (err)
++                      break;
++
++              if (mov == 0xB8 && jmp == 0xE9) {
++                      regs->ax = addr1;
++                      regs->ip = (unsigned int)(regs->ip + addr2 + 10);
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: gcc trampoline emulation #1 */
++              unsigned char mov1, mov2;
++              unsigned short jmp;
++              unsigned int addr1, addr2;
++
++#ifdef CONFIG_X86_64
++              if ((regs->ip + 11) >> 32)
++                      break;
++#endif
++
++              err = get_user(mov1, (unsigned char __user *)regs->ip);
++              err |= get_user(addr1, (unsigned int __user *)(regs->ip + 1));
++              err |= get_user(mov2, (unsigned char __user *)(regs->ip + 5));
++              err |= get_user(addr2, (unsigned int __user *)(regs->ip + 6));
++              err |= get_user(jmp, (unsigned short __user *)(regs->ip + 10));
++
++              if (err)
++                      break;
++
++              if (mov1 == 0xB9 && mov2 == 0xB8 && jmp == 0xE0FF) {
++                      regs->cx = addr1;
++                      regs->ax = addr2;
++                      regs->ip = addr2;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: gcc trampoline emulation #2 */
++              unsigned char mov, jmp;
++              unsigned int addr1, addr2;
++
++#ifdef CONFIG_X86_64
++              if ((regs->ip + 9) >> 32)
++                      break;
++#endif
++
++              err = get_user(mov, (unsigned char __user *)regs->ip);
++              err |= get_user(addr1, (unsigned int __user *)(regs->ip + 1));
++              err |= get_user(jmp, (unsigned char __user *)(regs->ip + 5));
++              err |= get_user(addr2, (unsigned int __user *)(regs->ip + 6));
++
++              if (err)
++                      break;
++
++              if (mov == 0xB9 && jmp == 0xE9) {
++                      regs->cx = addr1;
++                      regs->ip = (unsigned int)(regs->ip + addr2 + 10);
++                      return 2;
++              }
++      } while (0);
++
++      return 1; /* PaX in action */
++}
++
++#ifdef CONFIG_X86_64
++static int pax_handle_fetch_fault_64(struct pt_regs *regs)
++{
++      int err;
++
++      do { /* PaX: libffi trampoline emulation */
++              unsigned short mov1, mov2, jmp1;
++              unsigned char stcclc, jmp2;
++              unsigned long addr1, addr2;
++
++              err = get_user(mov1, (unsigned short __user *)regs->ip);
++              err |= get_user(addr1, (unsigned long __user *)(regs->ip + 2));
++              err |= get_user(mov2, (unsigned short __user *)(regs->ip + 10));
++              err |= get_user(addr2, (unsigned long __user *)(regs->ip + 12));
++              err |= get_user(stcclc, (unsigned char __user *)(regs->ip + 20));
++              err |= get_user(jmp1, (unsigned short __user *)(regs->ip + 21));
++              err |= get_user(jmp2, (unsigned char __user *)(regs->ip + 23));
++
++              if (err)
++                      break;
++
++              if (mov1 == 0xBB49 && mov2 == 0xBA49 && (stcclc == 0xF8 || stcclc == 0xF9) && jmp1 == 0xFF49 && jmp2 == 0xE3) {
++                      regs->r11 = addr1;
++                      regs->r10 = addr2;
++                      if (stcclc == 0xF8)
++                              regs->flags &= ~X86_EFLAGS_CF;
++                      else
++                              regs->flags |= X86_EFLAGS_CF;
++                      regs->ip = addr1;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: gcc trampoline emulation #1 */
++              unsigned short mov1, mov2, jmp1;
++              unsigned char jmp2;
++              unsigned int addr1;
++              unsigned long addr2;
++
++              err = get_user(mov1, (unsigned short __user *)regs->ip);
++              err |= get_user(addr1, (unsigned int __user *)(regs->ip + 2));
++              err |= get_user(mov2, (unsigned short __user *)(regs->ip + 6));
++              err |= get_user(addr2, (unsigned long __user *)(regs->ip + 8));
++              err |= get_user(jmp1, (unsigned short __user *)(regs->ip + 16));
++              err |= get_user(jmp2, (unsigned char __user *)(regs->ip + 18));
++
++              if (err)
++                      break;
++
++              if (mov1 == 0xBB41 && mov2 == 0xBA49 && jmp1 == 0xFF49 && jmp2 == 0xE3) {
++                      regs->r11 = addr1;
++                      regs->r10 = addr2;
++                      regs->ip = addr1;
++                      return 2;
++              }
++      } while (0);
++
++      do { /* PaX: gcc trampoline emulation #2 */
++              unsigned short mov1, mov2, jmp1;
++              unsigned char jmp2;
++              unsigned long addr1, addr2;
++
++              err = get_user(mov1, (unsigned short __user *)regs->ip);
++              err |= get_user(addr1, (unsigned long __user *)(regs->ip + 2));
++              err |= get_user(mov2, (unsigned short __user *)(regs->ip + 10));
++              err |= get_user(addr2, (unsigned long __user *)(regs->ip + 12));
++              err |= get_user(jmp1, (unsigned short __user *)(regs->ip + 20));
++              err |= get_user(jmp2, (unsigned char __user *)(regs->ip + 22));
++
++              if (err)
++                      break;
++
++              if (mov1 == 0xBB49 && mov2 == 0xBA49 && jmp1 == 0xFF49 && jmp2 == 0xE3) {
++                      regs->r11 = addr1;
++                      regs->r10 = addr2;
++                      regs->ip = addr1;
++                      return 2;
++              }
++      } while (0);
++
++      return 1; /* PaX in action */
++}
++#endif
++
++/*
++ * PaX: decide what to do with offenders (regs->ip = fault address)
++ *
++ * returns 1 when task should be killed
++ *         2 when gcc trampoline was detected
++ */
++static int pax_handle_fetch_fault(struct pt_regs *regs)
++{
++      if (v8086_mode(regs))
++              return 1;
++
++      if (!(current->mm->pax_flags & MF_PAX_EMUTRAMP))
++              return 1;
++
++#ifdef CONFIG_X86_32
++      return pax_handle_fetch_fault_32(regs);
++#else
++      if (regs->cs == __USER32_CS || (regs->cs & SEGMENT_LDT))
++              return pax_handle_fetch_fault_32(regs);
++      else
++              return pax_handle_fetch_fault_64(regs);
++#endif
++}
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++void pax_report_insns(struct pt_regs *regs, void *pc, void *sp)
++{
++      long i;
++
++      printk(KERN_ERR "PAX: bytes at PC: ");
++      for (i = 0; i < 20; i++) {
++              unsigned char c;
++              if (get_user(c, (unsigned char __force_user *)pc+i))
++                      printk(KERN_CONT "?? ");
++              else
++                      printk(KERN_CONT "%02x ", c);
++      }
++      printk("\n");
++
++      printk(KERN_ERR "PAX: bytes at SP-%lu: ", (unsigned long)sizeof(long));
++      for (i = -1; i < 80 / (long)sizeof(long); i++) {
++              unsigned long c;
++              if (get_user(c, (unsigned long __force_user *)sp+i)) {
++#ifdef CONFIG_X86_32
++                      printk(KERN_CONT "???????? ");
++#else
++                      if ((regs->cs == __USER32_CS || (regs->cs & SEGMENT_LDT)))
++                              printk(KERN_CONT "???????? ???????? ");
++                      else
++                              printk(KERN_CONT "???????????????? ");
++#endif
++              } else {
++#ifdef CONFIG_X86_64
++                      if ((regs->cs == __USER32_CS || (regs->cs & SEGMENT_LDT))) {
++                              printk(KERN_CONT "%08x ", (unsigned int)c);
++                              printk(KERN_CONT "%08x ", (unsigned int)(c >> 32));
++                      } else
++#endif
++                              printk(KERN_CONT "%0*lx ", 2 * (int)sizeof(long), c);
++              }
++      }
++      printk("\n");
++}
++#endif
++
++/**
++ * probe_kernel_write(): safely attempt to write to a location
++ * @dst: address to write to
++ * @src: pointer to the data that shall be written
++ * @size: size of the data chunk
++ *
++ * Safely write to address @dst from the buffer at @src.  If a kernel fault
++ * happens, handle that and return -EFAULT.
++ */
++long notrace probe_kernel_write(void *dst, const void *src, size_t size)
++{
++      long ret;
++      mm_segment_t old_fs = get_fs();
++
++      set_fs(KERNEL_DS);
++      pagefault_disable();
++      pax_open_kernel();
++      ret = __copy_to_user_inatomic((void __force_user *)dst, src, size);
++      pax_close_kernel();
++      pagefault_enable();
++      set_fs(old_fs);
++
++      return ret ? -EFAULT : 0;
++}
+diff --git a/arch/x86/mm/gup.c b/arch/x86/mm/gup.c
+index 71da1bc..7a16bf4 100644
+--- a/arch/x86/mm/gup.c
++++ b/arch/x86/mm/gup.c
+@@ -237,7 +237,7 @@ int __get_user_pages_fast(unsigned long start, int nr_pages, int write,
+       addr = start;
+       len = (unsigned long) nr_pages << PAGE_SHIFT;
+       end = start + len;
+-      if (unlikely(!access_ok(write ? VERIFY_WRITE : VERIFY_READ,
++      if (unlikely(!__access_ok(write ? VERIFY_WRITE : VERIFY_READ,
+                                       (void __user *)start, len)))
+               return 0;
+diff --git a/arch/x86/mm/highmem_32.c b/arch/x86/mm/highmem_32.c
+index 63a6ba6..79abd7a 100644
+--- a/arch/x86/mm/highmem_32.c
++++ b/arch/x86/mm/highmem_32.c
+@@ -43,7 +43,10 @@ void *kmap_atomic_prot(struct page *page, enum km_type type, pgprot_t prot)
+       idx = type + KM_TYPE_NR*smp_processor_id();
+       vaddr = __fix_to_virt(FIX_KMAP_BEGIN + idx);
+       BUG_ON(!pte_none(*(kmap_pte-idx)));
++
++      pax_open_kernel();
+       set_pte(kmap_pte-idx, mk_pte(page, prot));
++      pax_close_kernel();
+       return (void *)vaddr;
+ }
+diff --git a/arch/x86/mm/hugetlbpage.c b/arch/x86/mm/hugetlbpage.c
+index f46c340..6ff9a26 100644
+--- a/arch/x86/mm/hugetlbpage.c
++++ b/arch/x86/mm/hugetlbpage.c
+@@ -267,13 +267,20 @@ static unsigned long hugetlb_get_unmapped_area_bottomup(struct file *file,
+       struct hstate *h = hstate_file(file);
+       struct mm_struct *mm = current->mm;
+       struct vm_area_struct *vma;
+-      unsigned long start_addr;
++      unsigned long start_addr, pax_task_size = TASK_SIZE;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      pax_task_size -= PAGE_SIZE;
+       if (len > mm->cached_hole_size) {
+-              start_addr = mm->free_area_cache;
++              start_addr = mm->free_area_cache;
+       } else {
+-              start_addr = TASK_UNMAPPED_BASE;
+-              mm->cached_hole_size = 0;
++              start_addr = mm->mmap_base;
++              mm->cached_hole_size = 0;
+       }
+ full_search:
+@@ -281,26 +288,27 @@ full_search:
+       for (vma = find_vma(mm, addr); ; vma = vma->vm_next) {
+               /* At this point:  (!vma || addr < vma->vm_end). */
+-              if (TASK_SIZE - len < addr) {
++              if (pax_task_size - len < addr) {
+                       /*
+                        * Start a new search - just in case we missed
+                        * some holes.
+                        */
+-                      if (start_addr != TASK_UNMAPPED_BASE) {
+-                              start_addr = TASK_UNMAPPED_BASE;
++                      if (start_addr != mm->mmap_base) {
++                              start_addr = mm->mmap_base;
+                               mm->cached_hole_size = 0;
+                               goto full_search;
+                       }
+                       return -ENOMEM;
+               }
+-              if (!vma || addr + len <= vma->vm_start) {
+-                      mm->free_area_cache = addr + len;
+-                      return addr;
+-              }
++              if (check_heap_stack_gap(vma, addr, len))
++                      break;
+               if (addr + mm->cached_hole_size < vma->vm_start)
+                       mm->cached_hole_size = vma->vm_start - addr;
+               addr = ALIGN(vma->vm_end, huge_page_size(h));
+       }
++
++      mm->free_area_cache = addr + len;
++      return addr;
+ }
+ static unsigned long hugetlb_get_unmapped_area_topdown(struct file *file,
+@@ -309,10 +317,9 @@ static unsigned long hugetlb_get_unmapped_area_topdown(struct file *file,
+ {
+       struct hstate *h = hstate_file(file);
+       struct mm_struct *mm = current->mm;
+-      struct vm_area_struct *vma, *prev_vma;
+-      unsigned long base = mm->mmap_base, addr = addr0;
++      struct vm_area_struct *vma;
++      unsigned long base = mm->mmap_base, addr;
+       unsigned long largest_hole = mm->cached_hole_size;
+-      int first_time = 1;
+       /* don't allow allocations above current base */
+       if (mm->free_area_cache > base)
+@@ -322,64 +329,63 @@ static unsigned long hugetlb_get_unmapped_area_topdown(struct file *file,
+               largest_hole = 0;
+               mm->free_area_cache  = base;
+       }
+-try_again:
++
+       /* make sure it can fit in the remaining address space */
+       if (mm->free_area_cache < len)
+               goto fail;
+       /* either no address requested or cant fit in requested address hole */
+-      addr = (mm->free_area_cache - len) & huge_page_mask(h);
++      addr = (mm->free_area_cache - len);
+       do {
++              addr &= huge_page_mask(h);
++              vma = find_vma(mm, addr);
+               /*
+                * Lookup failure means no vma is above this address,
+                * i.e. return with success:
+-               */
+-              if (!(vma = find_vma_prev(mm, addr, &prev_vma)))
+-                      return addr;
+-
+-              /*
+                * new region fits between prev_vma->vm_end and
+                * vma->vm_start, use it:
+                */
+-              if (addr + len <= vma->vm_start &&
+-                          (!prev_vma || (addr >= prev_vma->vm_end))) {
++              if (check_heap_stack_gap(vma, addr, len)) {
+                       /* remember the address as a hint for next time */
+-                      mm->cached_hole_size = largest_hole;
+-                      return (mm->free_area_cache = addr);
+-              } else {
+-                      /* pull free_area_cache down to the first hole */
+-                      if (mm->free_area_cache == vma->vm_end) {
+-                              mm->free_area_cache = vma->vm_start;
+-                              mm->cached_hole_size = largest_hole;
+-                      }
++                      mm->cached_hole_size = largest_hole;
++                      return (mm->free_area_cache = addr);
++              }
++              /* pull free_area_cache down to the first hole */
++              if (mm->free_area_cache == vma->vm_end) {
++                      mm->free_area_cache = vma->vm_start;
++                      mm->cached_hole_size = largest_hole;
+               }
+               /* remember the largest hole we saw so far */
+               if (addr + largest_hole < vma->vm_start)
+-                      largest_hole = vma->vm_start - addr;
++                      largest_hole = vma->vm_start - addr;
+               /* try just below the current vma->vm_start */
+-              addr = (vma->vm_start - len) & huge_page_mask(h);
+-      } while (len <= vma->vm_start);
++              addr = skip_heap_stack_gap(vma, len);
++      } while (!IS_ERR_VALUE(addr));
+ fail:
+       /*
+-       * if hint left us with no space for the requested
+-       * mapping then try again:
+-       */
+-      if (first_time) {
+-              mm->free_area_cache = base;
+-              largest_hole = 0;
+-              first_time = 0;
+-              goto try_again;
+-      }
+-      /*
+        * A failed mmap() very likely causes application failure,
+        * so fall back to the bottom-up function here. This scenario
+        * can happen with large stack limits and large mmap()
+        * allocations.
+        */
+-      mm->free_area_cache = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              mm->mmap_base = SEGMEXEC_TASK_UNMAPPED_BASE;
++      else
++#endif
++
++      mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (mm->pax_flags & MF_PAX_RANDMMAP)
++              mm->mmap_base += mm->delta_mmap;
++#endif
++
++      mm->free_area_cache = mm->mmap_base;
+       mm->cached_hole_size = ~0UL;
+       addr = hugetlb_get_unmapped_area_bottomup(file, addr0,
+                       len, pgoff, flags);
+@@ -387,6 +393,7 @@ fail:
+       /*
+        * Restore the topdown base:
+        */
++      mm->mmap_base = base;
+       mm->free_area_cache = base;
+       mm->cached_hole_size = ~0UL;
+@@ -400,10 +407,19 @@ hugetlb_get_unmapped_area(struct file *file, unsigned long addr,
+       struct hstate *h = hstate_file(file);
+       struct mm_struct *mm = current->mm;
+       struct vm_area_struct *vma;
++      unsigned long pax_task_size = TASK_SIZE;
+       if (len & ~huge_page_mask(h))
+               return -EINVAL;
+-      if (len > TASK_SIZE)
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      pax_task_size -= PAGE_SIZE;
++
++      if (len > pax_task_size)
+               return -ENOMEM;
+       if (flags & MAP_FIXED) {
+@@ -415,8 +431,7 @@ hugetlb_get_unmapped_area(struct file *file, unsigned long addr,
+       if (addr) {
+               addr = ALIGN(addr, huge_page_size(h));
+               vma = find_vma(mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
++              if (pax_task_size - len >= addr && check_heap_stack_gap(vma, addr, len))
+                       return addr;
+       }
+       if (mm->get_unmapped_area == arch_get_unmapped_area)
+diff --git a/arch/x86/mm/init.c b/arch/x86/mm/init.c
+index 73ffd55..ad78676 100644
+--- a/arch/x86/mm/init.c
++++ b/arch/x86/mm/init.c
+@@ -69,11 +69,7 @@ static void __init find_early_table_space(unsigned long end, int use_pse,
+        * cause a hotspot and fill up ZONE_DMA. The page tables
+        * need roughly 0.5KB per GB.
+        */
+-#ifdef CONFIG_X86_32
+-      start = 0x7000;
+-#else
+-      start = 0x8000;
+-#endif
++      start = 0x100000;
+       e820_table_start = find_e820_area(start, max_pfn_mapped<<PAGE_SHIFT,
+                                       tables, PAGE_SIZE);
+       if (e820_table_start == -1UL)
+@@ -147,7 +143,7 @@ unsigned long __init_refok init_memory_mapping(unsigned long start,
+ #endif
+       set_nx();
+-      if (nx_enabled)
++      if (nx_enabled && cpu_has_nx)
+               printk(KERN_INFO "NX (Execute Disable) protection: active\n");
+       /* Enable PSE if available */
+@@ -329,10 +325,27 @@ unsigned long __init_refok init_memory_mapping(unsigned long start,
+  * Access has to be given to non-kernel-ram areas as well, these contain the PCI
+  * mmio resources as well as potential bios/acpi data regions.
+  */
++
+ int devmem_is_allowed(unsigned long pagenr)
+ {
++#ifdef CONFIG_GRKERNSEC_KMEM
++      /* allow BDA */
++      if (!pagenr)
++              return 1;
++      /* allow EBDA */
++      if ((0x9f000 >> PAGE_SHIFT) == pagenr)
++              return 1;
++      /* allow ISA/video mem */
++      if ((ISA_START_ADDRESS >> PAGE_SHIFT) <= pagenr && pagenr < (ISA_END_ADDRESS >> PAGE_SHIFT))
++              return 1;
++      /* throw out everything else below 1MB */
++      if (pagenr <= 256)
++              return 0;
++#else
+       if (pagenr <= 256)
+               return 1;
++#endif
++
+       if (iomem_is_exclusive(pagenr << PAGE_SHIFT))
+               return 0;
+       if (!page_is_ram(pagenr))
+@@ -379,6 +392,86 @@ void free_init_pages(char *what, unsigned long begin, unsigned long end)
+ void free_initmem(void)
+ {
++
++#ifdef CONFIG_PAX_KERNEXEC
++#ifdef CONFIG_X86_32
++      /* PaX: limit KERNEL_CS to actual size */
++      unsigned long addr, limit;
++      struct desc_struct d;
++      int cpu;
++
++      limit = paravirt_enabled() ? ktva_ktla(0xffffffff) : (unsigned long)&_etext;
++      limit = (limit - 1UL) >> PAGE_SHIFT;
++
++      memset(__LOAD_PHYSICAL_ADDR + PAGE_OFFSET, POISON_FREE_INITMEM, PAGE_SIZE);
++      for (cpu = 0; cpu < NR_CPUS; cpu++) {
++              pack_descriptor(&d, get_desc_base(&get_cpu_gdt_table(cpu)[GDT_ENTRY_KERNEL_CS]), limit, 0x9B, 0xC);
++              write_gdt_entry(get_cpu_gdt_table(cpu), GDT_ENTRY_KERNEL_CS, &d, DESCTYPE_S);
++      }
++
++      /* PaX: make KERNEL_CS read-only */
++      addr = PFN_ALIGN(ktla_ktva((unsigned long)&_text));
++      if (!paravirt_enabled())
++              set_memory_ro(addr, (PFN_ALIGN(_sdata) - addr) >> PAGE_SHIFT);
++/*
++              for (addr = ktla_ktva((unsigned long)&_text); addr < (unsigned long)&_sdata; addr += PMD_SIZE) {
++                      pgd = pgd_offset_k(addr);
++                      pud = pud_offset(pgd, addr);
++                      pmd = pmd_offset(pud, addr);
++                      set_pmd(pmd, __pmd(pmd_val(*pmd) & ~_PAGE_RW));
++              }
++*/
++#ifdef CONFIG_X86_PAE
++      set_memory_nx(PFN_ALIGN(__init_begin), (PFN_ALIGN(__init_end) - PFN_ALIGN(__init_begin)) >> PAGE_SHIFT);
++/*
++      for (addr = (unsigned long)&__init_begin; addr < (unsigned long)&__init_end; addr += PMD_SIZE) {
++              pgd = pgd_offset_k(addr);
++              pud = pud_offset(pgd, addr);
++              pmd = pmd_offset(pud, addr);
++              set_pmd(pmd, __pmd(pmd_val(*pmd) | (_PAGE_NX & __supported_pte_mask)));
++      }
++*/
++#endif
++
++#ifdef CONFIG_MODULES
++      set_memory_4k((unsigned long)MODULES_EXEC_VADDR, (MODULES_EXEC_END - MODULES_EXEC_VADDR) >> PAGE_SHIFT);
++#endif
++
++#else
++      pgd_t *pgd;
++      pud_t *pud;
++      pmd_t *pmd;
++      unsigned long addr, end;
++
++      /* PaX: make kernel code/rodata read-only, rest non-executable */
++      for (addr = __START_KERNEL_map; addr < __START_KERNEL_map + KERNEL_IMAGE_SIZE; addr += PMD_SIZE) {
++              pgd = pgd_offset_k(addr);
++              pud = pud_offset(pgd, addr);
++              pmd = pmd_offset(pud, addr);
++              if (!pmd_present(*pmd))
++                      continue;
++              if ((unsigned long)_text <= addr && addr < (unsigned long)_sdata)
++                      set_pmd(pmd, __pmd(pmd_val(*pmd) & ~_PAGE_RW));
++              else
++                      set_pmd(pmd, __pmd(pmd_val(*pmd) | (_PAGE_NX & __supported_pte_mask)));
++      }
++
++      addr = (unsigned long)__va(__pa(__START_KERNEL_map));
++      end = addr + KERNEL_IMAGE_SIZE;
++      for (; addr < end; addr += PMD_SIZE) {
++              pgd = pgd_offset_k(addr);
++              pud = pud_offset(pgd, addr);
++              pmd = pmd_offset(pud, addr);
++              if (!pmd_present(*pmd))
++                      continue;
++              if ((unsigned long)__va(__pa(_text)) <= addr && addr < (unsigned long)__va(__pa(_sdata)))
++                      set_pmd(pmd, __pmd(pmd_val(*pmd) & ~_PAGE_RW));
++      }
++#endif
++
++      flush_tlb_all();
++#endif
++
+       free_init_pages("unused kernel memory",
+                       (unsigned long)(&__init_begin),
+                       (unsigned long)(&__init_end));
+diff --git a/arch/x86/mm/init_32.c b/arch/x86/mm/init_32.c
+index 30938c1..bda3d5d 100644
+--- a/arch/x86/mm/init_32.c
++++ b/arch/x86/mm/init_32.c
+@@ -72,36 +72,6 @@ static __init void *alloc_low_page(void)
+ }
+ /*
+- * Creates a middle page table and puts a pointer to it in the
+- * given global directory entry. This only returns the gd entry
+- * in non-PAE compilation mode, since the middle layer is folded.
+- */
+-static pmd_t * __init one_md_table_init(pgd_t *pgd)
+-{
+-      pud_t *pud;
+-      pmd_t *pmd_table;
+-
+-#ifdef CONFIG_X86_PAE
+-      if (!(pgd_val(*pgd) & _PAGE_PRESENT)) {
+-              if (after_bootmem)
+-                      pmd_table = (pmd_t *)alloc_bootmem_pages(PAGE_SIZE);
+-              else
+-                      pmd_table = (pmd_t *)alloc_low_page();
+-              paravirt_alloc_pmd(&init_mm, __pa(pmd_table) >> PAGE_SHIFT);
+-              set_pgd(pgd, __pgd(__pa(pmd_table) | _PAGE_PRESENT));
+-              pud = pud_offset(pgd, 0);
+-              BUG_ON(pmd_table != pmd_offset(pud, 0));
+-
+-              return pmd_table;
+-      }
+-#endif
+-      pud = pud_offset(pgd, 0);
+-      pmd_table = pmd_offset(pud, 0);
+-
+-      return pmd_table;
+-}
+-
+-/*
+  * Create a page table and place a pointer to it in a middle page
+  * directory entry:
+  */
+@@ -121,13 +91,28 @@ static pte_t * __init one_page_table_init(pmd_t *pmd)
+                       page_table = (pte_t *)alloc_low_page();
+               paravirt_alloc_pte(&init_mm, __pa(page_table) >> PAGE_SHIFT);
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++              set_pmd(pmd, __pmd(__pa(page_table) | _KERNPG_TABLE));
++#else
+               set_pmd(pmd, __pmd(__pa(page_table) | _PAGE_TABLE));
++#endif
+               BUG_ON(page_table != pte_offset_kernel(pmd, 0));
+       }
+       return pte_offset_kernel(pmd, 0);
+ }
++static pmd_t * __init one_md_table_init(pgd_t *pgd)
++{
++      pud_t *pud;
++      pmd_t *pmd_table;
++
++      pud = pud_offset(pgd, 0);
++      pmd_table = pmd_offset(pud, 0);
++
++      return pmd_table;
++}
++
+ pmd_t * __init populate_extra_pmd(unsigned long vaddr)
+ {
+       int pgd_idx = pgd_index(vaddr);
+@@ -201,6 +186,7 @@ page_table_range_init(unsigned long start, unsigned long end, pgd_t *pgd_base)
+       int pgd_idx, pmd_idx;
+       unsigned long vaddr;
+       pgd_t *pgd;
++      pud_t *pud;
+       pmd_t *pmd;
+       pte_t *pte = NULL;
+@@ -210,8 +196,13 @@ page_table_range_init(unsigned long start, unsigned long end, pgd_t *pgd_base)
+       pgd = pgd_base + pgd_idx;
+       for ( ; (pgd_idx < PTRS_PER_PGD) && (vaddr != end); pgd++, pgd_idx++) {
+-              pmd = one_md_table_init(pgd);
+-              pmd = pmd + pmd_index(vaddr);
++              pud = pud_offset(pgd, vaddr);
++              pmd = pmd_offset(pud, vaddr);
++
++#ifdef CONFIG_X86_PAE
++              paravirt_alloc_pmd(&init_mm, __pa(pmd) >> PAGE_SHIFT);
++#endif
++
+               for (; (pmd_idx < PTRS_PER_PMD) && (vaddr != end);
+                                                       pmd++, pmd_idx++) {
+                       pte = page_table_kmap_check(one_page_table_init(pmd),
+@@ -223,11 +214,20 @@ page_table_range_init(unsigned long start, unsigned long end, pgd_t *pgd_base)
+       }
+ }
+-static inline int is_kernel_text(unsigned long addr)
++static inline int is_kernel_text(unsigned long start, unsigned long end)
+ {
+-      if (addr >= PAGE_OFFSET && addr <= (unsigned long)__init_end)
+-              return 1;
+-      return 0;
++      if ((start > ktla_ktva((unsigned long)_etext) ||
++           end <= ktla_ktva((unsigned long)_stext)) &&
++          (start > ktla_ktva((unsigned long)_einittext) ||
++           end <= ktla_ktva((unsigned long)_sinittext)) &&
++
++#ifdef CONFIG_ACPI_SLEEP
++          (start > (unsigned long)__va(acpi_wakeup_address) + 0x4000 || end <= (unsigned long)__va(acpi_wakeup_address)) &&
++#endif
++
++          (start > (unsigned long)__va(0xfffff) || end <= (unsigned long)__va(0xc0000)))
++              return 0;
++      return 1;
+ }
+ /*
+@@ -243,9 +243,10 @@ kernel_physical_mapping_init(unsigned long start,
+       int use_pse = page_size_mask == (1<<PG_LEVEL_2M);
+       unsigned long start_pfn, end_pfn;
+       pgd_t *pgd_base = swapper_pg_dir;
+-      int pgd_idx, pmd_idx, pte_ofs;
++      unsigned int pgd_idx, pmd_idx, pte_ofs;
+       unsigned long pfn;
+       pgd_t *pgd;
++      pud_t *pud;
+       pmd_t *pmd;
+       pte_t *pte;
+       unsigned pages_2m, pages_4k;
+@@ -278,8 +279,13 @@ repeat:
+       pfn = start_pfn;
+       pgd_idx = pgd_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET);
+       pgd = pgd_base + pgd_idx;
+-      for (; pgd_idx < PTRS_PER_PGD; pgd++, pgd_idx++) {
+-              pmd = one_md_table_init(pgd);
++      for (; pgd_idx < PTRS_PER_PGD && pfn < max_low_pfn; pgd++, pgd_idx++) {
++              pud = pud_offset(pgd, 0);
++              pmd = pmd_offset(pud, 0);
++
++#ifdef CONFIG_X86_PAE
++              paravirt_alloc_pmd(&init_mm, __pa(pmd) >> PAGE_SHIFT);
++#endif
+               if (pfn >= end_pfn)
+                       continue;
+@@ -291,14 +297,13 @@ repeat:
+ #endif
+               for (; pmd_idx < PTRS_PER_PMD && pfn < end_pfn;
+                    pmd++, pmd_idx++) {
+-                      unsigned int addr = pfn * PAGE_SIZE + PAGE_OFFSET;
++                      unsigned long address = pfn * PAGE_SIZE + PAGE_OFFSET;
+                       /*
+                        * Map with big pages if possible, otherwise
+                        * create normal page tables:
+                        */
+                       if (use_pse) {
+-                              unsigned int addr2;
+                               pgprot_t prot = PAGE_KERNEL_LARGE;
+                               /*
+                                * first pass will use the same initial
+@@ -308,11 +313,7 @@ repeat:
+                                       __pgprot(PTE_IDENT_ATTR |
+                                                _PAGE_PSE);
+-                              addr2 = (pfn + PTRS_PER_PTE-1) * PAGE_SIZE +
+-                                      PAGE_OFFSET + PAGE_SIZE-1;
+-
+-                              if (is_kernel_text(addr) ||
+-                                  is_kernel_text(addr2))
++                              if (is_kernel_text(address, address + PMD_SIZE))
+                                       prot = PAGE_KERNEL_LARGE_EXEC;
+                               pages_2m++;
+@@ -329,7 +330,7 @@ repeat:
+                       pte_ofs = pte_index((pfn<<PAGE_SHIFT) + PAGE_OFFSET);
+                       pte += pte_ofs;
+                       for (; pte_ofs < PTRS_PER_PTE && pfn < end_pfn;
+-                           pte++, pfn++, pte_ofs++, addr += PAGE_SIZE) {
++                           pte++, pfn++, pte_ofs++, address += PAGE_SIZE) {
+                               pgprot_t prot = PAGE_KERNEL;
+                               /*
+                                * first pass will use the same initial
+@@ -337,7 +338,7 @@ repeat:
+                                */
+                               pgprot_t init_prot = __pgprot(PTE_IDENT_ATTR);
+-                              if (is_kernel_text(addr))
++                              if (is_kernel_text(address, address + PAGE_SIZE))
+                                       prot = PAGE_KERNEL_EXEC;
+                               pages_4k++;
+@@ -489,7 +490,7 @@ void __init native_pagetable_setup_start(pgd_t *base)
+               pud = pud_offset(pgd, va);
+               pmd = pmd_offset(pud, va);
+-              if (!pmd_present(*pmd))
++              if (!pmd_present(*pmd) || pmd_huge(*pmd))
+                       break;
+               pte = pte_offset_kernel(pmd, va);
+@@ -541,9 +542,7 @@ void __init early_ioremap_page_table_range_init(void)
+ static void __init pagetable_init(void)
+ {
+-      pgd_t *pgd_base = swapper_pg_dir;
+-
+-      permanent_kmaps_init(pgd_base);
++      permanent_kmaps_init(swapper_pg_dir);
+ }
+ #ifdef CONFIG_ACPI_SLEEP
+@@ -551,12 +550,12 @@ static void __init pagetable_init(void)
+  * ACPI suspend needs this for resume, because things like the intel-agp
+  * driver might have split up a kernel 4MB mapping.
+  */
+-char swsusp_pg_dir[PAGE_SIZE]
++pgd_t swsusp_pg_dir[PTRS_PER_PGD]
+       __attribute__ ((aligned(PAGE_SIZE)));
+ static inline void save_pg_dir(void)
+ {
+-      memcpy(swsusp_pg_dir, swapper_pg_dir, PAGE_SIZE);
++      clone_pgd_range(swsusp_pg_dir, swapper_pg_dir, PTRS_PER_PGD);
+ }
+ #else /* !CONFIG_ACPI_SLEEP */
+ static inline void save_pg_dir(void)
+@@ -588,7 +587,7 @@ void zap_low_mappings(bool early)
+               flush_tlb_all();
+ }
+-pteval_t __supported_pte_mask __read_mostly = ~(_PAGE_NX | _PAGE_GLOBAL | _PAGE_IOMAP);
++pteval_t __supported_pte_mask __read_only = ~(_PAGE_NX | _PAGE_GLOBAL | _PAGE_IOMAP);
+ EXPORT_SYMBOL_GPL(__supported_pte_mask);
+ /* user-defined highmem size */
+@@ -777,7 +776,7 @@ void __init setup_bootmem_allocator(void)
+        * Initialize the boot-time allocator (with low memory only):
+        */
+       bootmap_size = bootmem_bootmap_pages(max_low_pfn)<<PAGE_SHIFT;
+-      bootmap = find_e820_area(0, max_pfn_mapped<<PAGE_SHIFT, bootmap_size,
++      bootmap = find_e820_area(0x100000, max_pfn_mapped<<PAGE_SHIFT, bootmap_size,
+                                PAGE_SIZE);
+       if (bootmap == -1L)
+               panic("Cannot find bootmem map of size %ld\n", bootmap_size);
+@@ -864,6 +863,12 @@ void __init mem_init(void)
+       pci_iommu_alloc();
++#ifdef CONFIG_PAX_PER_CPU_PGD
++      clone_pgd_range(get_cpu_pgd(0) + KERNEL_PGD_BOUNDARY,
++                      swapper_pg_dir + KERNEL_PGD_BOUNDARY,
++                      KERNEL_PGD_PTRS);
++#endif
++
+ #ifdef CONFIG_FLATMEM
+       BUG_ON(!mem_map);
+ #endif
+@@ -881,7 +886,7 @@ void __init mem_init(void)
+       set_highmem_pages_init();
+       codesize =  (unsigned long) &_etext - (unsigned long) &_text;
+-      datasize =  (unsigned long) &_edata - (unsigned long) &_etext;
++      datasize =  (unsigned long) &_edata - (unsigned long) &_sdata;
+       initsize =  (unsigned long) &__init_end - (unsigned long) &__init_begin;
+       printk(KERN_INFO "Memory: %luk/%luk available (%dk kernel code, "
+@@ -923,10 +928,10 @@ void __init mem_init(void)
+               ((unsigned long)&__init_end -
+                (unsigned long)&__init_begin) >> 10,
+-              (unsigned long)&_etext, (unsigned long)&_edata,
+-              ((unsigned long)&_edata - (unsigned long)&_etext) >> 10,
++              (unsigned long)&_sdata, (unsigned long)&_edata,
++              ((unsigned long)&_edata - (unsigned long)&_sdata) >> 10,
+-              (unsigned long)&_text, (unsigned long)&_etext,
++              ktla_ktva((unsigned long)&_text), ktla_ktva((unsigned long)&_etext),
+               ((unsigned long)&_etext - (unsigned long)&_text) >> 10);
+       /*
+@@ -1007,6 +1012,7 @@ void set_kernel_text_rw(void)
+       if (!kernel_set_to_readonly)
+               return;
++      start = ktla_ktva(start);
+       pr_debug("Set kernel text: %lx - %lx for read write\n",
+                start, start+size);
+@@ -1021,6 +1027,7 @@ void set_kernel_text_ro(void)
+       if (!kernel_set_to_readonly)
+               return;
++      start = ktla_ktva(start);
+       pr_debug("Set kernel text: %lx - %lx for read only\n",
+                start, start+size);
+@@ -1032,6 +1039,7 @@ void mark_rodata_ro(void)
+       unsigned long start = PFN_ALIGN(_text);
+       unsigned long size = PFN_ALIGN(_etext) - start;
++      start = ktla_ktva(start);
+       set_pages_ro(virt_to_page(start), size >> PAGE_SHIFT);
+       printk(KERN_INFO "Write protecting the kernel text: %luk\n",
+               size >> 10);
+diff --git a/arch/x86/mm/init_64.c b/arch/x86/mm/init_64.c
+index 7d095ad..25d2549 100644
+--- a/arch/x86/mm/init_64.c
++++ b/arch/x86/mm/init_64.c
+@@ -164,7 +164,9 @@ void set_pte_vaddr_pud(pud_t *pud_page, unsigned long vaddr, pte_t new_pte)
+       pmd = fill_pmd(pud, vaddr);
+       pte = fill_pte(pmd, vaddr);
++      pax_open_kernel();
+       set_pte(pte, new_pte);
++      pax_close_kernel();
+       /*
+        * It's enough to flush this one mapping.
+@@ -223,14 +225,12 @@ static void __init __init_extra_mapping(unsigned long phys, unsigned long size,
+               pgd = pgd_offset_k((unsigned long)__va(phys));
+               if (pgd_none(*pgd)) {
+                       pud = (pud_t *) spp_getpage();
+-                      set_pgd(pgd, __pgd(__pa(pud) | _KERNPG_TABLE |
+-                                              _PAGE_USER));
++                      set_pgd(pgd, __pgd(__pa(pud) | _PAGE_TABLE));
+               }
+               pud = pud_offset(pgd, (unsigned long)__va(phys));
+               if (pud_none(*pud)) {
+                       pmd = (pmd_t *) spp_getpage();
+-                      set_pud(pud, __pud(__pa(pmd) | _KERNPG_TABLE |
+-                                              _PAGE_USER));
++                      set_pud(pud, __pud(__pa(pmd) | _PAGE_TABLE));
+               }
+               pmd = pmd_offset(pud, phys);
+               BUG_ON(!pmd_none(*pmd));
+@@ -675,6 +675,12 @@ void __init mem_init(void)
+       pci_iommu_alloc();
++#ifdef CONFIG_PAX_PER_CPU_PGD
++      clone_pgd_range(get_cpu_pgd(0) + KERNEL_PGD_BOUNDARY,
++                      swapper_pg_dir + KERNEL_PGD_BOUNDARY,
++                      KERNEL_PGD_PTRS);
++#endif
++
+       /* clear_bss() already clear the empty_zero_page */
+       reservedpages = 0;
+@@ -861,8 +867,8 @@ int kern_addr_valid(unsigned long addr)
+ static struct vm_area_struct gate_vma = {
+       .vm_start       = VSYSCALL_START,
+       .vm_end         = VSYSCALL_START + (VSYSCALL_MAPPED_PAGES * PAGE_SIZE),
+-      .vm_page_prot   = PAGE_READONLY_EXEC,
+-      .vm_flags       = VM_READ | VM_EXEC
++      .vm_page_prot   = PAGE_READONLY,
++      .vm_flags       = VM_READ
+ };
+ struct vm_area_struct *get_gate_vma(struct task_struct *tsk)
+@@ -896,7 +902,7 @@ int in_gate_area_no_task(unsigned long addr)
+ const char *arch_vma_name(struct vm_area_struct *vma)
+ {
+-      if (vma->vm_mm && vma->vm_start == (long)vma->vm_mm->context.vdso)
++      if (vma->vm_mm && vma->vm_start == vma->vm_mm->context.vdso)
+               return "[vdso]";
+       if (vma == &gate_vma)
+               return "[vsyscall]";
+diff --git a/arch/x86/mm/iomap_32.c b/arch/x86/mm/iomap_32.c
+index 84e236c..69bd3f6 100644
+--- a/arch/x86/mm/iomap_32.c
++++ b/arch/x86/mm/iomap_32.c
+@@ -65,7 +65,11 @@ void *kmap_atomic_prot_pfn(unsigned long pfn, enum km_type type, pgprot_t prot)
+       debug_kmap_atomic(type);
+       idx = type + KM_TYPE_NR * smp_processor_id();
+       vaddr = __fix_to_virt(FIX_KMAP_BEGIN + idx);
++
++      pax_open_kernel();
+       set_pte(kmap_pte - idx, pfn_pte(pfn, prot));
++      pax_close_kernel();
++
+       arch_flush_lazy_mmu_mode();
+       return (void *)vaddr;
+diff --git a/arch/x86/mm/ioremap.c b/arch/x86/mm/ioremap.c
+index 2feb9bd..ab91e7b 100644
+--- a/arch/x86/mm/ioremap.c
++++ b/arch/x86/mm/ioremap.c
+@@ -41,8 +41,8 @@ int page_is_ram(unsigned long pagenr)
+        * Second special case: Some BIOSen report the PC BIOS
+        * area (640->1Mb) as ram even though it is not.
+        */
+-      if (pagenr >= (BIOS_BEGIN >> PAGE_SHIFT) &&
+-                  pagenr < (BIOS_END >> PAGE_SHIFT))
++      if (pagenr >= (ISA_START_ADDRESS >> PAGE_SHIFT) &&
++                  pagenr < (ISA_END_ADDRESS >> PAGE_SHIFT))
+               return 0;
+       for (i = 0; i < e820.nr_map; i++) {
+@@ -137,13 +137,10 @@ static void __iomem *__ioremap_caller(resource_size_t phys_addr,
+       /*
+        * Don't allow anybody to remap normal RAM that we're using..
+        */
+-      for (pfn = phys_addr >> PAGE_SHIFT;
+-                              (pfn << PAGE_SHIFT) < (last_addr & PAGE_MASK);
+-                              pfn++) {
+-
++      for (pfn = phys_addr >> PAGE_SHIFT; ((resource_size_t)pfn << PAGE_SHIFT) < (last_addr & PAGE_MASK); pfn++) {
+               int is_ram = page_is_ram(pfn);
+-              if (is_ram && pfn_valid(pfn) && !PageReserved(pfn_to_page(pfn)))
++              if (is_ram && pfn_valid(pfn) && (pfn >= 0x100 || !PageReserved(pfn_to_page(pfn))))
+                       return NULL;
+               WARN_ON_ONCE(is_ram);
+       }
+@@ -378,6 +375,9 @@ void *xlate_dev_mem_ptr(unsigned long phys)
+       /* If page is RAM, we can use __va. Otherwise ioremap and unmap. */
+       if (page_is_ram(start >> PAGE_SHIFT))
++#ifdef CONFIG_HIGHMEM
++      if ((start >> PAGE_SHIFT) < max_low_pfn)
++#endif
+               return __va(phys);
+       addr = (void __force *)ioremap_default(start, PAGE_SIZE);
+@@ -407,7 +407,7 @@ static int __init early_ioremap_debug_setup(char *str)
+ early_param("early_ioremap_debug", early_ioremap_debug_setup);
+ static __initdata int after_paging_init;
+-static pte_t bm_pte[PAGE_SIZE/sizeof(pte_t)] __page_aligned_bss;
++static pte_t bm_pte[PAGE_SIZE/sizeof(pte_t)] __read_only __aligned(PAGE_SIZE);
+ static inline pmd_t * __init early_ioremap_pmd(unsigned long addr)
+ {
+@@ -439,8 +439,7 @@ void __init early_ioremap_init(void)
+               slot_virt[i] = __fix_to_virt(FIX_BTMAP_BEGIN - NR_FIX_BTMAPS*i);
+       pmd = early_ioremap_pmd(fix_to_virt(FIX_BTMAP_BEGIN));
+-      memset(bm_pte, 0, sizeof(bm_pte));
+-      pmd_populate_kernel(&init_mm, pmd, bm_pte);
++      pmd_populate_user(&init_mm, pmd, bm_pte);
+       /*
+        * The boot-ioremap range spans multiple pmds, for which
+diff --git a/arch/x86/mm/kmemcheck/kmemcheck.c b/arch/x86/mm/kmemcheck/kmemcheck.c
+index 8cc1833..1abbc5b 100644
+--- a/arch/x86/mm/kmemcheck/kmemcheck.c
++++ b/arch/x86/mm/kmemcheck/kmemcheck.c
+@@ -622,9 +622,9 @@ bool kmemcheck_fault(struct pt_regs *regs, unsigned long address,
+        * memory (e.g. tracked pages)? For now, we need this to avoid
+        * invoking kmemcheck for PnP BIOS calls.
+        */
+-      if (regs->flags & X86_VM_MASK)
++      if (v8086_mode(regs))
+               return false;
+-      if (regs->cs != __KERNEL_CS)
++      if (regs->cs != __KERNEL_CS && regs->cs != __KERNEXEC_KERNEL_CS)
+               return false;
+       pte = kmemcheck_pte_lookup(address);
+diff --git a/arch/x86/mm/mmap.c b/arch/x86/mm/mmap.c
+index c9e57af..07a321b 100644
+--- a/arch/x86/mm/mmap.c
++++ b/arch/x86/mm/mmap.c
+@@ -49,7 +49,7 @@ static unsigned int stack_maxrandom_size(void)
+  * Leave an at least ~128 MB hole with possible stack randomization.
+  */
+ #define MIN_GAP (128*1024*1024UL + stack_maxrandom_size())
+-#define MAX_GAP (TASK_SIZE/6*5)
++#define MAX_GAP (pax_task_size/6*5)
+ /*
+  * True on X86_32 or when emulating IA32 on X86_64
+@@ -94,27 +94,40 @@ static unsigned long mmap_rnd(void)
+       return rnd << PAGE_SHIFT;
+ }
+-static unsigned long mmap_base(void)
++static unsigned long mmap_base(struct mm_struct *mm)
+ {
+       unsigned long gap = current->signal->rlim[RLIMIT_STACK].rlim_cur;
++      unsigned long pax_task_size = TASK_SIZE;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
+       if (gap < MIN_GAP)
+               gap = MIN_GAP;
+       else if (gap > MAX_GAP)
+               gap = MAX_GAP;
+-      return PAGE_ALIGN(TASK_SIZE - gap - mmap_rnd());
++      return PAGE_ALIGN(pax_task_size - gap - mmap_rnd());
+ }
+ /*
+  * Bottom-up (legacy) layout on X86_32 did not support randomization, X86_64
+  * does, but not when emulating X86_32
+  */
+-static unsigned long mmap_legacy_base(void)
++static unsigned long mmap_legacy_base(struct mm_struct *mm)
+ {
+-      if (mmap_is_ia32())
++      if (mmap_is_ia32()) {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              if (mm->pax_flags & MF_PAX_SEGMEXEC)
++                      return SEGMEXEC_TASK_UNMAPPED_BASE;
++              else
++#endif
++
+               return TASK_UNMAPPED_BASE;
+-      else
++      } else
+               return TASK_UNMAPPED_BASE + mmap_rnd();
+ }
+@@ -125,11 +138,23 @@ static unsigned long mmap_legacy_base(void)
+ void arch_pick_mmap_layout(struct mm_struct *mm)
+ {
+       if (mmap_is_legacy()) {
+-              mm->mmap_base = mmap_legacy_base();
++              mm->mmap_base = mmap_legacy_base(mm);
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base += mm->delta_mmap;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area;
+               mm->unmap_area = arch_unmap_area;
+       } else {
+-              mm->mmap_base = mmap_base();
++              mm->mmap_base = mmap_base(mm);
++
++#ifdef CONFIG_PAX_RANDMMAP
++              if (mm->pax_flags & MF_PAX_RANDMMAP)
++                      mm->mmap_base -= mm->delta_mmap + mm->delta_stack;
++#endif
++
+               mm->get_unmapped_area = arch_get_unmapped_area_topdown;
+               mm->unmap_area = arch_unmap_area_topdown;
+       }
+diff --git a/arch/x86/mm/mmio-mod.c b/arch/x86/mm/mmio-mod.c
+index 132772a..b961f11 100644
+--- a/arch/x86/mm/mmio-mod.c
++++ b/arch/x86/mm/mmio-mod.c
+@@ -193,7 +193,7 @@ static void pre(struct kmmio_probe *p, struct pt_regs *regs,
+               break;
+       default:
+               {
+-                      unsigned char *ip = (unsigned char *)instptr;
++                      unsigned char *ip = (unsigned char *)ktla_ktva(instptr);
+                       my_trace->opcode = MMIO_UNKNOWN_OP;
+                       my_trace->width = 0;
+                       my_trace->value = (*ip) << 16 | *(ip + 1) << 8 |
+@@ -233,7 +233,7 @@ static void post(struct kmmio_probe *p, unsigned long condition,
+ static void ioremap_trace_core(resource_size_t offset, unsigned long size,
+                                                       void __iomem *addr)
+ {
+-      static atomic_t next_id;
++      static atomic_unchecked_t next_id;
+       struct remap_trace *trace = kmalloc(sizeof(*trace), GFP_KERNEL);
+       /* These are page-unaligned. */
+       struct mmiotrace_map map = {
+@@ -257,7 +257,7 @@ static void ioremap_trace_core(resource_size_t offset, unsigned long size,
+                       .private = trace
+               },
+               .phys = offset,
+-              .id = atomic_inc_return(&next_id)
++              .id = atomic_inc_return_unchecked(&next_id)
+       };
+       map.map_id = trace->id;
+diff --git a/arch/x86/mm/numa_32.c b/arch/x86/mm/numa_32.c
+index d253006..e56dd6a 100644
+--- a/arch/x86/mm/numa_32.c
++++ b/arch/x86/mm/numa_32.c
+@@ -98,7 +98,6 @@ unsigned long node_memmap_size_bytes(int nid, unsigned long start_pfn,
+ }
+ #endif
+-extern unsigned long find_max_low_pfn(void);
+ extern unsigned long highend_pfn, highstart_pfn;
+ #define LARGE_PAGE_BYTES (PTRS_PER_PTE * PAGE_SIZE)
+diff --git a/arch/x86/mm/pageattr-test.c b/arch/x86/mm/pageattr-test.c
+index e1d1069..2251ff3 100644
+--- a/arch/x86/mm/pageattr-test.c
++++ b/arch/x86/mm/pageattr-test.c
+@@ -36,7 +36,7 @@ enum {
+ static int pte_testbit(pte_t pte)
+ {
+-      return pte_flags(pte) & _PAGE_UNUSED1;
++      return pte_flags(pte) & _PAGE_CPA_TEST;
+ }
+ struct split_state {
+diff --git a/arch/x86/mm/pageattr.c b/arch/x86/mm/pageattr.c
+index dd38bfb..8c12306 100644
+--- a/arch/x86/mm/pageattr.c
++++ b/arch/x86/mm/pageattr.c
+@@ -261,16 +261,17 @@ static inline pgprot_t static_protections(pgprot_t prot, unsigned long address,
+        * PCI BIOS based config access (CONFIG_PCI_GOBIOS) support.
+        */
+       if (within(pfn, BIOS_BEGIN >> PAGE_SHIFT, BIOS_END >> PAGE_SHIFT))
+-              pgprot_val(forbidden) |= _PAGE_NX;
++              pgprot_val(forbidden) |= _PAGE_NX & __supported_pte_mask;
+       /*
+        * The kernel text needs to be executable for obvious reasons
+        * Does not cover __inittext since that is gone later on. On
+        * 64bit we do not enforce !NX on the low mapping
+        */
+-      if (within(address, (unsigned long)_text, (unsigned long)_etext))
+-              pgprot_val(forbidden) |= _PAGE_NX;
++      if (within(address, ktla_ktva((unsigned long)_text), ktla_ktva((unsigned long)_etext)))
++              pgprot_val(forbidden) |= _PAGE_NX & __supported_pte_mask;
++#ifdef CONFIG_DEBUG_RODATA
+       /*
+        * The .rodata section needs to be read-only. Using the pfn
+        * catches all aliases.
+@@ -278,6 +279,14 @@ static inline pgprot_t static_protections(pgprot_t prot, unsigned long address,
+       if (within(pfn, __pa((unsigned long)__start_rodata) >> PAGE_SHIFT,
+                  __pa((unsigned long)__end_rodata) >> PAGE_SHIFT))
+               pgprot_val(forbidden) |= _PAGE_RW;
++#endif
++
++#ifdef CONFIG_PAX_KERNEXEC
++      if (within(pfn, __pa((unsigned long)&_text), __pa((unsigned long)&_sdata))) {
++              pgprot_val(forbidden) |= _PAGE_RW;
++              pgprot_val(forbidden) |= _PAGE_NX & __supported_pte_mask;
++      }
++#endif
+       prot = __pgprot(pgprot_val(prot) & ~pgprot_val(forbidden));
+@@ -331,23 +340,37 @@ EXPORT_SYMBOL_GPL(lookup_address);
+ static void __set_pmd_pte(pte_t *kpte, unsigned long address, pte_t pte)
+ {
+       /* change init_mm */
++      pax_open_kernel();
+       set_pte_atomic(kpte, pte);
++
+ #ifdef CONFIG_X86_32
+       if (!SHARED_KERNEL_PMD) {
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              unsigned long cpu;
++#else
+               struct page *page;
++#endif
++#ifdef CONFIG_PAX_PER_CPU_PGD
++              for (cpu = 0; cpu < NR_CPUS; ++cpu) {
++                      pgd_t *pgd = get_cpu_pgd(cpu);
++#else
+               list_for_each_entry(page, &pgd_list, lru) {
+-                      pgd_t *pgd;
++                      pgd_t *pgd = (pgd_t *)page_address(page);
++#endif
++
+                       pud_t *pud;
+                       pmd_t *pmd;
+-                      pgd = (pgd_t *)page_address(page) + pgd_index(address);
++                      pgd += pgd_index(address);
+                       pud = pud_offset(pgd, address);
+                       pmd = pmd_offset(pud, address);
+                       set_pte_atomic((pte_t *)pmd, pte);
+               }
+       }
+ #endif
++      pax_close_kernel();
+ }
+ static int
+diff --git a/arch/x86/mm/pat.c b/arch/x86/mm/pat.c
+index e78cd0e..de0a817 100644
+--- a/arch/x86/mm/pat.c
++++ b/arch/x86/mm/pat.c
+@@ -258,7 +258,7 @@ chk_conflict(struct memtype *new, struct memtype *entry, unsigned long *type)
+  conflict:
+       printk(KERN_INFO "%s:%d conflicting memory types "
+-             "%Lx-%Lx %s<->%s\n", current->comm, current->pid, new->start,
++             "%Lx-%Lx %s<->%s\n", current->comm, task_pid_nr(current), new->start,
+              new->end, cattr_name(new->type), cattr_name(entry->type));
+       return -EBUSY;
+ }
+@@ -559,7 +559,7 @@ unlock_ret:
+       if (err) {
+               printk(KERN_INFO "%s:%d freeing invalid memtype %Lx-%Lx\n",
+-                      current->comm, current->pid, start, end);
++                      current->comm, task_pid_nr(current), start, end);
+       }
+       dprintk("free_memtype request 0x%Lx-0x%Lx\n", start, end);
+@@ -689,8 +689,8 @@ static inline int range_is_allowed(unsigned long pfn, unsigned long size)
+       while (cursor < to) {
+               if (!devmem_is_allowed(pfn)) {
+                       printk(KERN_INFO
+-              "Program %s tried to access /dev/mem between %Lx->%Lx.\n",
+-                              current->comm, from, to);
++              "Program %s tried to access /dev/mem between %Lx->%Lx (%Lx).\n",
++                              current->comm, from, to, cursor);
+                       return 0;
+               }
+               cursor += PAGE_SIZE;
+@@ -755,7 +755,7 @@ int kernel_map_sync_memtype(u64 base, unsigned long size, unsigned long flags)
+               printk(KERN_INFO
+                       "%s:%d ioremap_change_attr failed %s "
+                       "for %Lx-%Lx\n",
+-                      current->comm, current->pid,
++                      current->comm, task_pid_nr(current),
+                       cattr_name(flags),
+                       base, (unsigned long long)(base + size));
+               return -EINVAL;
+@@ -813,7 +813,7 @@ static int reserve_pfn_range(u64 paddr, unsigned long size, pgprot_t *vma_prot,
+                       free_memtype(paddr, paddr + size);
+                       printk(KERN_ERR "%s:%d map pfn expected mapping type %s"
+                               " for %Lx-%Lx, got %s\n",
+-                              current->comm, current->pid,
++                              current->comm, task_pid_nr(current),
+                               cattr_name(want_flags),
+                               (unsigned long long)paddr,
+                               (unsigned long long)(paddr + size),
+diff --git a/arch/x86/mm/pf_in.c b/arch/x86/mm/pf_in.c
+index df3d5c8..c2223e1 100644
+--- a/arch/x86/mm/pf_in.c
++++ b/arch/x86/mm/pf_in.c
+@@ -148,7 +148,7 @@ enum reason_type get_ins_type(unsigned long ins_addr)
+       int i;
+       enum reason_type rv = OTHERS;
+-      p = (unsigned char *)ins_addr;
++      p = (unsigned char *)ktla_ktva(ins_addr);
+       p += skip_prefix(p, &prf);
+       p += get_opcode(p, &opcode);
+@@ -168,7 +168,7 @@ static unsigned int get_ins_reg_width(unsigned long ins_addr)
+       struct prefix_bits prf;
+       int i;
+-      p = (unsigned char *)ins_addr;
++      p = (unsigned char *)ktla_ktva(ins_addr);
+       p += skip_prefix(p, &prf);
+       p += get_opcode(p, &opcode);
+@@ -191,7 +191,7 @@ unsigned int get_ins_mem_width(unsigned long ins_addr)
+       struct prefix_bits prf;
+       int i;
+-      p = (unsigned char *)ins_addr;
++      p = (unsigned char *)ktla_ktva(ins_addr);
+       p += skip_prefix(p, &prf);
+       p += get_opcode(p, &opcode);
+@@ -417,7 +417,7 @@ unsigned long get_ins_reg_val(unsigned long ins_addr, struct pt_regs *regs)
+       int i;
+       unsigned long rv;
+-      p = (unsigned char *)ins_addr;
++      p = (unsigned char *)ktla_ktva(ins_addr);
+       p += skip_prefix(p, &prf);
+       p += get_opcode(p, &opcode);
+       for (i = 0; i < ARRAY_SIZE(reg_rop); i++)
+@@ -472,7 +472,7 @@ unsigned long get_ins_imm_val(unsigned long ins_addr)
+       int i;
+       unsigned long rv;
+-      p = (unsigned char *)ins_addr;
++      p = (unsigned char *)ktla_ktva(ins_addr);
+       p += skip_prefix(p, &prf);
+       p += get_opcode(p, &opcode);
+       for (i = 0; i < ARRAY_SIZE(imm_wop); i++)
+diff --git a/arch/x86/mm/pgtable.c b/arch/x86/mm/pgtable.c
+index e0e6fad..6b90017 100644
+--- a/arch/x86/mm/pgtable.c
++++ b/arch/x86/mm/pgtable.c
+@@ -83,9 +83,52 @@ static inline void pgd_list_del(pgd_t *pgd)
+       list_del(&page->lru);
+ }
+-#define UNSHARED_PTRS_PER_PGD                         \
+-      (SHARED_KERNEL_PMD ? KERNEL_PGD_BOUNDARY : PTRS_PER_PGD)
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++pgdval_t clone_pgd_mask __read_only = ~_PAGE_PRESENT;
++void __shadow_user_pgds(pgd_t *dst, const pgd_t *src, int count)
++{
++      while (count--)
++              *dst++ = __pgd((pgd_val(*src++) | (_PAGE_NX & __supported_pte_mask)) & ~_PAGE_USER);
++}
++#endif
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++void __clone_user_pgds(pgd_t *dst, const pgd_t *src, int count)
++{
++      while (count--)
++
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++              *dst++ = __pgd(pgd_val(*src++) & clone_pgd_mask);
++#else
++              *dst++ = *src++;
++#endif
++
++}
++#endif
++
++#ifdef CONFIG_X86_64
++#define pxd_t                         pud_t
++#define pyd_t                         pgd_t
++#define paravirt_release_pxd(pfn)     paravirt_release_pud(pfn)
++#define pxd_free(mm, pud)             pud_free((mm), (pud))
++#define pyd_populate(mm, pgd, pud)    pgd_populate((mm), (pgd), (pud))
++#define pyd_offset(mm ,address)               pgd_offset((mm), (address))
++#define PYD_SIZE                      PGDIR_SIZE
++#else
++#define pxd_t                         pmd_t
++#define pyd_t                         pud_t
++#define paravirt_release_pxd(pfn)     paravirt_release_pmd(pfn)
++#define pxd_free(mm, pud)             pmd_free((mm), (pud))
++#define pyd_populate(mm, pgd, pud)    pud_populate((mm), (pgd), (pud))
++#define pyd_offset(mm ,address)               pud_offset((mm), (address))
++#define PYD_SIZE                      PUD_SIZE
++#endif
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++static inline void pgd_ctor(pgd_t *pgd) {}
++static inline void pgd_dtor(pgd_t *pgd) {}
++#else
+ static void pgd_ctor(pgd_t *pgd)
+ {
+       /* If the pgd points to a shared pagetable level (either the
+@@ -119,6 +162,7 @@ static void pgd_dtor(pgd_t *pgd)
+       pgd_list_del(pgd);
+       spin_unlock_irqrestore(&pgd_lock, flags);
+ }
++#endif
+ /*
+  * List of all pgd's needed for non-PAE so it can invalidate entries
+@@ -131,7 +175,7 @@ static void pgd_dtor(pgd_t *pgd)
+  * -- wli
+  */
+-#ifdef CONFIG_X86_PAE
++#if defined(CONFIG_X86_32) && defined(CONFIG_X86_PAE)
+ /*
+  * In PAE mode, we need to do a cr3 reload (=tlb flush) when
+  * updating the top-level pagetable entries to guarantee the
+@@ -143,7 +187,7 @@ static void pgd_dtor(pgd_t *pgd)
+  * not shared between pagetables (!SHARED_KERNEL_PMDS), we allocate
+  * and initialize the kernel pmds here.
+  */
+-#define PREALLOCATED_PMDS     UNSHARED_PTRS_PER_PGD
++#define PREALLOCATED_PXDS     (SHARED_KERNEL_PMD ? KERNEL_PGD_BOUNDARY : PTRS_PER_PGD)
+ void pud_populate(struct mm_struct *mm, pud_t *pudp, pmd_t *pmd)
+ {
+@@ -161,36 +205,38 @@ void pud_populate(struct mm_struct *mm, pud_t *pudp, pmd_t *pmd)
+        */
+       flush_tlb_mm(mm);
+ }
++#elif defined(CONFIG_X86_64) && defined(CONFIG_PAX_PER_CPU_PGD)
++#define PREALLOCATED_PXDS     USER_PGD_PTRS
+ #else  /* !CONFIG_X86_PAE */
+ /* No need to prepopulate any pagetable entries in non-PAE modes. */
+-#define PREALLOCATED_PMDS     0
++#define PREALLOCATED_PXDS     0
+ #endif        /* CONFIG_X86_PAE */
+-static void free_pmds(pmd_t *pmds[])
++static void free_pxds(pxd_t *pxds[])
+ {
+       int i;
+-      for(i = 0; i < PREALLOCATED_PMDS; i++)
+-              if (pmds[i])
+-                      free_page((unsigned long)pmds[i]);
++      for(i = 0; i < PREALLOCATED_PXDS; i++)
++              if (pxds[i])
++                      free_page((unsigned long)pxds[i]);
+ }
+-static int preallocate_pmds(pmd_t *pmds[])
++static int preallocate_pxds(pxd_t *pxds[])
+ {
+       int i;
+       bool failed = false;
+-      for(i = 0; i < PREALLOCATED_PMDS; i++) {
+-              pmd_t *pmd = (pmd_t *)__get_free_page(PGALLOC_GFP);
+-              if (pmd == NULL)
++      for(i = 0; i < PREALLOCATED_PXDS; i++) {
++              pxd_t *pxd = (pxd_t *)__get_free_page(PGALLOC_GFP);
++              if (pxd == NULL)
+                       failed = true;
+-              pmds[i] = pmd;
++              pxds[i] = pxd;
+       }
+       if (failed) {
+-              free_pmds(pmds);
++              free_pxds(pxds);
+               return -ENOMEM;
+       }
+@@ -203,51 +249,56 @@ static int preallocate_pmds(pmd_t *pmds[])
+  * preallocate which never got a corresponding vma will need to be
+  * freed manually.
+  */
+-static void pgd_mop_up_pmds(struct mm_struct *mm, pgd_t *pgdp)
++static void pgd_mop_up_pxds(struct mm_struct *mm, pgd_t *pgdp)
+ {
+       int i;
+-      for(i = 0; i < PREALLOCATED_PMDS; i++) {
++      for(i = 0; i < PREALLOCATED_PXDS; i++) {
+               pgd_t pgd = pgdp[i];
+               if (pgd_val(pgd) != 0) {
+-                      pmd_t *pmd = (pmd_t *)pgd_page_vaddr(pgd);
++                      pxd_t *pxd = (pxd_t *)pgd_page_vaddr(pgd);
+-                      pgdp[i] = native_make_pgd(0);
++                      set_pgd(pgdp + i, native_make_pgd(0));
+-                      paravirt_release_pmd(pgd_val(pgd) >> PAGE_SHIFT);
+-                      pmd_free(mm, pmd);
++                      paravirt_release_pxd(pgd_val(pgd) >> PAGE_SHIFT);
++                      pxd_free(mm, pxd);
+               }
+       }
+ }
+-static void pgd_prepopulate_pmd(struct mm_struct *mm, pgd_t *pgd, pmd_t *pmds[])
++static void pgd_prepopulate_pxd(struct mm_struct *mm, pgd_t *pgd, pxd_t *pxds[])
+ {
+-      pud_t *pud;
++      pyd_t *pyd;
+       unsigned long addr;
+       int i;
+-      if (PREALLOCATED_PMDS == 0) /* Work around gcc-3.4.x bug */
++      if (PREALLOCATED_PXDS == 0) /* Work around gcc-3.4.x bug */
+               return;
+-      pud = pud_offset(pgd, 0);
++#ifdef CONFIG_X86_64
++      pyd = pyd_offset(mm, 0L);
++#else
++      pyd = pyd_offset(pgd, 0L);
++#endif
+-      for (addr = i = 0; i < PREALLOCATED_PMDS;
+-           i++, pud++, addr += PUD_SIZE) {
+-              pmd_t *pmd = pmds[i];
++      for (addr = i = 0; i < PREALLOCATED_PXDS;
++           i++, pyd++, addr += PYD_SIZE) {
++              pxd_t *pxd = pxds[i];
+               if (i >= KERNEL_PGD_BOUNDARY)
+-                      memcpy(pmd, (pmd_t *)pgd_page_vaddr(swapper_pg_dir[i]),
+-                             sizeof(pmd_t) * PTRS_PER_PMD);
++                      memcpy(pxd, (pxd_t *)pgd_page_vaddr(swapper_pg_dir[i]),
++                             sizeof(pxd_t) * PTRS_PER_PMD);
+-              pud_populate(mm, pud, pmd);
++              pyd_populate(mm, pyd, pxd);
+       }
+ }
+ pgd_t *pgd_alloc(struct mm_struct *mm)
+ {
+       pgd_t *pgd;
+-      pmd_t *pmds[PREALLOCATED_PMDS];
++      pxd_t *pxds[PREALLOCATED_PXDS];
++
+       unsigned long flags;
+       pgd = (pgd_t *)__get_free_page(PGALLOC_GFP);
+@@ -257,11 +308,11 @@ pgd_t *pgd_alloc(struct mm_struct *mm)
+       mm->pgd = pgd;
+-      if (preallocate_pmds(pmds) != 0)
++      if (preallocate_pxds(pxds) != 0)
+               goto out_free_pgd;
+       if (paravirt_pgd_alloc(mm) != 0)
+-              goto out_free_pmds;
++              goto out_free_pxds;
+       /*
+        * Make sure that pre-populating the pmds is atomic with
+@@ -271,14 +322,14 @@ pgd_t *pgd_alloc(struct mm_struct *mm)
+       spin_lock_irqsave(&pgd_lock, flags);
+       pgd_ctor(pgd);
+-      pgd_prepopulate_pmd(mm, pgd, pmds);
++      pgd_prepopulate_pxd(mm, pgd, pxds);
+       spin_unlock_irqrestore(&pgd_lock, flags);
+       return pgd;
+-out_free_pmds:
+-      free_pmds(pmds);
++out_free_pxds:
++      free_pxds(pxds);
+ out_free_pgd:
+       free_page((unsigned long)pgd);
+ out:
+@@ -287,7 +338,7 @@ out:
+ void pgd_free(struct mm_struct *mm, pgd_t *pgd)
+ {
+-      pgd_mop_up_pmds(mm, pgd);
++      pgd_mop_up_pxds(mm, pgd);
+       pgd_dtor(pgd);
+       paravirt_pgd_free(mm, pgd);
+       free_page((unsigned long)pgd);
+diff --git a/arch/x86/mm/pgtable_32.c b/arch/x86/mm/pgtable_32.c
+index 46c8834..fcab43d 100644
+--- a/arch/x86/mm/pgtable_32.c
++++ b/arch/x86/mm/pgtable_32.c
+@@ -49,10 +49,13 @@ void set_pte_vaddr(unsigned long vaddr, pte_t pteval)
+               return;
+       }
+       pte = pte_offset_kernel(pmd, vaddr);
++
++      pax_open_kernel();
+       if (pte_val(pteval))
+               set_pte_at(&init_mm, vaddr, pte, pteval);
+       else
+               pte_clear(&init_mm, vaddr, pte);
++      pax_close_kernel();
+       /*
+        * It's enough to flush this one mapping.
+diff --git a/arch/x86/mm/setup_nx.c b/arch/x86/mm/setup_nx.c
+index 513d8ed..978c161 100644
+--- a/arch/x86/mm/setup_nx.c
++++ b/arch/x86/mm/setup_nx.c
+@@ -4,11 +4,10 @@
+ #include <asm/pgtable.h>
++#if defined(CONFIG_X86_32) && defined(CONFIG_X86_PAE)
+ int nx_enabled;
+-#if defined(CONFIG_X86_64) || defined(CONFIG_X86_PAE)
+-static int disable_nx __cpuinitdata;
+-
++#ifndef CONFIG_PAX_PAGEEXEC
+ /*
+  * noexec = on|off
+  *
+@@ -22,32 +21,26 @@ static int __init noexec_setup(char *str)
+       if (!str)
+               return -EINVAL;
+       if (!strncmp(str, "on", 2)) {
+-              __supported_pte_mask |= _PAGE_NX;
+-              disable_nx = 0;
++              nx_enabled = 1;
+       } else if (!strncmp(str, "off", 3)) {
+-              disable_nx = 1;
+-              __supported_pte_mask &= ~_PAGE_NX;
++              nx_enabled = 0;
+       }
+       return 0;
+ }
+ early_param("noexec", noexec_setup);
+ #endif
++#endif
+ #ifdef CONFIG_X86_PAE
+ void __init set_nx(void)
+ {
+-      unsigned int v[4], l, h;
++      if (!nx_enabled && cpu_has_nx) {
++              unsigned l, h;
+-      if (cpu_has_pae && (cpuid_eax(0x80000000) > 0x80000001)) {
+-              cpuid(0x80000001, &v[0], &v[1], &v[2], &v[3]);
+-
+-              if ((v[3] & (1 << 20)) && !disable_nx) {
+-                      rdmsr(MSR_EFER, l, h);
+-                      l |= EFER_NX;
+-                      wrmsr(MSR_EFER, l, h);
+-                      nx_enabled = 1;
+-                      __supported_pte_mask |= _PAGE_NX;
+-              }
++              __supported_pte_mask &= ~_PAGE_NX;
++              rdmsr(MSR_EFER, l, h);
++              l &= ~EFER_NX;
++              wrmsr(MSR_EFER, l, h);
+       }
+ }
+ #else
+@@ -62,7 +55,7 @@ void __cpuinit check_efer(void)
+       unsigned long efer;
+       rdmsrl(MSR_EFER, efer);
+-      if (!(efer & EFER_NX) || disable_nx)
++      if (!(efer & EFER_NX) || !nx_enabled)
+               __supported_pte_mask &= ~_PAGE_NX;
+ }
+ #endif
+diff --git a/arch/x86/mm/tlb.c b/arch/x86/mm/tlb.c
+index 36fe08e..b123d3a 100644
+--- a/arch/x86/mm/tlb.c
++++ b/arch/x86/mm/tlb.c
+@@ -61,7 +61,11 @@ void leave_mm(int cpu)
+               BUG();
+       cpumask_clear_cpu(cpu,
+                         mm_cpumask(percpu_read(cpu_tlbstate.active_mm)));
++
++#ifndef CONFIG_PAX_PER_CPU_PGD
+       load_cr3(swapper_pg_dir);
++#endif
++
+ }
+ EXPORT_SYMBOL_GPL(leave_mm);
+diff --git a/arch/x86/oprofile/backtrace.c b/arch/x86/oprofile/backtrace.c
+index 829edf0..672adb3 100644
+--- a/arch/x86/oprofile/backtrace.c
++++ b/arch/x86/oprofile/backtrace.c
+@@ -115,7 +115,7 @@ x86_backtrace(struct pt_regs * const regs, unsigned int depth)
+ {
+       struct frame_head *head = (struct frame_head *)frame_pointer(regs);
+-      if (!user_mode_vm(regs)) {
++      if (!user_mode(regs)) {
+               unsigned long stack = kernel_stack_pointer(regs);
+               if (depth)
+                       dump_trace(NULL, regs, (unsigned long *)stack, 0,
+diff --git a/arch/x86/oprofile/op_model_p4.c b/arch/x86/oprofile/op_model_p4.c
+index e6a160a..36deff6 100644
+--- a/arch/x86/oprofile/op_model_p4.c
++++ b/arch/x86/oprofile/op_model_p4.c
+@@ -50,7 +50,7 @@ static inline void setup_num_counters(void)
+ #endif
+ }
+-static int inline addr_increment(void)
++static inline int addr_increment(void)
+ {
+ #ifdef CONFIG_SMP
+       return smp_num_siblings == 2 ? 2 : 1;
+diff --git a/arch/x86/pci/common.c b/arch/x86/pci/common.c
+index 1331fcf..03901b2 100644
+--- a/arch/x86/pci/common.c
++++ b/arch/x86/pci/common.c
+@@ -31,8 +31,8 @@ int noioapicreroute = 1;
+ int pcibios_last_bus = -1;
+ unsigned long pirq_table_addr;
+ struct pci_bus *pci_root_bus;
+-struct pci_raw_ops *raw_pci_ops;
+-struct pci_raw_ops *raw_pci_ext_ops;
++const struct pci_raw_ops *raw_pci_ops;
++const struct pci_raw_ops *raw_pci_ext_ops;
+ int raw_pci_read(unsigned int domain, unsigned int bus, unsigned int devfn,
+                                               int reg, int len, u32 *val)
+diff --git a/arch/x86/pci/direct.c b/arch/x86/pci/direct.c
+index 347d882..4baf6b6 100644
+--- a/arch/x86/pci/direct.c
++++ b/arch/x86/pci/direct.c
+@@ -79,7 +79,7 @@ static int pci_conf1_write(unsigned int seg, unsigned int bus,
+ #undef PCI_CONF1_ADDRESS
+-struct pci_raw_ops pci_direct_conf1 = {
++const struct pci_raw_ops pci_direct_conf1 = {
+       .read =         pci_conf1_read,
+       .write =        pci_conf1_write,
+ };
+@@ -173,7 +173,7 @@ static int pci_conf2_write(unsigned int seg, unsigned int bus,
+ #undef PCI_CONF2_ADDRESS
+-struct pci_raw_ops pci_direct_conf2 = {
++const struct pci_raw_ops pci_direct_conf2 = {
+       .read =         pci_conf2_read,
+       .write =        pci_conf2_write,
+ };
+@@ -189,7 +189,7 @@ struct pci_raw_ops pci_direct_conf2 = {
+  * This should be close to trivial, but it isn't, because there are buggy
+  * chipsets (yes, you guessed it, by Intel and Compaq) that have no class ID.
+  */
+-static int __init pci_sanity_check(struct pci_raw_ops *o)
++static int __init pci_sanity_check(const struct pci_raw_ops *o)
+ {
+       u32 x = 0;
+       int year, devfn;
+diff --git a/arch/x86/pci/mmconfig_32.c b/arch/x86/pci/mmconfig_32.c
+index f10a7e9..0425342 100644
+--- a/arch/x86/pci/mmconfig_32.c
++++ b/arch/x86/pci/mmconfig_32.c
+@@ -125,7 +125,7 @@ static int pci_mmcfg_write(unsigned int seg, unsigned int bus,
+       return 0;
+ }
+-static struct pci_raw_ops pci_mmcfg = {
++static const struct pci_raw_ops pci_mmcfg = {
+       .read =         pci_mmcfg_read,
+       .write =        pci_mmcfg_write,
+ };
+diff --git a/arch/x86/pci/mmconfig_64.c b/arch/x86/pci/mmconfig_64.c
+index 94349f8..41600a7 100644
+--- a/arch/x86/pci/mmconfig_64.c
++++ b/arch/x86/pci/mmconfig_64.c
+@@ -104,7 +104,7 @@ static int pci_mmcfg_write(unsigned int seg, unsigned int bus,
+       return 0;
+ }
+-static struct pci_raw_ops pci_mmcfg = {
++static const struct pci_raw_ops pci_mmcfg = {
+       .read =         pci_mmcfg_read,
+       .write =        pci_mmcfg_write,
+ };
+diff --git a/arch/x86/pci/numaq_32.c b/arch/x86/pci/numaq_32.c
+index 8eb295e..86bd657 100644
+--- a/arch/x86/pci/numaq_32.c
++++ b/arch/x86/pci/numaq_32.c
+@@ -112,7 +112,7 @@ static int pci_conf1_mq_write(unsigned int seg, unsigned int bus,
+ #undef PCI_CONF1_MQ_ADDRESS
+-static struct pci_raw_ops pci_direct_conf1_mq = {
++static const struct pci_raw_ops pci_direct_conf1_mq = {
+       .read   = pci_conf1_mq_read,
+       .write  = pci_conf1_mq_write
+ };
+diff --git a/arch/x86/pci/olpc.c b/arch/x86/pci/olpc.c
+index b889d82..5a58a0a 100644
+--- a/arch/x86/pci/olpc.c
++++ b/arch/x86/pci/olpc.c
+@@ -297,7 +297,7 @@ static int pci_olpc_write(unsigned int seg, unsigned int bus,
+       return 0;
+ }
+-static struct pci_raw_ops pci_olpc_conf = {
++static const struct pci_raw_ops pci_olpc_conf = {
+       .read = pci_olpc_read,
+       .write = pci_olpc_write,
+ };
+diff --git a/arch/x86/pci/pcbios.c b/arch/x86/pci/pcbios.c
+index 1c975cc..ffd0536 100644
+--- a/arch/x86/pci/pcbios.c
++++ b/arch/x86/pci/pcbios.c
+@@ -56,50 +56,93 @@ union bios32 {
+ static struct {
+       unsigned long address;
+       unsigned short segment;
+-} bios32_indirect = { 0, __KERNEL_CS };
++} bios32_indirect __read_only = { 0, __PCIBIOS_CS };
+ /*
+  * Returns the entry point for the given service, NULL on error
+  */
+-static unsigned long bios32_service(unsigned long service)
++static unsigned long __devinit bios32_service(unsigned long service)
+ {
+       unsigned char return_code;      /* %al */
+       unsigned long address;          /* %ebx */
+       unsigned long length;           /* %ecx */
+       unsigned long entry;            /* %edx */
+       unsigned long flags;
++      struct desc_struct d, *gdt;
+       local_irq_save(flags);
+-      __asm__("lcall *(%%edi); cld"
++
++      gdt = get_cpu_gdt_table(smp_processor_id());
++
++      pack_descriptor(&d, 0UL, 0xFFFFFUL, 0x9B, 0xC);
++      write_gdt_entry(gdt, GDT_ENTRY_PCIBIOS_CS, &d, DESCTYPE_S);
++      pack_descriptor(&d, 0UL, 0xFFFFFUL, 0x93, 0xC);
++      write_gdt_entry(gdt, GDT_ENTRY_PCIBIOS_DS, &d, DESCTYPE_S);
++
++      __asm__("movw %w7, %%ds; lcall *(%%edi); push %%ss; pop %%ds; cld"
+               : "=a" (return_code),
+                 "=b" (address),
+                 "=c" (length),
+                 "=d" (entry)
+               : "0" (service),
+                 "1" (0),
+-                "D" (&bios32_indirect));
++                "D" (&bios32_indirect),
++                "r"(__PCIBIOS_DS)
++              : "memory");
++
++      pax_open_kernel();
++      gdt[GDT_ENTRY_PCIBIOS_CS].a = 0;
++      gdt[GDT_ENTRY_PCIBIOS_CS].b = 0;
++      gdt[GDT_ENTRY_PCIBIOS_DS].a = 0;
++      gdt[GDT_ENTRY_PCIBIOS_DS].b = 0;
++      pax_close_kernel();
++
+       local_irq_restore(flags);
+       switch (return_code) {
+-              case 0:
+-                      return address + entry;
+-              case 0x80:      /* Not present */
+-                      printk(KERN_WARNING "bios32_service(0x%lx): not present\n", service);
+-                      return 0;
+-              default: /* Shouldn't happen */
+-                      printk(KERN_WARNING "bios32_service(0x%lx): returned 0x%x -- BIOS bug!\n",
+-                              service, return_code);
++      case 0: {
++              int cpu;
++              unsigned char flags;
++
++              printk(KERN_INFO "bios32_service: base:%08lx length:%08lx entry:%08lx\n", address, length, entry);
++              if (address >= 0xFFFF0 || length > 0x100000 - address || length <= entry) {
++                      printk(KERN_WARNING "bios32_service: not valid\n");
+                       return 0;
++              }
++              address = address + PAGE_OFFSET;
++              length += 16UL; /* some BIOSs underreport this... */
++              flags = 4;
++              if (length >= 64*1024*1024) {
++                      length >>= PAGE_SHIFT;
++                      flags |= 8;
++              }
++
++              for (cpu = 0; cpu < NR_CPUS; cpu++) {
++                      gdt = get_cpu_gdt_table(cpu);
++                      pack_descriptor(&d, address, length, 0x9b, flags);
++                      write_gdt_entry(gdt, GDT_ENTRY_PCIBIOS_CS, &d, DESCTYPE_S);
++                      pack_descriptor(&d, address, length, 0x93, flags);
++                      write_gdt_entry(gdt, GDT_ENTRY_PCIBIOS_DS, &d, DESCTYPE_S);
++              }
++              return entry;
++      }
++      case 0x80:      /* Not present */
++              printk(KERN_WARNING "bios32_service(0x%lx): not present\n", service);
++              return 0;
++      default: /* Shouldn't happen */
++              printk(KERN_WARNING "bios32_service(0x%lx): returned 0x%x -- BIOS bug!\n",
++                      service, return_code);
++              return 0;
+       }
+ }
+ static struct {
+       unsigned long address;
+       unsigned short segment;
+-} pci_indirect = { 0, __KERNEL_CS };
++} pci_indirect __read_only = { 0, __PCIBIOS_CS };
+-static int pci_bios_present;
++static int pci_bios_present __read_only;
+ static int __devinit check_pcibios(void)
+ {
+@@ -108,11 +151,13 @@ static int __devinit check_pcibios(void)
+       unsigned long flags, pcibios_entry;
+       if ((pcibios_entry = bios32_service(PCI_SERVICE))) {
+-              pci_indirect.address = pcibios_entry + PAGE_OFFSET;
++              pci_indirect.address = pcibios_entry;
+               local_irq_save(flags);
+-              __asm__(
+-                      "lcall *(%%edi); cld\n\t"
++              __asm__("movw %w6, %%ds\n\t"
++                      "lcall *%%ss:(%%edi); cld\n\t"
++                      "push %%ss\n\t"
++                      "pop %%ds\n\t"
+                       "jc 1f\n\t"
+                       "xor %%ah, %%ah\n"
+                       "1:"
+@@ -121,7 +166,8 @@ static int __devinit check_pcibios(void)
+                         "=b" (ebx),
+                         "=c" (ecx)
+                       : "1" (PCIBIOS_PCI_BIOS_PRESENT),
+-                        "D" (&pci_indirect)
++                        "D" (&pci_indirect),
++                        "r" (__PCIBIOS_DS)
+                       : "memory");
+               local_irq_restore(flags);
+@@ -165,7 +211,10 @@ static int pci_bios_read(unsigned int seg, unsigned int bus,
+       switch (len) {
+       case 1:
+-              __asm__("lcall *(%%esi); cld\n\t"
++              __asm__("movw %w6, %%ds\n\t"
++                      "lcall *%%ss:(%%esi); cld\n\t"
++                      "push %%ss\n\t"
++                      "pop %%ds\n\t"
+                       "jc 1f\n\t"
+                       "xor %%ah, %%ah\n"
+                       "1:"
+@@ -174,7 +223,8 @@ static int pci_bios_read(unsigned int seg, unsigned int bus,
+                       : "1" (PCIBIOS_READ_CONFIG_BYTE),
+                         "b" (bx),
+                         "D" ((long)reg),
+-                        "S" (&pci_indirect));
++                        "S" (&pci_indirect),
++                        "r" (__PCIBIOS_DS));
+               /*
+                * Zero-extend the result beyond 8 bits, do not trust the
+                * BIOS having done it:
+@@ -182,7 +232,10 @@ static int pci_bios_read(unsigned int seg, unsigned int bus,
+               *value &= 0xff;
+               break;
+       case 2:
+-              __asm__("lcall *(%%esi); cld\n\t"
++              __asm__("movw %w6, %%ds\n\t"
++                      "lcall *%%ss:(%%esi); cld\n\t"
++                      "push %%ss\n\t"
++                      "pop %%ds\n\t"
+                       "jc 1f\n\t"
+                       "xor %%ah, %%ah\n"
+                       "1:"
+@@ -191,7 +244,8 @@ static int pci_bios_read(unsigned int seg, unsigned int bus,
+                       : "1" (PCIBIOS_READ_CONFIG_WORD),
+                         "b" (bx),
+                         "D" ((long)reg),
+-                        "S" (&pci_indirect));
++                        "S" (&pci_indirect),
++                        "r" (__PCIBIOS_DS));
+               /*
+                * Zero-extend the result beyond 16 bits, do not trust the
+                * BIOS having done it:
+@@ -199,7 +253,10 @@ static int pci_bios_read(unsigned int seg, unsigned int bus,
+               *value &= 0xffff;
+               break;
+       case 4:
+-              __asm__("lcall *(%%esi); cld\n\t"
++              __asm__("movw %w6, %%ds\n\t"
++                      "lcall *%%ss:(%%esi); cld\n\t"
++                      "push %%ss\n\t"
++                      "pop %%ds\n\t"
+                       "jc 1f\n\t"
+                       "xor %%ah, %%ah\n"
+                       "1:"
+@@ -208,7 +265,8 @@ static int pci_bios_read(unsigned int seg, unsigned int bus,
+                       : "1" (PCIBIOS_READ_CONFIG_DWORD),
+                         "b" (bx),
+                         "D" ((long)reg),
+-                        "S" (&pci_indirect));
++                        "S" (&pci_indirect),
++                        "r" (__PCIBIOS_DS));
+               break;
+       }
+@@ -231,7 +289,10 @@ static int pci_bios_write(unsigned int seg, unsigned int bus,
+       switch (len) {
+       case 1:
+-              __asm__("lcall *(%%esi); cld\n\t"
++              __asm__("movw %w6, %%ds\n\t"
++                      "lcall *%%ss:(%%esi); cld\n\t"
++                      "push %%ss\n\t"
++                      "pop %%ds\n\t"
+                       "jc 1f\n\t"
+                       "xor %%ah, %%ah\n"
+                       "1:"
+@@ -240,10 +301,14 @@ static int pci_bios_write(unsigned int seg, unsigned int bus,
+                         "c" (value),
+                         "b" (bx),
+                         "D" ((long)reg),
+-                        "S" (&pci_indirect));
++                        "S" (&pci_indirect),
++                        "r" (__PCIBIOS_DS));
+               break;
+       case 2:
+-              __asm__("lcall *(%%esi); cld\n\t"
++              __asm__("movw %w6, %%ds\n\t"
++                      "lcall *%%ss:(%%esi); cld\n\t"
++                      "push %%ss\n\t"
++                      "pop %%ds\n\t"
+                       "jc 1f\n\t"
+                       "xor %%ah, %%ah\n"
+                       "1:"
+@@ -252,10 +317,14 @@ static int pci_bios_write(unsigned int seg, unsigned int bus,
+                         "c" (value),
+                         "b" (bx),
+                         "D" ((long)reg),
+-                        "S" (&pci_indirect));
++                        "S" (&pci_indirect),
++                        "r" (__PCIBIOS_DS));
+               break;
+       case 4:
+-              __asm__("lcall *(%%esi); cld\n\t"
++              __asm__("movw %w6, %%ds\n\t"
++                      "lcall *%%ss:(%%esi); cld\n\t"
++                      "push %%ss\n\t"
++                      "pop %%ds\n\t"
+                       "jc 1f\n\t"
+                       "xor %%ah, %%ah\n"
+                       "1:"
+@@ -264,7 +333,8 @@ static int pci_bios_write(unsigned int seg, unsigned int bus,
+                         "c" (value),
+                         "b" (bx),
+                         "D" ((long)reg),
+-                        "S" (&pci_indirect));
++                        "S" (&pci_indirect),
++                        "r" (__PCIBIOS_DS));
+               break;
+       }
+@@ -278,7 +348,7 @@ static int pci_bios_write(unsigned int seg, unsigned int bus,
+  * Function table for BIOS32 access
+  */
+-static struct pci_raw_ops pci_bios_access = {
++static const struct pci_raw_ops pci_bios_access = {
+       .read =         pci_bios_read,
+       .write =        pci_bios_write
+ };
+@@ -287,7 +357,7 @@ static struct pci_raw_ops pci_bios_access = {
+  * Try to find PCI BIOS.
+  */
+-static struct pci_raw_ops * __devinit pci_find_bios(void)
++static const struct pci_raw_ops * __devinit pci_find_bios(void)
+ {
+       union bios32 *check;
+       unsigned char sum;
+@@ -368,10 +438,13 @@ struct irq_routing_table * pcibios_get_irq_routing_table(void)
+       DBG("PCI: Fetching IRQ routing table... ");
+       __asm__("push %%es\n\t"
++              "movw %w8, %%ds\n\t"
+               "push %%ds\n\t"
+               "pop  %%es\n\t"
+-              "lcall *(%%esi); cld\n\t"
++              "lcall *%%ss:(%%esi); cld\n\t"
+               "pop %%es\n\t"
++              "push %%ss\n\t"
++              "pop %%ds\n"
+               "jc 1f\n\t"
+               "xor %%ah, %%ah\n"
+               "1:"
+@@ -382,7 +455,8 @@ struct irq_routing_table * pcibios_get_irq_routing_table(void)
+                 "1" (0),
+                 "D" ((long) &opt),
+                 "S" (&pci_indirect),
+-                "m" (opt)
++                "m" (opt),
++                "r" (__PCIBIOS_DS)
+               : "memory");
+       DBG("OK  ret=%d, size=%d, map=%x\n", ret, opt.size, map);
+       if (ret & 0xff00)
+@@ -406,7 +480,10 @@ int pcibios_set_irq_routing(struct pci_dev *dev, int pin, int irq)
+ {
+       int ret;
+-      __asm__("lcall *(%%esi); cld\n\t"
++      __asm__("movw %w5, %%ds\n\t"
++              "lcall *%%ss:(%%esi); cld\n\t"
++              "push %%ss\n\t"
++              "pop %%ds\n"
+               "jc 1f\n\t"
+               "xor %%ah, %%ah\n"
+               "1:"
+@@ -414,7 +491,8 @@ int pcibios_set_irq_routing(struct pci_dev *dev, int pin, int irq)
+               : "0" (PCIBIOS_SET_PCI_HW_INT),
+                 "b" ((dev->bus->number << 8) | dev->devfn),
+                 "c" ((irq << 8) | (pin + 10)),
+-                "S" (&pci_indirect));
++                "S" (&pci_indirect),
++                "r" (__PCIBIOS_DS));
+       return !(ret & 0xff00);
+ }
+ EXPORT_SYMBOL(pcibios_set_irq_routing);
+diff --git a/arch/x86/power/cpu.c b/arch/x86/power/cpu.c
+index fa0f651..9d8f3d9 100644
+--- a/arch/x86/power/cpu.c
++++ b/arch/x86/power/cpu.c
+@@ -129,7 +129,7 @@ static void do_fpu_end(void)
+ static void fix_processor_context(void)
+ {
+       int cpu = smp_processor_id();
+-      struct tss_struct *t = &per_cpu(init_tss, cpu);
++      struct tss_struct *t = init_tss + cpu;
+       set_tss_desc(cpu, t);   /*
+                                * This just modifies memory; should not be
+@@ -139,7 +139,9 @@ static void fix_processor_context(void)
+                                */
+ #ifdef CONFIG_X86_64
++      pax_open_kernel();
+       get_cpu_gdt_table(cpu)[GDT_ENTRY_TSS].type = 9;
++      pax_close_kernel();
+       syscall_init();                         /* This sets MSR_*STAR and related */
+ #endif
+diff --git a/arch/x86/vdso/Makefile b/arch/x86/vdso/Makefile
+index dd78ef6..f9d928d 100644
+--- a/arch/x86/vdso/Makefile
++++ b/arch/x86/vdso/Makefile
+@@ -122,7 +122,7 @@ quiet_cmd_vdso = VDSO    $@
+                      $(VDSO_LDFLAGS) $(VDSO_LDFLAGS_$(filter %.lds,$(^F))) \
+                      -Wl,-T,$(filter %.lds,$^) $(filter %.o,$^)
+-VDSO_LDFLAGS = -fPIC -shared $(call cc-ldoption, -Wl$(comma)--hash-style=sysv)
++VDSO_LDFLAGS = -fPIC -shared -Wl,--no-undefined $(call cc-ldoption, -Wl$(comma)--hash-style=sysv)
+ GCOV_PROFILE := n
+ #
+diff --git a/arch/x86/vdso/vclock_gettime.c b/arch/x86/vdso/vclock_gettime.c
+index ee55754..0013b2e 100644
+--- a/arch/x86/vdso/vclock_gettime.c
++++ b/arch/x86/vdso/vclock_gettime.c
+@@ -22,24 +22,48 @@
+ #include <asm/hpet.h>
+ #include <asm/unistd.h>
+ #include <asm/io.h>
++#include <asm/fixmap.h>
+ #include "vextern.h"
+ #define gtod vdso_vsyscall_gtod_data
++notrace noinline long __vdso_fallback_time(long *t)
++{
++      long secs;
++      asm volatile("syscall"
++              : "=a" (secs)
++              : "0" (__NR_time),"D" (t) : "r11", "cx", "memory");
++      return secs;
++}
++
+ notrace static long vdso_fallback_gettime(long clock, struct timespec *ts)
+ {
+       long ret;
+       asm("syscall" : "=a" (ret) :
+-          "0" (__NR_clock_gettime),"D" (clock), "S" (ts) : "memory");
++          "0" (__NR_clock_gettime),"D" (clock), "S" (ts) : "r11", "cx", "memory");
+       return ret;
+ }
++notrace static inline cycle_t __vdso_vread_hpet(void)
++{
++      return readl((const void __iomem *)fix_to_virt(VSYSCALL_HPET) + 0xf0);
++}
++
++notrace static inline cycle_t __vdso_vread_tsc(void)
++{
++      cycle_t ret = (cycle_t)vget_cycles();
++
++      return ret >= gtod->clock.cycle_last ? ret : gtod->clock.cycle_last;
++}
++
+ notrace static inline long vgetns(void)
+ {
+       long v;
+-      cycles_t (*vread)(void);
+-      vread = gtod->clock.vread;
+-      v = (vread() - gtod->clock.cycle_last) & gtod->clock.mask;
++      if (gtod->clock.name[0] == 't' && gtod->clock.name[1] == 's' && gtod->clock.name[2] == 'c' && !gtod->clock.name[3])
++              v = __vdso_vread_tsc();
++      else
++              v = __vdso_vread_hpet();
++      v = (v - gtod->clock.cycle_last) & gtod->clock.mask;
+       return (v * gtod->clock.mult) >> gtod->clock.shift;
+ }
+@@ -113,7 +137,9 @@ notrace static noinline int do_monotonic_coarse(struct timespec *ts)
+ notrace int __vdso_clock_gettime(clockid_t clock, struct timespec *ts)
+ {
+-      if (likely(gtod->sysctl_enabled))
++      if (likely(gtod->sysctl_enabled &&
++                 ((gtod->clock.name[0] == 'h' && gtod->clock.name[1] == 'p' && gtod->clock.name[2] == 'e' && gtod->clock.name[3] == 't' && !gtod->clock.name[4]) ||
++                  (gtod->clock.name[0] == 't' && gtod->clock.name[1] == 's' && gtod->clock.name[2] == 'c' && !gtod->clock.name[3]))))
+               switch (clock) {
+               case CLOCK_REALTIME:
+                       if (likely(gtod->clock.vread))
+@@ -133,10 +159,20 @@ notrace int __vdso_clock_gettime(clockid_t clock, struct timespec *ts)
+ int clock_gettime(clockid_t, struct timespec *)
+       __attribute__((weak, alias("__vdso_clock_gettime")));
++notrace noinline int __vdso_fallback_gettimeofday(struct timeval *tv, struct timezone *tz)
++{
++      long ret;
++      asm("syscall" : "=a" (ret) :
++          "0" (__NR_gettimeofday), "D" (tv), "S" (tz) : "r11", "cx", "memory");
++      return ret;
++}
++
+ notrace int __vdso_gettimeofday(struct timeval *tv, struct timezone *tz)
+ {
+-      long ret;
+-      if (likely(gtod->sysctl_enabled && gtod->clock.vread)) {
++      if (likely(gtod->sysctl_enabled &&
++                 ((gtod->clock.name[0] == 'h' && gtod->clock.name[1] == 'p' && gtod->clock.name[2] == 'e' && gtod->clock.name[3] == 't' && !gtod->clock.name[4]) ||
++                  (gtod->clock.name[0] == 't' && gtod->clock.name[1] == 's' && gtod->clock.name[2] == 'c' && !gtod->clock.name[3]))))
++      {
+               if (likely(tv != NULL)) {
+                       BUILD_BUG_ON(offsetof(struct timeval, tv_usec) !=
+                                    offsetof(struct timespec, tv_nsec) ||
+@@ -151,9 +187,7 @@ notrace int __vdso_gettimeofday(struct timeval *tv, struct timezone *tz)
+               }
+               return 0;
+       }
+-      asm("syscall" : "=a" (ret) :
+-          "0" (__NR_gettimeofday), "D" (tv), "S" (tz) : "memory");
+-      return ret;
++      return __vdso_fallback_gettimeofday(tv, tz);
+ }
+ int gettimeofday(struct timeval *, struct timezone *)
+       __attribute__((weak, alias("__vdso_gettimeofday")));
+diff --git a/arch/x86/vdso/vdso.lds.S b/arch/x86/vdso/vdso.lds.S
+index 4e5dd3b..00ba15e 100644
+--- a/arch/x86/vdso/vdso.lds.S
++++ b/arch/x86/vdso/vdso.lds.S
+@@ -35,3 +35,9 @@ VDSO64_PRELINK = VDSO_PRELINK;
+ #define VEXTERN(x)    VDSO64_ ## x = vdso_ ## x;
+ #include "vextern.h"
+ #undef        VEXTERN
++
++#define VEXTERN(x)    VDSO64_ ## x = __vdso_ ## x;
++VEXTERN(fallback_gettimeofday)
++VEXTERN(fallback_time)
++VEXTERN(getcpu)
++#undef        VEXTERN
+diff --git a/arch/x86/vdso/vdso32-setup.c b/arch/x86/vdso/vdso32-setup.c
+index 58bc00f..d53fb48 100644
+--- a/arch/x86/vdso/vdso32-setup.c
++++ b/arch/x86/vdso/vdso32-setup.c
+@@ -25,6 +25,7 @@
+ #include <asm/tlbflush.h>
+ #include <asm/vdso.h>
+ #include <asm/proto.h>
++#include <asm/mman.h>
+ enum {
+       VDSO_DISABLED = 0,
+@@ -226,7 +227,7 @@ static inline void map_compat_vdso(int map)
+ void enable_sep_cpu(void)
+ {
+       int cpu = get_cpu();
+-      struct tss_struct *tss = &per_cpu(init_tss, cpu);
++      struct tss_struct *tss = init_tss + cpu;
+       if (!boot_cpu_has(X86_FEATURE_SEP)) {
+               put_cpu();
+@@ -249,7 +250,7 @@ static int __init gate_vma_init(void)
+       gate_vma.vm_start = FIXADDR_USER_START;
+       gate_vma.vm_end = FIXADDR_USER_END;
+       gate_vma.vm_flags = VM_READ | VM_MAYREAD | VM_EXEC | VM_MAYEXEC;
+-      gate_vma.vm_page_prot = __P101;
++      gate_vma.vm_page_prot = vm_get_page_prot(gate_vma.vm_flags);
+       /*
+        * Make sure the vDSO gets into every core dump.
+        * Dumping its contents makes post-mortem fully interpretable later
+@@ -331,14 +332,14 @@ int arch_setup_additional_pages(struct linux_binprm *bprm, int uses_interp)
+       if (compat)
+               addr = VDSO_HIGH_BASE;
+       else {
+-              addr = get_unmapped_area(NULL, 0, PAGE_SIZE, 0, 0);
++              addr = get_unmapped_area(NULL, 0, PAGE_SIZE, 0, MAP_EXECUTABLE);
+               if (IS_ERR_VALUE(addr)) {
+                       ret = addr;
+                       goto up_fail;
+               }
+       }
+-      current->mm->context.vdso = (void *)addr;
++      current->mm->context.vdso = addr;
+       if (compat_uses_vma || !compat) {
+               /*
+@@ -361,11 +362,11 @@ int arch_setup_additional_pages(struct linux_binprm *bprm, int uses_interp)
+       }
+       current_thread_info()->sysenter_return =
+-              VDSO32_SYMBOL(addr, SYSENTER_RETURN);
++              (__force void __user *)VDSO32_SYMBOL(addr, SYSENTER_RETURN);
+   up_fail:
+       if (ret)
+-              current->mm->context.vdso = NULL;
++              current->mm->context.vdso = 0;
+       up_write(&mm->mmap_sem);
+@@ -413,8 +414,14 @@ __initcall(ia32_binfmt_init);
+ const char *arch_vma_name(struct vm_area_struct *vma)
+ {
+-      if (vma->vm_mm && vma->vm_start == (long)vma->vm_mm->context.vdso)
++      if (vma->vm_mm && vma->vm_start == vma->vm_mm->context.vdso)
+               return "[vdso]";
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma->vm_mm && vma->vm_mirror && vma->vm_mirror->vm_start == vma->vm_mm->context.vdso)
++              return "[vdso]";
++#endif
++
+       return NULL;
+ }
+@@ -423,7 +430,7 @@ struct vm_area_struct *get_gate_vma(struct task_struct *tsk)
+       struct mm_struct *mm = tsk->mm;
+       /* Check to see if this task was created in compat vdso mode */
+-      if (mm && mm->context.vdso == (void *)VDSO_HIGH_BASE)
++      if (mm && mm->context.vdso == VDSO_HIGH_BASE)
+               return &gate_vma;
+       return NULL;
+ }
+diff --git a/arch/x86/vdso/vextern.h b/arch/x86/vdso/vextern.h
+index 1683ba2..48d07f3 100644
+--- a/arch/x86/vdso/vextern.h
++++ b/arch/x86/vdso/vextern.h
+@@ -11,6 +11,5 @@
+    put into vextern.h and be referenced as a pointer with vdso prefix.
+    The main kernel later fills in the values.   */
+-VEXTERN(jiffies)
+ VEXTERN(vgetcpu_mode)
+ VEXTERN(vsyscall_gtod_data)
+diff --git a/arch/x86/vdso/vma.c b/arch/x86/vdso/vma.c
+index 21e1aeb..2c0b3c4 100644
+--- a/arch/x86/vdso/vma.c
++++ b/arch/x86/vdso/vma.c
+@@ -17,8 +17,6 @@
+ #include "vextern.h"          /* Just for VMAGIC.  */
+ #undef VEXTERN
+-unsigned int __read_mostly vdso_enabled = 1;
+-
+ extern char vdso_start[], vdso_end[];
+ extern unsigned short vdso_sync_cpuid;
+@@ -27,10 +25,8 @@ static unsigned vdso_size;
+ static inline void *var_ref(void *p, char *name)
+ {
+-      if (*(void **)p != (void *)VMAGIC) {
+-              printk("VDSO: variable %s broken\n", name);
+-              vdso_enabled = 0;
+-      }
++      if (*(void **)p != (void *)VMAGIC)
++              panic("VDSO: variable %s broken\n", name);
+       return p;
+ }
+@@ -57,21 +53,18 @@ static int __init init_vdso_vars(void)
+       if (!vbase)
+               goto oom;
+-      if (memcmp(vbase, "\177ELF", 4)) {
+-              printk("VDSO: I'm broken; not ELF\n");
+-              vdso_enabled = 0;
+-      }
++      if (memcmp(vbase, ELFMAG, SELFMAG))
++              panic("VDSO: I'm broken; not ELF\n");
+ #define VEXTERN(x) \
+       *(typeof(__ ## x) **) var_ref(VDSO64_SYMBOL(vbase, x), #x) = &__ ## x;
+ #include "vextern.h"
+ #undef VEXTERN
++      vunmap(vbase);
+       return 0;
+  oom:
+-      printk("Cannot allocate vdso\n");
+-      vdso_enabled = 0;
+-      return -ENOMEM;
++      panic("Cannot allocate vdso\n");
+ }
+ __initcall(init_vdso_vars);
+@@ -102,13 +95,15 @@ static unsigned long vdso_addr(unsigned long start, unsigned len)
+ int arch_setup_additional_pages(struct linux_binprm *bprm, int uses_interp)
+ {
+       struct mm_struct *mm = current->mm;
+-      unsigned long addr;
++      unsigned long addr = 0;
+       int ret;
+-      if (!vdso_enabled)
+-              return 0;
+-
+       down_write(&mm->mmap_sem);
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       addr = vdso_addr(mm->start_stack, vdso_size);
+       addr = get_unmapped_area(NULL, addr, vdso_size, 0, 0);
+       if (IS_ERR_VALUE(addr)) {
+@@ -116,7 +111,7 @@ int arch_setup_additional_pages(struct linux_binprm *bprm, int uses_interp)
+               goto up_fail;
+       }
+-      current->mm->context.vdso = (void *)addr;
++      current->mm->context.vdso = addr;
+       ret = install_special_mapping(mm, addr, vdso_size,
+                                     VM_READ|VM_EXEC|
+@@ -124,7 +119,7 @@ int arch_setup_additional_pages(struct linux_binprm *bprm, int uses_interp)
+                                     VM_ALWAYSDUMP,
+                                     vdso_pages);
+       if (ret) {
+-              current->mm->context.vdso = NULL;
++              current->mm->context.vdso = 0;
+               goto up_fail;
+       }
+@@ -132,10 +127,3 @@ up_fail:
+       up_write(&mm->mmap_sem);
+       return ret;
+ }
+-
+-static __init int vdso_setup(char *s)
+-{
+-      vdso_enabled = simple_strtoul(s, NULL, 0);
+-      return 0;
+-}
+-__setup("vdso=", vdso_setup);
+diff --git a/arch/x86/xen/enlighten.c b/arch/x86/xen/enlighten.c
+index 0087b00..eecb34f 100644
+--- a/arch/x86/xen/enlighten.c
++++ b/arch/x86/xen/enlighten.c
+@@ -71,8 +71,6 @@ EXPORT_SYMBOL_GPL(xen_start_info);
+ struct shared_info xen_dummy_shared_info;
+-void *xen_initial_gdt;
+-
+ /*
+  * Point at some empty memory to start with. We map the real shared_info
+  * page as soon as fixmap is up and running.
+@@ -548,7 +546,7 @@ static void xen_write_idt_entry(gate_desc *dt, int entrynum, const gate_desc *g)
+       preempt_disable();
+-      start = __get_cpu_var(idt_desc).address;
++      start = (unsigned long)__get_cpu_var(idt_desc).address;
+       end = start + __get_cpu_var(idt_desc).size + 1;
+       xen_mc_flush();
+@@ -993,7 +991,7 @@ static const struct pv_apic_ops xen_apic_ops __initdata = {
+ #endif
+ };
+-static void xen_reboot(int reason)
++static __noreturn void xen_reboot(int reason)
+ {
+       struct sched_shutdown r = { .reason = reason };
+@@ -1001,17 +999,17 @@ static void xen_reboot(int reason)
+               BUG();
+ }
+-static void xen_restart(char *msg)
++static __noreturn void xen_restart(char *msg)
+ {
+       xen_reboot(SHUTDOWN_reboot);
+ }
+-static void xen_emergency_restart(void)
++static __noreturn void xen_emergency_restart(void)
+ {
+       xen_reboot(SHUTDOWN_reboot);
+ }
+-static void xen_machine_halt(void)
++static __noreturn void xen_machine_halt(void)
+ {
+       xen_reboot(SHUTDOWN_poweroff);
+ }
+@@ -1095,9 +1093,20 @@ asmlinkage void __init xen_start_kernel(void)
+        */
+       __userpte_alloc_gfp &= ~__GFP_HIGHMEM;
+-#ifdef CONFIG_X86_64
+       /* Work out if we support NX */
+-      check_efer();
++#if defined(CONFIG_X86_64) || defined(CONFIG_X86_PAE)
++      if ((cpuid_eax(0x80000000) & 0xffff0000) == 0x80000000 &&
++          (cpuid_edx(0x80000001) & (1U << (X86_FEATURE_NX & 31)))) {
++              unsigned l, h;
++
++#ifdef CONFIG_X86_PAE
++              nx_enabled = 1;
++#endif
++              __supported_pte_mask |= _PAGE_NX;
++              rdmsr(MSR_EFER, l, h);
++              l |= EFER_NX;
++              wrmsr(MSR_EFER, l, h);
++      }
+ #endif
+       xen_setup_features();
+@@ -1129,13 +1138,6 @@ asmlinkage void __init xen_start_kernel(void)
+       machine_ops = xen_machine_ops;
+-      /*
+-       * The only reliable way to retain the initial address of the
+-       * percpu gdt_page is to remember it here, so we can go and
+-       * mark it RW later, when the initial percpu area is freed.
+-       */
+-      xen_initial_gdt = &per_cpu(gdt_page, 0);
+-
+       xen_smp_init();
+       pgd = (pgd_t *)xen_start_info->pt_base;
+diff --git a/arch/x86/xen/mmu.c b/arch/x86/xen/mmu.c
+index 3f90a2c..2c2ad84 100644
+--- a/arch/x86/xen/mmu.c
++++ b/arch/x86/xen/mmu.c
+@@ -1719,6 +1719,9 @@ __init pgd_t *xen_setup_kernel_pagetable(pgd_t *pgd,
+       convert_pfn_mfn(init_level4_pgt);
+       convert_pfn_mfn(level3_ident_pgt);
+       convert_pfn_mfn(level3_kernel_pgt);
++      convert_pfn_mfn(level3_vmalloc_start_pgt);
++      convert_pfn_mfn(level3_vmalloc_end_pgt);
++      convert_pfn_mfn(level3_vmemmap_pgt);
+       l3 = m2v(pgd[pgd_index(__START_KERNEL_map)].pgd);
+       l2 = m2v(l3[pud_index(__START_KERNEL_map)].pud);
+@@ -1737,7 +1740,11 @@ __init pgd_t *xen_setup_kernel_pagetable(pgd_t *pgd,
+       set_page_prot(init_level4_pgt, PAGE_KERNEL_RO);
+       set_page_prot(level3_ident_pgt, PAGE_KERNEL_RO);
+       set_page_prot(level3_kernel_pgt, PAGE_KERNEL_RO);
++      set_page_prot(level3_vmalloc_start_pgt, PAGE_KERNEL_RO);
++      set_page_prot(level3_vmalloc_end_pgt, PAGE_KERNEL_RO);
++      set_page_prot(level3_vmemmap_pgt, PAGE_KERNEL_RO);
+       set_page_prot(level3_user_vsyscall, PAGE_KERNEL_RO);
++      set_page_prot(level2_vmemmap_pgt, PAGE_KERNEL_RO);
+       set_page_prot(level2_kernel_pgt, PAGE_KERNEL_RO);
+       set_page_prot(level2_fixmap_pgt, PAGE_KERNEL_RO);
+@@ -1860,6 +1867,7 @@ static __init void xen_post_allocator_init(void)
+       pv_mmu_ops.set_pud = xen_set_pud;
+ #if PAGETABLE_LEVELS == 4
+       pv_mmu_ops.set_pgd = xen_set_pgd;
++      pv_mmu_ops.set_pgd_batched = xen_set_pgd;
+ #endif
+       /* This will work as long as patching hasn't happened yet
+@@ -1946,6 +1954,7 @@ static const struct pv_mmu_ops xen_mmu_ops __initdata = {
+       .pud_val = PV_CALLEE_SAVE(xen_pud_val),
+       .make_pud = PV_CALLEE_SAVE(xen_make_pud),
+       .set_pgd = xen_set_pgd_hyper,
++      .set_pgd_batched = xen_set_pgd_hyper,
+       .alloc_pud = xen_alloc_pmd_init,
+       .release_pud = xen_release_pmd_init,
+diff --git a/arch/x86/xen/smp.c b/arch/x86/xen/smp.c
+index a96204a..fca9b8e 100644
+--- a/arch/x86/xen/smp.c
++++ b/arch/x86/xen/smp.c
+@@ -168,11 +168,6 @@ static void __init xen_smp_prepare_boot_cpu(void)
+ {
+       BUG_ON(smp_processor_id() != 0);
+       native_smp_prepare_boot_cpu();
+-
+-      /* We've switched to the "real" per-cpu gdt, so make sure the
+-         old memory can be recycled */
+-      make_lowmem_page_readwrite(xen_initial_gdt);
+-
+       xen_setup_vcpu_info_placement();
+ }
+@@ -241,12 +236,12 @@ cpu_initialize_context(unsigned int cpu, struct task_struct *idle)
+       gdt = get_cpu_gdt_table(cpu);
+       ctxt->flags = VGCF_IN_KERNEL;
+-      ctxt->user_regs.ds = __USER_DS;
+-      ctxt->user_regs.es = __USER_DS;
++      ctxt->user_regs.ds = __KERNEL_DS;
++      ctxt->user_regs.es = __KERNEL_DS;
+       ctxt->user_regs.ss = __KERNEL_DS;
+ #ifdef CONFIG_X86_32
+       ctxt->user_regs.fs = __KERNEL_PERCPU;
+-      ctxt->user_regs.gs = __KERNEL_STACK_CANARY;
++      savesegment(gs, ctxt->user_regs.gs);
+ #else
+       ctxt->gs_base_kernel = per_cpu_offset(cpu);
+ #endif
+@@ -297,13 +292,12 @@ static int __cpuinit xen_cpu_up(unsigned int cpu)
+       int rc;
+       per_cpu(current_task, cpu) = idle;
++      per_cpu(current_tinfo, cpu) = &idle->tinfo;
+ #ifdef CONFIG_X86_32
+       irq_ctx_init(cpu);
+ #else
+       clear_tsk_thread_flag(idle, TIF_FORK);
+-      per_cpu(kernel_stack, cpu) =
+-              (unsigned long)task_stack_page(idle) -
+-              KERNEL_STACK_OFFSET + THREAD_SIZE;
++      per_cpu(kernel_stack, cpu) = (unsigned long)task_stack_page(idle) - 16 + THREAD_SIZE;
+ #endif
+       xen_setup_runstate_info(cpu);
+       xen_setup_timer(cpu);
+diff --git a/arch/x86/xen/xen-asm_32.S b/arch/x86/xen/xen-asm_32.S
+index 9a95a9c..4f39e774 100644
+--- a/arch/x86/xen/xen-asm_32.S
++++ b/arch/x86/xen/xen-asm_32.S
+@@ -83,14 +83,14 @@ ENTRY(xen_iret)
+       ESP_OFFSET=4    # bytes pushed onto stack
+       /*
+-       * Store vcpu_info pointer for easy access.  Do it this way to
+-       * avoid having to reload %fs
++       * Store vcpu_info pointer for easy access.
+        */
+ #ifdef CONFIG_SMP
+-      GET_THREAD_INFO(%eax)
+-      movl TI_cpu(%eax), %eax
+-      movl __per_cpu_offset(,%eax,4), %eax
+-      mov per_cpu__xen_vcpu(%eax), %eax
++      push %fs
++      mov $(__KERNEL_PERCPU), %eax
++      mov %eax, %fs
++      mov PER_CPU_VAR(xen_vcpu), %eax
++      pop %fs
+ #else
+       movl per_cpu__xen_vcpu, %eax
+ #endif
+diff --git a/arch/x86/xen/xen-head.S b/arch/x86/xen/xen-head.S
+index 1a5ff24..a187d40 100644
+--- a/arch/x86/xen/xen-head.S
++++ b/arch/x86/xen/xen-head.S
+@@ -19,6 +19,17 @@ ENTRY(startup_xen)
+ #ifdef CONFIG_X86_32
+       mov %esi,xen_start_info
+       mov $init_thread_union+THREAD_SIZE,%esp
++#ifdef CONFIG_SMP
++      movl $cpu_gdt_table,%edi
++      movl $__per_cpu_load,%eax
++      movw %ax,__KERNEL_PERCPU + 2(%edi)
++      rorl $16,%eax
++      movb %al,__KERNEL_PERCPU + 4(%edi)
++      movb %ah,__KERNEL_PERCPU + 7(%edi)
++      movl $__per_cpu_end - 1,%eax
++      subl $__per_cpu_start,%eax
++      movw %ax,__KERNEL_PERCPU + 0(%edi)
++#endif
+ #else
+       mov %rsi,xen_start_info
+       mov $init_thread_union+THREAD_SIZE,%rsp
+diff --git a/arch/x86/xen/xen-ops.h b/arch/x86/xen/xen-ops.h
+index f9153a3..51eab3d 100644
+--- a/arch/x86/xen/xen-ops.h
++++ b/arch/x86/xen/xen-ops.h
+@@ -10,8 +10,6 @@
+ extern const char xen_hypervisor_callback[];
+ extern const char xen_failsafe_callback[];
+-extern void *xen_initial_gdt;
+-
+ struct trap_info;
+ void xen_copy_trap_info(struct trap_info *traps);
+diff --git a/block/blk-integrity.c b/block/blk-integrity.c
+index 15c6308..96e83c2 100644
+--- a/block/blk-integrity.c
++++ b/block/blk-integrity.c
+@@ -278,7 +278,7 @@ static struct attribute *integrity_attrs[] = {
+       NULL,
+ };
+-static struct sysfs_ops integrity_ops = {
++static const struct sysfs_ops integrity_ops = {
+       .show   = &integrity_attr_show,
+       .store  = &integrity_attr_store,
+ };
+diff --git a/block/blk-iopoll.c b/block/blk-iopoll.c
+index ca56420..f2fc409 100644
+--- a/block/blk-iopoll.c
++++ b/block/blk-iopoll.c
+@@ -77,7 +77,7 @@ void blk_iopoll_complete(struct blk_iopoll *iopoll)
+ }
+ EXPORT_SYMBOL(blk_iopoll_complete);
+-static void blk_iopoll_softirq(struct softirq_action *h)
++static void blk_iopoll_softirq(void)
+ {
+       struct list_head *list = &__get_cpu_var(blk_cpu_iopoll);
+       int rearm = 0, budget = blk_iopoll_budget;
+diff --git a/block/blk-map.c b/block/blk-map.c
+index 30a7e51..0aeec6a 100644
+--- a/block/blk-map.c
++++ b/block/blk-map.c
+@@ -54,7 +54,7 @@ static int __blk_rq_map_user(struct request_queue *q, struct request *rq,
+        * direct dma. else, set up kernel bounce buffers
+        */
+       uaddr = (unsigned long) ubuf;
+-      if (blk_rq_aligned(q, ubuf, len) && !map_data)
++      if (blk_rq_aligned(q, (__force void *)ubuf, len) && !map_data)
+               bio = bio_map_user(q, NULL, uaddr, len, reading, gfp_mask);
+       else
+               bio = bio_copy_user(q, map_data, uaddr, len, reading, gfp_mask);
+@@ -201,12 +201,13 @@ int blk_rq_map_user_iov(struct request_queue *q, struct request *rq,
+       for (i = 0; i < iov_count; i++) {
+               unsigned long uaddr = (unsigned long)iov[i].iov_base;
++              if (!iov[i].iov_len)
++                      return -EINVAL;
++
+               if (uaddr & queue_dma_alignment(q)) {
+                       unaligned = 1;
+                       break;
+               }
+-              if (!iov[i].iov_len)
+-                      return -EINVAL;
+       }
+       if (unaligned || (q->dma_pad_mask & len) || map_data)
+@@ -299,7 +300,7 @@ int blk_rq_map_kern(struct request_queue *q, struct request *rq, void *kbuf,
+       if (!len || !kbuf)
+               return -EINVAL;
+-      do_copy = !blk_rq_aligned(q, kbuf, len) || object_is_on_stack(kbuf);
++      do_copy = !blk_rq_aligned(q, kbuf, len) || object_starts_on_stack(kbuf);
+       if (do_copy)
+               bio = bio_copy_kern(q, kbuf, len, gfp_mask, reading);
+       else
+diff --git a/block/blk-softirq.c b/block/blk-softirq.c
+index ee9c216..58d410a 100644
+--- a/block/blk-softirq.c
++++ b/block/blk-softirq.c
+@@ -17,7 +17,7 @@ static DEFINE_PER_CPU(struct list_head, blk_cpu_done);
+  * Softirq action handler - move entries to local list and loop over them
+  * while passing them to the queue registered handler.
+  */
+-static void blk_done_softirq(struct softirq_action *h)
++static void blk_done_softirq(void)
+ {
+       struct list_head *cpu_list, local_list;
+diff --git a/block/blk-sysfs.c b/block/blk-sysfs.c
+index bb9c5ea..5330d48 100644
+--- a/block/blk-sysfs.c
++++ b/block/blk-sysfs.c
+@@ -414,7 +414,7 @@ static void blk_release_queue(struct kobject *kobj)
+       kmem_cache_free(blk_requestq_cachep, q);
+ }
+-static struct sysfs_ops queue_sysfs_ops = {
++static const struct sysfs_ops queue_sysfs_ops = {
+       .show   = queue_attr_show,
+       .store  = queue_attr_store,
+ };
+diff --git a/block/bsg.c b/block/bsg.c
+index 7154a7a..08ac2f0 100644
+--- a/block/bsg.c
++++ b/block/bsg.c
+@@ -175,16 +175,24 @@ static int blk_fill_sgv4_hdr_rq(struct request_queue *q, struct request *rq,
+                               struct sg_io_v4 *hdr, struct bsg_device *bd,
+                               fmode_t has_write_perm)
+ {
++      unsigned char tmpcmd[sizeof(rq->__cmd)];
++      unsigned char *cmdptr;
++
+       if (hdr->request_len > BLK_MAX_CDB) {
+               rq->cmd = kzalloc(hdr->request_len, GFP_KERNEL);
+               if (!rq->cmd)
+                       return -ENOMEM;
+-      }
++              cmdptr = rq->cmd;
++      } else
++              cmdptr = tmpcmd;
+-      if (copy_from_user(rq->cmd, (void *)(unsigned long)hdr->request,
++      if (copy_from_user(cmdptr, (void __user *)(unsigned long)hdr->request,
+                          hdr->request_len))
+               return -EFAULT;
++      if (cmdptr != rq->cmd)
++              memcpy(rq->cmd, cmdptr, hdr->request_len);
++
+       if (hdr->subprotocol == BSG_SUB_PROTOCOL_SCSI_CMD) {
+               if (blk_verify_command(rq->cmd, has_write_perm))
+                       return -EPERM;
+@@ -282,7 +290,7 @@ bsg_map_hdr(struct bsg_device *bd, struct sg_io_v4 *hdr, fmode_t has_write_perm,
+               rq->next_rq = next_rq;
+               next_rq->cmd_type = rq->cmd_type;
+-              dxferp = (void*)(unsigned long)hdr->din_xferp;
++              dxferp = (void __user *)(unsigned long)hdr->din_xferp;
+               ret =  blk_rq_map_user(q, next_rq, NULL, dxferp,
+                                      hdr->din_xfer_len, GFP_KERNEL);
+               if (ret)
+@@ -291,10 +299,10 @@ bsg_map_hdr(struct bsg_device *bd, struct sg_io_v4 *hdr, fmode_t has_write_perm,
+       if (hdr->dout_xfer_len) {
+               dxfer_len = hdr->dout_xfer_len;
+-              dxferp = (void*)(unsigned long)hdr->dout_xferp;
++              dxferp = (void __user *)(unsigned long)hdr->dout_xferp;
+       } else if (hdr->din_xfer_len) {
+               dxfer_len = hdr->din_xfer_len;
+-              dxferp = (void*)(unsigned long)hdr->din_xferp;
++              dxferp = (void __user *)(unsigned long)hdr->din_xferp;
+       } else
+               dxfer_len = 0;
+@@ -436,7 +444,7 @@ static int blk_complete_sgv4_hdr_rq(struct request *rq, struct sg_io_v4 *hdr,
+               int len = min_t(unsigned int, hdr->max_response_len,
+                                       rq->sense_len);
+-              ret = copy_to_user((void*)(unsigned long)hdr->response,
++              ret = copy_to_user((void __user *)(unsigned long)hdr->response,
+                                  rq->sense, len);
+               if (!ret)
+                       hdr->response_len = len;
+diff --git a/block/compat_ioctl.c b/block/compat_ioctl.c
+index 9bd086c..ca1fc22 100644
+--- a/block/compat_ioctl.c
++++ b/block/compat_ioctl.c
+@@ -354,7 +354,7 @@ static int compat_fd_ioctl(struct block_device *bdev, fmode_t mode,
+               err |= __get_user(f->spec1, &uf->spec1);
+               err |= __get_user(f->fmt_gap, &uf->fmt_gap);
+               err |= __get_user(name, &uf->name);
+-              f->name = compat_ptr(name);
++              f->name = (void __force_kernel *)compat_ptr(name);
+               if (err) {
+                       err = -EFAULT;
+                       goto out;
+diff --git a/block/elevator.c b/block/elevator.c
+index a847046..75a1746 100644
+--- a/block/elevator.c
++++ b/block/elevator.c
+@@ -889,7 +889,7 @@ elv_attr_store(struct kobject *kobj, struct attribute *attr,
+       return error;
+ }
+-static struct sysfs_ops elv_sysfs_ops = {
++static const struct sysfs_ops elv_sysfs_ops = {
+       .show   = elv_attr_show,
+       .store  = elv_attr_store,
+ };
+diff --git a/block/scsi_ioctl.c b/block/scsi_ioctl.c
+index 2be0a97..bded3fd 100644
+--- a/block/scsi_ioctl.c
++++ b/block/scsi_ioctl.c
+@@ -221,8 +221,20 @@ EXPORT_SYMBOL(blk_verify_command);
+ static int blk_fill_sghdr_rq(struct request_queue *q, struct request *rq,
+                            struct sg_io_hdr *hdr, fmode_t mode)
+ {
+-      if (copy_from_user(rq->cmd, hdr->cmdp, hdr->cmd_len))
++      unsigned char tmpcmd[sizeof(rq->__cmd)];
++      unsigned char *cmdptr;
++
++      if (rq->cmd != rq->__cmd)
++              cmdptr = rq->cmd;
++      else
++              cmdptr = tmpcmd;
++
++      if (copy_from_user(cmdptr, hdr->cmdp, hdr->cmd_len))
+               return -EFAULT;
++
++      if (cmdptr != rq->cmd)
++              memcpy(rq->cmd, cmdptr, hdr->cmd_len);
++
+       if (blk_verify_command(rq->cmd, mode & FMODE_WRITE))
+               return -EPERM;
+@@ -431,6 +443,8 @@ int sg_scsi_ioctl(struct request_queue *q, struct gendisk *disk, fmode_t mode,
+       int err;
+       unsigned int in_len, out_len, bytes, opcode, cmdlen;
+       char *buffer = NULL, sense[SCSI_SENSE_BUFFERSIZE];
++      unsigned char tmpcmd[sizeof(rq->__cmd)];
++      unsigned char *cmdptr;
+       if (!sic)
+               return -EINVAL;
+@@ -464,9 +478,18 @@ int sg_scsi_ioctl(struct request_queue *q, struct gendisk *disk, fmode_t mode,
+        */
+       err = -EFAULT;
+       rq->cmd_len = cmdlen;
+-      if (copy_from_user(rq->cmd, sic->data, cmdlen))
++
++      if (rq->cmd != rq->__cmd)
++              cmdptr = rq->cmd;
++      else
++              cmdptr = tmpcmd;
++
++      if (copy_from_user(cmdptr, sic->data, cmdlen))
+               goto error;
++      if (rq->cmd != cmdptr)
++              memcpy(rq->cmd, cmdptr, cmdlen);
++
+       if (in_len && copy_from_user(buffer, sic->data + cmdlen, in_len))
+               goto error;
+diff --git a/crypto/cryptd.c b/crypto/cryptd.c
+index 3533582..f143117 100644
+--- a/crypto/cryptd.c
++++ b/crypto/cryptd.c
+@@ -50,7 +50,7 @@ struct cryptd_blkcipher_ctx {
+ struct cryptd_blkcipher_request_ctx {
+       crypto_completion_t complete;
+-};
++} __no_const;
+ struct cryptd_hash_ctx {
+       struct crypto_shash *child;
+diff --git a/crypto/gf128mul.c b/crypto/gf128mul.c
+index a90d260..7a9765e 100644
+--- a/crypto/gf128mul.c
++++ b/crypto/gf128mul.c
+@@ -182,7 +182,7 @@ void gf128mul_lle(be128 *r, const be128 *b)
+       for (i = 0; i < 7; ++i)
+               gf128mul_x_lle(&p[i + 1], &p[i]);
+-      memset(r, 0, sizeof(r));
++      memset(r, 0, sizeof(*r));
+       for (i = 0;;) {
+               u8 ch = ((u8 *)b)[15 - i];
+@@ -220,7 +220,7 @@ void gf128mul_bbe(be128 *r, const be128 *b)
+       for (i = 0; i < 7; ++i)
+               gf128mul_x_bbe(&p[i + 1], &p[i]);
+-      memset(r, 0, sizeof(r));
++      memset(r, 0, sizeof(*r));
+       for (i = 0;;) {
+               u8 ch = ((u8 *)b)[i];
+diff --git a/crypto/serpent.c b/crypto/serpent.c
+index b651a55..023297d 100644
+--- a/crypto/serpent.c
++++ b/crypto/serpent.c
+@@ -21,6 +21,7 @@
+ #include <asm/byteorder.h>
+ #include <linux/crypto.h>
+ #include <linux/types.h>
++#include <linux/sched.h>
+ /* Key is padded to the maximum of 256 bits before round key generation.
+  * Any key length <= 256 bits (32 bytes) is allowed by the algorithm.
+@@ -224,6 +225,8 @@ static int serpent_setkey(struct crypto_tfm *tfm, const u8 *key,
+       u32 r0,r1,r2,r3,r4;
+       int i;
++      pax_track_stack();
++
+       /* Copy key, add padding */
+       for (i = 0; i < keylen; ++i)
+diff --git a/drivers/acpi/acpi_pad.c b/drivers/acpi/acpi_pad.c
+index 0d2cdb8..d8de48d 100644
+--- a/drivers/acpi/acpi_pad.c
++++ b/drivers/acpi/acpi_pad.c
+@@ -30,7 +30,7 @@
+ #include <acpi/acpi_bus.h>
+ #include <acpi/acpi_drivers.h>
+-#define ACPI_PROCESSOR_AGGREGATOR_CLASS       "processor_aggregator"
++#define ACPI_PROCESSOR_AGGREGATOR_CLASS       "acpi_pad"
+ #define ACPI_PROCESSOR_AGGREGATOR_DEVICE_NAME "Processor Aggregator"
+ #define ACPI_PROCESSOR_AGGREGATOR_NOTIFY 0x80
+ static DEFINE_MUTEX(isolated_cpus_lock);
+diff --git a/drivers/acpi/battery.c b/drivers/acpi/battery.c
+index 3f4602b..2e41d36 100644
+--- a/drivers/acpi/battery.c
++++ b/drivers/acpi/battery.c
+@@ -763,7 +763,7 @@ DECLARE_FILE_FUNCTIONS(alarm);
+       }
+ static struct battery_file {
+-      struct file_operations ops;
++      const struct file_operations ops;
+       mode_t mode;
+       const char *name;
+ } acpi_battery_file[] = {
+diff --git a/drivers/acpi/dock.c b/drivers/acpi/dock.c
+index 7338b6a..82f0257 100644
+--- a/drivers/acpi/dock.c
++++ b/drivers/acpi/dock.c
+@@ -77,7 +77,7 @@ struct dock_dependent_device {
+       struct list_head list;
+       struct list_head hotplug_list;
+       acpi_handle handle;
+-      struct acpi_dock_ops *ops;
++      const struct acpi_dock_ops *ops;
+       void *context;
+ };
+@@ -605,7 +605,7 @@ EXPORT_SYMBOL_GPL(unregister_dock_notifier);
+  * the dock driver after _DCK is executed.
+  */
+ int
+-register_hotplug_dock_device(acpi_handle handle, struct acpi_dock_ops *ops,
++register_hotplug_dock_device(acpi_handle handle, const struct acpi_dock_ops *ops,
+                            void *context)
+ {
+       struct dock_dependent_device *dd;
+diff --git a/drivers/acpi/osl.c b/drivers/acpi/osl.c
+index 7c1c59e..2993595 100644
+--- a/drivers/acpi/osl.c
++++ b/drivers/acpi/osl.c
+@@ -523,6 +523,8 @@ acpi_os_read_memory(acpi_physical_address phys_addr, u32 * value, u32 width)
+       void __iomem *virt_addr;
+       virt_addr = ioremap(phys_addr, width);
++      if (!virt_addr)
++              return AE_NO_MEMORY;
+       if (!value)
+               value = &dummy;
+@@ -551,6 +553,8 @@ acpi_os_write_memory(acpi_physical_address phys_addr, u32 value, u32 width)
+       void __iomem *virt_addr;
+       virt_addr = ioremap(phys_addr, width);
++      if (!virt_addr)
++              return AE_NO_MEMORY;
+       switch (width) {
+       case 8:
+diff --git a/drivers/acpi/power_meter.c b/drivers/acpi/power_meter.c
+index c216062..eec10d2 100644
+--- a/drivers/acpi/power_meter.c
++++ b/drivers/acpi/power_meter.c
+@@ -315,8 +315,6 @@ static ssize_t set_trip(struct device *dev, struct device_attribute *devattr,
+               return res;
+       temp /= 1000;
+-      if (temp < 0)
+-              return -EINVAL;
+       mutex_lock(&resource->lock);
+       resource->trip[attr->index - 7] = temp;
+diff --git a/drivers/acpi/proc.c b/drivers/acpi/proc.c
+index d0d25e2..961643d 100644
+--- a/drivers/acpi/proc.c
++++ b/drivers/acpi/proc.c
+@@ -391,20 +391,15 @@ acpi_system_write_wakeup_device(struct file *file,
+                               size_t count, loff_t * ppos)
+ {
+       struct list_head *node, *next;
+-      char strbuf[5];
+-      char str[5] = "";
+-      unsigned int len = count;
++      char strbuf[5] = {0};
+       struct acpi_device *found_dev = NULL;
+-      if (len > 4)
+-              len = 4;
+-      if (len < 0)
+-              return -EFAULT;
++      if (count > 4)
++              count = 4;
+-      if (copy_from_user(strbuf, buffer, len))
++      if (copy_from_user(strbuf, buffer, count))
+               return -EFAULT;
+-      strbuf[len] = '\0';
+-      sscanf(strbuf, "%s", str);
++      strbuf[count] = '\0';
+       mutex_lock(&acpi_device_lock);
+       list_for_each_safe(node, next, &acpi_wakeup_device_list) {
+@@ -413,7 +408,7 @@ acpi_system_write_wakeup_device(struct file *file,
+               if (!dev->wakeup.flags.valid)
+                       continue;
+-              if (!strncmp(dev->pnp.bus_id, str, 4)) {
++              if (!strncmp(dev->pnp.bus_id, strbuf, 4)) {
+                       dev->wakeup.state.enabled =
+                           dev->wakeup.state.enabled ? 0 : 1;
+                       found_dev = dev;
+diff --git a/drivers/acpi/processor_core.c b/drivers/acpi/processor_core.c
+index 7102474..de8ad22 100644
+--- a/drivers/acpi/processor_core.c
++++ b/drivers/acpi/processor_core.c
+@@ -790,7 +790,7 @@ static int __cpuinit acpi_processor_add(struct acpi_device *device)
+               return 0;
+       }
+-      BUG_ON((pr->id >= nr_cpu_ids) || (pr->id < 0));
++      BUG_ON(pr->id >= nr_cpu_ids);
+       /*
+        * Buggy BIOS check
+diff --git a/drivers/acpi/sbshc.c b/drivers/acpi/sbshc.c
+index d933980..5761f13 100644
+--- a/drivers/acpi/sbshc.c
++++ b/drivers/acpi/sbshc.c
+@@ -17,7 +17,7 @@
+ #define PREFIX "ACPI: "
+-#define ACPI_SMB_HC_CLASS     "smbus_host_controller"
++#define ACPI_SMB_HC_CLASS     "smbus_host_ctl"
+ #define ACPI_SMB_HC_DEVICE_NAME       "ACPI SMBus HC"
+ struct acpi_smb_hc {
+diff --git a/drivers/acpi/sleep.c b/drivers/acpi/sleep.c
+index 0458094..6978e7b 100644
+--- a/drivers/acpi/sleep.c
++++ b/drivers/acpi/sleep.c
+@@ -283,7 +283,7 @@ static int acpi_suspend_state_valid(suspend_state_t pm_state)
+       }
+ }
+-static struct platform_suspend_ops acpi_suspend_ops = {
++static const struct platform_suspend_ops acpi_suspend_ops = {
+       .valid = acpi_suspend_state_valid,
+       .begin = acpi_suspend_begin,
+       .prepare_late = acpi_pm_prepare,
+@@ -311,7 +311,7 @@ static int acpi_suspend_begin_old(suspend_state_t pm_state)
+  * The following callbacks are used if the pre-ACPI 2.0 suspend ordering has
+  * been requested.
+  */
+-static struct platform_suspend_ops acpi_suspend_ops_old = {
++static const struct platform_suspend_ops acpi_suspend_ops_old = {
+       .valid = acpi_suspend_state_valid,
+       .begin = acpi_suspend_begin_old,
+       .prepare_late = acpi_pm_disable_gpes,
+@@ -460,7 +460,7 @@ static void acpi_pm_enable_gpes(void)
+       acpi_enable_all_runtime_gpes();
+ }
+-static struct platform_hibernation_ops acpi_hibernation_ops = {
++static const struct platform_hibernation_ops acpi_hibernation_ops = {
+       .begin = acpi_hibernation_begin,
+       .end = acpi_pm_end,
+       .pre_snapshot = acpi_hibernation_pre_snapshot,
+@@ -513,7 +513,7 @@ static int acpi_hibernation_pre_snapshot_old(void)
+  * The following callbacks are used if the pre-ACPI 2.0 suspend ordering has
+  * been requested.
+  */
+-static struct platform_hibernation_ops acpi_hibernation_ops_old = {
++static const struct platform_hibernation_ops acpi_hibernation_ops_old = {
+       .begin = acpi_hibernation_begin_old,
+       .end = acpi_pm_end,
+       .pre_snapshot = acpi_hibernation_pre_snapshot_old,
+diff --git a/drivers/acpi/video.c b/drivers/acpi/video.c
+index 05dff63..b662ab7 100644
+--- a/drivers/acpi/video.c
++++ b/drivers/acpi/video.c
+@@ -359,7 +359,7 @@ static int acpi_video_set_brightness(struct backlight_device *bd)
+                               vd->brightness->levels[request_level]);
+ }
+-static struct backlight_ops acpi_backlight_ops = {
++static const struct backlight_ops acpi_backlight_ops = {
+       .get_brightness = acpi_video_get_brightness,
+       .update_status  = acpi_video_set_brightness,
+ };
+diff --git a/drivers/ata/ahci.c b/drivers/ata/ahci.c
+index 6787aab..23ffb0e 100644
+--- a/drivers/ata/ahci.c
++++ b/drivers/ata/ahci.c
+@@ -387,7 +387,7 @@ static struct scsi_host_template ahci_sht = {
+       .sdev_attrs             = ahci_sdev_attrs,
+ };
+-static struct ata_port_operations ahci_ops = {
++static const struct ata_port_operations ahci_ops = {
+       .inherits               = &sata_pmp_port_ops,
+       .qc_defer               = sata_pmp_qc_defer_cmd_switch,
+@@ -424,17 +424,17 @@ static struct ata_port_operations ahci_ops = {
+       .port_stop              = ahci_port_stop,
+ };
+-static struct ata_port_operations ahci_vt8251_ops = {
++static const struct ata_port_operations ahci_vt8251_ops = {
+       .inherits               = &ahci_ops,
+       .hardreset              = ahci_vt8251_hardreset,
+ };
+-static struct ata_port_operations ahci_p5wdh_ops = {
++static const struct ata_port_operations ahci_p5wdh_ops = {
+       .inherits               = &ahci_ops,
+       .hardreset              = ahci_p5wdh_hardreset,
+ };
+-static struct ata_port_operations ahci_sb600_ops = {
++static const struct ata_port_operations ahci_sb600_ops = {
+       .inherits               = &ahci_ops,
+       .softreset              = ahci_sb600_softreset,
+       .pmp_softreset          = ahci_sb600_softreset,
+diff --git a/drivers/ata/ata_generic.c b/drivers/ata/ata_generic.c
+index 99e7196..4968c77 100644
+--- a/drivers/ata/ata_generic.c
++++ b/drivers/ata/ata_generic.c
+@@ -104,7 +104,7 @@ static struct scsi_host_template generic_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations generic_port_ops = {
++static const struct ata_port_operations generic_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = ata_cable_unknown,
+       .set_mode       = generic_set_mode,
+diff --git a/drivers/ata/ata_piix.c b/drivers/ata/ata_piix.c
+index c33591d..000c121 100644
+--- a/drivers/ata/ata_piix.c
++++ b/drivers/ata/ata_piix.c
+@@ -318,7 +318,7 @@ static struct scsi_host_template piix_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations piix_pata_ops = {
++static const struct ata_port_operations piix_pata_ops = {
+       .inherits               = &ata_bmdma32_port_ops,
+       .cable_detect           = ata_cable_40wire,
+       .set_piomode            = piix_set_piomode,
+@@ -326,22 +326,22 @@ static struct ata_port_operations piix_pata_ops = {
+       .prereset               = piix_pata_prereset,
+ };
+-static struct ata_port_operations piix_vmw_ops = {
++static const struct ata_port_operations piix_vmw_ops = {
+       .inherits               = &piix_pata_ops,
+       .bmdma_status           = piix_vmw_bmdma_status,
+ };
+-static struct ata_port_operations ich_pata_ops = {
++static const struct ata_port_operations ich_pata_ops = {
+       .inherits               = &piix_pata_ops,
+       .cable_detect           = ich_pata_cable_detect,
+       .set_dmamode            = ich_set_dmamode,
+ };
+-static struct ata_port_operations piix_sata_ops = {
++static const struct ata_port_operations piix_sata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+ };
+-static struct ata_port_operations piix_sidpr_sata_ops = {
++static const struct ata_port_operations piix_sidpr_sata_ops = {
+       .inherits               = &piix_sata_ops,
+       .hardreset              = sata_std_hardreset,
+       .scr_read               = piix_sidpr_scr_read,
+diff --git a/drivers/ata/libata-acpi.c b/drivers/ata/libata-acpi.c
+index b0882cd..c295d65 100644
+--- a/drivers/ata/libata-acpi.c
++++ b/drivers/ata/libata-acpi.c
+@@ -223,12 +223,12 @@ static void ata_acpi_dev_uevent(acpi_handle handle, u32 event, void *data)
+       ata_acpi_uevent(dev->link->ap, dev, event);
+ }
+-static struct acpi_dock_ops ata_acpi_dev_dock_ops = {
++static const struct acpi_dock_ops ata_acpi_dev_dock_ops = {
+       .handler = ata_acpi_dev_notify_dock,
+       .uevent = ata_acpi_dev_uevent,
+ };
+-static struct acpi_dock_ops ata_acpi_ap_dock_ops = {
++static const struct acpi_dock_ops ata_acpi_ap_dock_ops = {
+       .handler = ata_acpi_ap_notify_dock,
+       .uevent = ata_acpi_ap_uevent,
+ };
+diff --git a/drivers/ata/libata-core.c b/drivers/ata/libata-core.c
+index d4f7f99..94f603e 100644
+--- a/drivers/ata/libata-core.c
++++ b/drivers/ata/libata-core.c
+@@ -4954,7 +4954,7 @@ void ata_qc_free(struct ata_queued_cmd *qc)
+       struct ata_port *ap;
+       unsigned int tag;
+-      WARN_ON_ONCE(qc == NULL); /* ata_qc_from_tag _might_ return NULL */
++      BUG_ON(qc == NULL); /* ata_qc_from_tag _might_ return NULL */
+       ap = qc->ap;
+       qc->flags = 0;
+@@ -4970,7 +4970,7 @@ void __ata_qc_complete(struct ata_queued_cmd *qc)
+       struct ata_port *ap;
+       struct ata_link *link;
+-      WARN_ON_ONCE(qc == NULL); /* ata_qc_from_tag _might_ return NULL */
++      BUG_ON(qc == NULL); /* ata_qc_from_tag _might_ return NULL */
+       WARN_ON_ONCE(!(qc->flags & ATA_QCFLAG_ACTIVE));
+       ap = qc->ap;
+       link = qc->dev->link;
+@@ -5987,7 +5987,7 @@ static void ata_host_stop(struct device *gendev, void *res)
+  *    LOCKING:
+  *    None.
+  */
+-static void ata_finalize_port_ops(struct ata_port_operations *ops)
++static void ata_finalize_port_ops(const struct ata_port_operations *ops)
+ {
+       static DEFINE_SPINLOCK(lock);
+       const struct ata_port_operations *cur;
+@@ -5999,6 +5999,7 @@ static void ata_finalize_port_ops(struct ata_port_operations *ops)
+               return;
+       spin_lock(&lock);
++      pax_open_kernel();
+       for (cur = ops->inherits; cur; cur = cur->inherits) {
+               void **inherit = (void **)cur;
+@@ -6012,8 +6013,9 @@ static void ata_finalize_port_ops(struct ata_port_operations *ops)
+               if (IS_ERR(*pp))
+                       *pp = NULL;
+-      ops->inherits = NULL;
++      *(struct ata_port_operations **)&ops->inherits = NULL;
++      pax_close_kernel();
+       spin_unlock(&lock);
+ }
+@@ -6110,7 +6112,7 @@ int ata_host_start(struct ata_host *host)
+  */
+ /* KILLME - the only user left is ipr */
+ void ata_host_init(struct ata_host *host, struct device *dev,
+-                 unsigned long flags, struct ata_port_operations *ops)
++                 unsigned long flags, const struct ata_port_operations *ops)
+ {
+       spin_lock_init(&host->lock);
+       host->dev = dev;
+@@ -6773,7 +6775,7 @@ static void ata_dummy_error_handler(struct ata_port *ap)
+       /* truly dummy */
+ }
+-struct ata_port_operations ata_dummy_port_ops = {
++const struct ata_port_operations ata_dummy_port_ops = {
+       .qc_prep                = ata_noop_qc_prep,
+       .qc_issue               = ata_dummy_qc_issue,
+       .error_handler          = ata_dummy_error_handler,
+diff --git a/drivers/ata/libata-eh.c b/drivers/ata/libata-eh.c
+index e5bdb9b..45a8e72 100644
+--- a/drivers/ata/libata-eh.c
++++ b/drivers/ata/libata-eh.c
+@@ -2423,6 +2423,8 @@ void ata_eh_report(struct ata_port *ap)
+ {
+       struct ata_link *link;
++      pax_track_stack();
++
+       ata_for_each_link(link, ap, HOST_FIRST)
+               ata_eh_link_report(link);
+ }
+@@ -3594,7 +3596,7 @@ void ata_do_eh(struct ata_port *ap, ata_prereset_fn_t prereset,
+  */
+ void ata_std_error_handler(struct ata_port *ap)
+ {
+-      struct ata_port_operations *ops = ap->ops;
++      const struct ata_port_operations *ops = ap->ops;
+       ata_reset_fn_t hardreset = ops->hardreset;
+       /* ignore built-in hardreset if SCR access is not available */
+diff --git a/drivers/ata/libata-pmp.c b/drivers/ata/libata-pmp.c
+index 51f0ffb..19ce3e3 100644
+--- a/drivers/ata/libata-pmp.c
++++ b/drivers/ata/libata-pmp.c
+@@ -841,7 +841,7 @@ static int sata_pmp_handle_link_fail(struct ata_link *link, int *link_tries)
+  */
+ static int sata_pmp_eh_recover(struct ata_port *ap)
+ {
+-      struct ata_port_operations *ops = ap->ops;
++      const struct ata_port_operations *ops = ap->ops;
+       int pmp_tries, link_tries[SATA_PMP_MAX_PORTS];
+       struct ata_link *pmp_link = &ap->link;
+       struct ata_device *pmp_dev = pmp_link->device;
+diff --git a/drivers/ata/pata_acpi.c b/drivers/ata/pata_acpi.c
+index d8f35fe..288180a 100644
+--- a/drivers/ata/pata_acpi.c
++++ b/drivers/ata/pata_acpi.c
+@@ -215,7 +215,7 @@ static struct scsi_host_template pacpi_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations pacpi_ops = {
++static const struct ata_port_operations pacpi_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .qc_issue               = pacpi_qc_issue,
+       .cable_detect           = pacpi_cable_detect,
+diff --git a/drivers/ata/pata_ali.c b/drivers/ata/pata_ali.c
+index 9434114..1f2f364 100644
+--- a/drivers/ata/pata_ali.c
++++ b/drivers/ata/pata_ali.c
+@@ -365,7 +365,7 @@ static struct scsi_host_template ali_sht = {
+  *    Port operations for PIO only ALi
+  */
+-static struct ata_port_operations ali_early_port_ops = {
++static const struct ata_port_operations ali_early_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       .set_piomode    = ali_set_piomode,
+@@ -382,7 +382,7 @@ static const struct ata_port_operations ali_dma_base_ops = {
+  *    Port operations for DMA capable ALi without cable
+  *    detect
+  */
+-static struct ata_port_operations ali_20_port_ops = {
++static const struct ata_port_operations ali_20_port_ops = {
+       .inherits       = &ali_dma_base_ops,
+       .cable_detect   = ata_cable_40wire,
+       .mode_filter    = ali_20_filter,
+@@ -393,7 +393,7 @@ static struct ata_port_operations ali_20_port_ops = {
+ /*
+  *    Port operations for DMA capable ALi with cable detect
+  */
+-static struct ata_port_operations ali_c2_port_ops = {
++static const struct ata_port_operations ali_c2_port_ops = {
+       .inherits       = &ali_dma_base_ops,
+       .check_atapi_dma = ali_check_atapi_dma,
+       .cable_detect   = ali_c2_cable_detect,
+@@ -404,7 +404,7 @@ static struct ata_port_operations ali_c2_port_ops = {
+ /*
+  *    Port operations for DMA capable ALi with cable detect
+  */
+-static struct ata_port_operations ali_c4_port_ops = {
++static const struct ata_port_operations ali_c4_port_ops = {
+       .inherits       = &ali_dma_base_ops,
+       .check_atapi_dma = ali_check_atapi_dma,
+       .cable_detect   = ali_c2_cable_detect,
+@@ -414,7 +414,7 @@ static struct ata_port_operations ali_c4_port_ops = {
+ /*
+  *    Port operations for DMA capable ALi with cable detect and LBA48
+  */
+-static struct ata_port_operations ali_c5_port_ops = {
++static const struct ata_port_operations ali_c5_port_ops = {
+       .inherits       = &ali_dma_base_ops,
+       .check_atapi_dma = ali_check_atapi_dma,
+       .dev_config     = ali_warn_atapi_dma,
+diff --git a/drivers/ata/pata_amd.c b/drivers/ata/pata_amd.c
+index 567f3f7..c8ee0da 100644
+--- a/drivers/ata/pata_amd.c
++++ b/drivers/ata/pata_amd.c
+@@ -397,28 +397,28 @@ static const struct ata_port_operations amd_base_port_ops = {
+       .prereset       = amd_pre_reset,
+ };
+-static struct ata_port_operations amd33_port_ops = {
++static const struct ata_port_operations amd33_port_ops = {
+       .inherits       = &amd_base_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       .set_piomode    = amd33_set_piomode,
+       .set_dmamode    = amd33_set_dmamode,
+ };
+-static struct ata_port_operations amd66_port_ops = {
++static const struct ata_port_operations amd66_port_ops = {
+       .inherits       = &amd_base_port_ops,
+       .cable_detect   = ata_cable_unknown,
+       .set_piomode    = amd66_set_piomode,
+       .set_dmamode    = amd66_set_dmamode,
+ };
+-static struct ata_port_operations amd100_port_ops = {
++static const struct ata_port_operations amd100_port_ops = {
+       .inherits       = &amd_base_port_ops,
+       .cable_detect   = ata_cable_unknown,
+       .set_piomode    = amd100_set_piomode,
+       .set_dmamode    = amd100_set_dmamode,
+ };
+-static struct ata_port_operations amd133_port_ops = {
++static const struct ata_port_operations amd133_port_ops = {
+       .inherits       = &amd_base_port_ops,
+       .cable_detect   = amd_cable_detect,
+       .set_piomode    = amd133_set_piomode,
+@@ -433,13 +433,13 @@ static const struct ata_port_operations nv_base_port_ops = {
+       .host_stop      = nv_host_stop,
+ };
+-static struct ata_port_operations nv100_port_ops = {
++static const struct ata_port_operations nv100_port_ops = {
+       .inherits       = &nv_base_port_ops,
+       .set_piomode    = nv100_set_piomode,
+       .set_dmamode    = nv100_set_dmamode,
+ };
+-static struct ata_port_operations nv133_port_ops = {
++static const struct ata_port_operations nv133_port_ops = {
+       .inherits       = &nv_base_port_ops,
+       .set_piomode    = nv133_set_piomode,
+       .set_dmamode    = nv133_set_dmamode,
+diff --git a/drivers/ata/pata_artop.c b/drivers/ata/pata_artop.c
+index d332cfd..4b7eaae 100644
+--- a/drivers/ata/pata_artop.c
++++ b/drivers/ata/pata_artop.c
+@@ -311,7 +311,7 @@ static struct scsi_host_template artop_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations artop6210_ops = {
++static const struct ata_port_operations artop6210_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = ata_cable_40wire,
+       .set_piomode            = artop6210_set_piomode,
+@@ -320,7 +320,7 @@ static struct ata_port_operations artop6210_ops = {
+       .qc_defer               = artop6210_qc_defer,
+ };
+-static struct ata_port_operations artop6260_ops = {
++static const struct ata_port_operations artop6260_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = artop6260_cable_detect,
+       .set_piomode            = artop6260_set_piomode,
+diff --git a/drivers/ata/pata_at32.c b/drivers/ata/pata_at32.c
+index 5c129f9..7bb7ccb 100644
+--- a/drivers/ata/pata_at32.c
++++ b/drivers/ata/pata_at32.c
+@@ -172,7 +172,7 @@ static struct scsi_host_template at32_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations at32_port_ops = {
++static const struct ata_port_operations at32_port_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .cable_detect           = ata_cable_40wire,
+       .set_piomode            = pata_at32_set_piomode,
+diff --git a/drivers/ata/pata_at91.c b/drivers/ata/pata_at91.c
+index 41c94b1..829006d 100644
+--- a/drivers/ata/pata_at91.c
++++ b/drivers/ata/pata_at91.c
+@@ -195,7 +195,7 @@ static struct scsi_host_template pata_at91_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations pata_at91_port_ops = {
++static const struct ata_port_operations pata_at91_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .sff_data_xfer  = pata_at91_data_xfer_noirq,
+diff --git a/drivers/ata/pata_atiixp.c b/drivers/ata/pata_atiixp.c
+index ae4454d..d391eb4 100644
+--- a/drivers/ata/pata_atiixp.c
++++ b/drivers/ata/pata_atiixp.c
+@@ -205,7 +205,7 @@ static struct scsi_host_template atiixp_sht = {
+       .sg_tablesize           = LIBATA_DUMB_MAX_PRD,
+ };
+-static struct ata_port_operations atiixp_port_ops = {
++static const struct ata_port_operations atiixp_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .qc_prep        = ata_sff_dumb_qc_prep,
+diff --git a/drivers/ata/pata_atp867x.c b/drivers/ata/pata_atp867x.c
+index 6fe7ded..2a425dc 100644
+--- a/drivers/ata/pata_atp867x.c
++++ b/drivers/ata/pata_atp867x.c
+@@ -274,7 +274,7 @@ static struct scsi_host_template atp867x_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations atp867x_ops = {
++static const struct ata_port_operations atp867x_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = atp867x_cable_detect,
+       .set_piomode            = atp867x_set_piomode,
+diff --git a/drivers/ata/pata_bf54x.c b/drivers/ata/pata_bf54x.c
+index c4b47a3..b27a367 100644
+--- a/drivers/ata/pata_bf54x.c
++++ b/drivers/ata/pata_bf54x.c
+@@ -1464,7 +1464,7 @@ static struct scsi_host_template bfin_sht = {
+       .dma_boundary           = ATA_DMA_BOUNDARY,
+ };
+-static struct ata_port_operations bfin_pata_ops = {
++static const struct ata_port_operations bfin_pata_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .set_piomode            = bfin_set_piomode,
+diff --git a/drivers/ata/pata_cmd640.c b/drivers/ata/pata_cmd640.c
+index 5acf9fa..84248be 100644
+--- a/drivers/ata/pata_cmd640.c
++++ b/drivers/ata/pata_cmd640.c
+@@ -168,7 +168,7 @@ static struct scsi_host_template cmd640_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations cmd640_port_ops = {
++static const struct ata_port_operations cmd640_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       /* In theory xfer_noirq is not needed once we kill the prefetcher */
+       .sff_data_xfer  = ata_sff_data_xfer_noirq,
+diff --git a/drivers/ata/pata_cmd64x.c b/drivers/ata/pata_cmd64x.c
+index ccd2694..c869c3d 100644
+--- a/drivers/ata/pata_cmd64x.c
++++ b/drivers/ata/pata_cmd64x.c
+@@ -271,18 +271,18 @@ static const struct ata_port_operations cmd64x_base_ops = {
+       .set_dmamode    = cmd64x_set_dmamode,
+ };
+-static struct ata_port_operations cmd64x_port_ops = {
++static const struct ata_port_operations cmd64x_port_ops = {
+       .inherits       = &cmd64x_base_ops,
+       .cable_detect   = ata_cable_40wire,
+ };
+-static struct ata_port_operations cmd646r1_port_ops = {
++static const struct ata_port_operations cmd646r1_port_ops = {
+       .inherits       = &cmd64x_base_ops,
+       .bmdma_stop     = cmd646r1_bmdma_stop,
+       .cable_detect   = ata_cable_40wire,
+ };
+-static struct ata_port_operations cmd648_port_ops = {
++static const struct ata_port_operations cmd648_port_ops = {
+       .inherits       = &cmd64x_base_ops,
+       .bmdma_stop     = cmd648_bmdma_stop,
+       .cable_detect   = cmd648_cable_detect,
+diff --git a/drivers/ata/pata_cs5520.c b/drivers/ata/pata_cs5520.c
+index 0df83cf..d7595b0 100644
+--- a/drivers/ata/pata_cs5520.c
++++ b/drivers/ata/pata_cs5520.c
+@@ -144,7 +144,7 @@ static struct scsi_host_template cs5520_sht = {
+       .sg_tablesize           = LIBATA_DUMB_MAX_PRD,
+ };
+-static struct ata_port_operations cs5520_port_ops = {
++static const struct ata_port_operations cs5520_port_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .qc_prep                = ata_sff_dumb_qc_prep,
+       .cable_detect           = ata_cable_40wire,
+diff --git a/drivers/ata/pata_cs5530.c b/drivers/ata/pata_cs5530.c
+index c974b05..6d26b11 100644
+--- a/drivers/ata/pata_cs5530.c
++++ b/drivers/ata/pata_cs5530.c
+@@ -164,7 +164,7 @@ static struct scsi_host_template cs5530_sht = {
+       .sg_tablesize   = LIBATA_DUMB_MAX_PRD,
+ };
+-static struct ata_port_operations cs5530_port_ops = {
++static const struct ata_port_operations cs5530_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .qc_prep        = ata_sff_dumb_qc_prep,
+diff --git a/drivers/ata/pata_cs5535.c b/drivers/ata/pata_cs5535.c
+index 403f561..aacd26b 100644
+--- a/drivers/ata/pata_cs5535.c
++++ b/drivers/ata/pata_cs5535.c
+@@ -160,7 +160,7 @@ static struct scsi_host_template cs5535_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations cs5535_port_ops = {
++static const struct ata_port_operations cs5535_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = cs5535_cable_detect,
+       .set_piomode    = cs5535_set_piomode,
+diff --git a/drivers/ata/pata_cs5536.c b/drivers/ata/pata_cs5536.c
+index 6da4cb4..de24a25 100644
+--- a/drivers/ata/pata_cs5536.c
++++ b/drivers/ata/pata_cs5536.c
+@@ -223,7 +223,7 @@ static struct scsi_host_template cs5536_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations cs5536_port_ops = {
++static const struct ata_port_operations cs5536_port_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = cs5536_cable_detect,
+       .set_piomode            = cs5536_set_piomode,
+diff --git a/drivers/ata/pata_cypress.c b/drivers/ata/pata_cypress.c
+index 8fb040b..b16a9c9 100644
+--- a/drivers/ata/pata_cypress.c
++++ b/drivers/ata/pata_cypress.c
+@@ -113,7 +113,7 @@ static struct scsi_host_template cy82c693_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations cy82c693_port_ops = {
++static const struct ata_port_operations cy82c693_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       .set_piomode    = cy82c693_set_piomode,
+diff --git a/drivers/ata/pata_efar.c b/drivers/ata/pata_efar.c
+index 2a6412f..555ee11 100644
+--- a/drivers/ata/pata_efar.c
++++ b/drivers/ata/pata_efar.c
+@@ -222,7 +222,7 @@ static struct scsi_host_template efar_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations efar_ops = {
++static const struct ata_port_operations efar_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = efar_cable_detect,
+       .set_piomode            = efar_set_piomode,
+diff --git a/drivers/ata/pata_hpt366.c b/drivers/ata/pata_hpt366.c
+index b9d8836..0b92030 100644
+--- a/drivers/ata/pata_hpt366.c
++++ b/drivers/ata/pata_hpt366.c
+@@ -282,7 +282,7 @@ static struct scsi_host_template hpt36x_sht = {
+  *    Configuration for HPT366/68
+  */
+-static struct ata_port_operations hpt366_port_ops = {
++static const struct ata_port_operations hpt366_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = hpt36x_cable_detect,
+       .mode_filter    = hpt366_filter,
+diff --git a/drivers/ata/pata_hpt37x.c b/drivers/ata/pata_hpt37x.c
+index 5af7f19..00c4980 100644
+--- a/drivers/ata/pata_hpt37x.c
++++ b/drivers/ata/pata_hpt37x.c
+@@ -576,7 +576,7 @@ static struct scsi_host_template hpt37x_sht = {
+  *    Configuration for HPT370
+  */
+-static struct ata_port_operations hpt370_port_ops = {
++static const struct ata_port_operations hpt370_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .bmdma_stop     = hpt370_bmdma_stop,
+@@ -591,7 +591,7 @@ static struct ata_port_operations hpt370_port_ops = {
+  *    Configuration for HPT370A. Close to 370 but less filters
+  */
+-static struct ata_port_operations hpt370a_port_ops = {
++static const struct ata_port_operations hpt370a_port_ops = {
+       .inherits       = &hpt370_port_ops,
+       .mode_filter    = hpt370a_filter,
+ };
+@@ -601,7 +601,7 @@ static struct ata_port_operations hpt370a_port_ops = {
+  *    and DMA mode setting functionality.
+  */
+-static struct ata_port_operations hpt372_port_ops = {
++static const struct ata_port_operations hpt372_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .bmdma_stop     = hpt37x_bmdma_stop,
+@@ -616,7 +616,7 @@ static struct ata_port_operations hpt372_port_ops = {
+  *    but we have a different cable detection procedure for function 1.
+  */
+-static struct ata_port_operations hpt374_fn1_port_ops = {
++static const struct ata_port_operations hpt374_fn1_port_ops = {
+       .inherits       = &hpt372_port_ops,
+       .prereset       = hpt374_fn1_pre_reset,
+ };
+diff --git a/drivers/ata/pata_hpt3x2n.c b/drivers/ata/pata_hpt3x2n.c
+index 100f227..2e39382 100644
+--- a/drivers/ata/pata_hpt3x2n.c
++++ b/drivers/ata/pata_hpt3x2n.c
+@@ -337,7 +337,7 @@ static struct scsi_host_template hpt3x2n_sht = {
+  *    Configuration for HPT3x2n.
+  */
+-static struct ata_port_operations hpt3x2n_port_ops = {
++static const struct ata_port_operations hpt3x2n_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .bmdma_stop     = hpt3x2n_bmdma_stop,
+diff --git a/drivers/ata/pata_hpt3x3.c b/drivers/ata/pata_hpt3x3.c
+index 7e31025..6fca8f4 100644
+--- a/drivers/ata/pata_hpt3x3.c
++++ b/drivers/ata/pata_hpt3x3.c
+@@ -141,7 +141,7 @@ static struct scsi_host_template hpt3x3_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations hpt3x3_port_ops = {
++static const struct ata_port_operations hpt3x3_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       .set_piomode    = hpt3x3_set_piomode,
+diff --git a/drivers/ata/pata_icside.c b/drivers/ata/pata_icside.c
+index b663b7f..9a26c2a 100644
+--- a/drivers/ata/pata_icside.c
++++ b/drivers/ata/pata_icside.c
+@@ -319,7 +319,7 @@ static void pata_icside_postreset(struct ata_link *link, unsigned int *classes)
+       }
+ }
+-static struct ata_port_operations pata_icside_port_ops = {
++static const struct ata_port_operations pata_icside_port_ops = {
+       .inherits               = &ata_sff_port_ops,
+       /* no need to build any PRD tables for DMA */
+       .qc_prep                = ata_noop_qc_prep,
+diff --git a/drivers/ata/pata_isapnp.c b/drivers/ata/pata_isapnp.c
+index 4bceb88..457dfb6 100644
+--- a/drivers/ata/pata_isapnp.c
++++ b/drivers/ata/pata_isapnp.c
+@@ -23,12 +23,12 @@ static struct scsi_host_template isapnp_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations isapnp_port_ops = {
++static const struct ata_port_operations isapnp_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .cable_detect   = ata_cable_40wire,
+ };
+-static struct ata_port_operations isapnp_noalt_port_ops = {
++static const struct ata_port_operations isapnp_noalt_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       /* No altstatus so we don't want to use the lost interrupt poll */
+diff --git a/drivers/ata/pata_it8213.c b/drivers/ata/pata_it8213.c
+index f156da8..24976e2 100644
+--- a/drivers/ata/pata_it8213.c
++++ b/drivers/ata/pata_it8213.c
+@@ -234,7 +234,7 @@ static struct scsi_host_template it8213_sht = {
+ };
+-static struct ata_port_operations it8213_ops = {
++static const struct ata_port_operations it8213_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = it8213_cable_detect,
+       .set_piomode            = it8213_set_piomode,
+diff --git a/drivers/ata/pata_it821x.c b/drivers/ata/pata_it821x.c
+index 188bc2f..ca9e785 100644
+--- a/drivers/ata/pata_it821x.c
++++ b/drivers/ata/pata_it821x.c
+@@ -800,7 +800,7 @@ static struct scsi_host_template it821x_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations it821x_smart_port_ops = {
++static const struct ata_port_operations it821x_smart_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .check_atapi_dma= it821x_check_atapi_dma,
+@@ -814,7 +814,7 @@ static struct ata_port_operations it821x_smart_port_ops = {
+       .port_start     = it821x_port_start,
+ };
+-static struct ata_port_operations it821x_passthru_port_ops = {
++static const struct ata_port_operations it821x_passthru_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .check_atapi_dma= it821x_check_atapi_dma,
+@@ -830,7 +830,7 @@ static struct ata_port_operations it821x_passthru_port_ops = {
+       .port_start     = it821x_port_start,
+ };
+-static struct ata_port_operations it821x_rdc_port_ops = {
++static const struct ata_port_operations it821x_rdc_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .check_atapi_dma= it821x_check_atapi_dma,
+diff --git a/drivers/ata/pata_ixp4xx_cf.c b/drivers/ata/pata_ixp4xx_cf.c
+index ba54b08..4b952b7 100644
+--- a/drivers/ata/pata_ixp4xx_cf.c
++++ b/drivers/ata/pata_ixp4xx_cf.c
+@@ -89,7 +89,7 @@ static struct scsi_host_template ixp4xx_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations ixp4xx_port_ops = {
++static const struct ata_port_operations ixp4xx_port_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .sff_data_xfer          = ixp4xx_mmio_data_xfer,
+       .cable_detect           = ata_cable_40wire,
+diff --git a/drivers/ata/pata_jmicron.c b/drivers/ata/pata_jmicron.c
+index 3a1474a..434b0ff 100644
+--- a/drivers/ata/pata_jmicron.c
++++ b/drivers/ata/pata_jmicron.c
+@@ -111,7 +111,7 @@ static struct scsi_host_template jmicron_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations jmicron_ops = {
++static const struct ata_port_operations jmicron_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .prereset               = jmicron_pre_reset,
+ };
+diff --git a/drivers/ata/pata_legacy.c b/drivers/ata/pata_legacy.c
+index 6932e56..220e71d 100644
+--- a/drivers/ata/pata_legacy.c
++++ b/drivers/ata/pata_legacy.c
+@@ -106,7 +106,7 @@ struct legacy_probe {
+ struct legacy_controller {
+       const char *name;
+-      struct ata_port_operations *ops;
++      const struct ata_port_operations *ops;
+       unsigned int pio_mask;
+       unsigned int flags;
+       unsigned int pflags;
+@@ -223,12 +223,12 @@ static const struct ata_port_operations legacy_base_port_ops = {
+  *    pio_mask as well.
+  */
+-static struct ata_port_operations simple_port_ops = {
++static const struct ata_port_operations simple_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .sff_data_xfer  = ata_sff_data_xfer_noirq,
+ };
+-static struct ata_port_operations legacy_port_ops = {
++static const struct ata_port_operations legacy_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .sff_data_xfer  = ata_sff_data_xfer_noirq,
+       .set_mode       = legacy_set_mode,
+@@ -324,7 +324,7 @@ static unsigned int pdc_data_xfer_vlb(struct ata_device *dev,
+       return buflen;
+ }
+-static struct ata_port_operations pdc20230_port_ops = {
++static const struct ata_port_operations pdc20230_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = pdc20230_set_piomode,
+       .sff_data_xfer  = pdc_data_xfer_vlb,
+@@ -357,7 +357,7 @@ static void ht6560a_set_piomode(struct ata_port *ap, struct ata_device *adev)
+       ioread8(ap->ioaddr.status_addr);
+ }
+-static struct ata_port_operations ht6560a_port_ops = {
++static const struct ata_port_operations ht6560a_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = ht6560a_set_piomode,
+ };
+@@ -400,7 +400,7 @@ static void ht6560b_set_piomode(struct ata_port *ap, struct ata_device *adev)
+       ioread8(ap->ioaddr.status_addr);
+ }
+-static struct ata_port_operations ht6560b_port_ops = {
++static const struct ata_port_operations ht6560b_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = ht6560b_set_piomode,
+ };
+@@ -499,7 +499,7 @@ static void opti82c611a_set_piomode(struct ata_port *ap,
+ }
+-static struct ata_port_operations opti82c611a_port_ops = {
++static const struct ata_port_operations opti82c611a_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = opti82c611a_set_piomode,
+ };
+@@ -609,7 +609,7 @@ static unsigned int opti82c46x_qc_issue(struct ata_queued_cmd *qc)
+       return ata_sff_qc_issue(qc);
+ }
+-static struct ata_port_operations opti82c46x_port_ops = {
++static const struct ata_port_operations opti82c46x_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = opti82c46x_set_piomode,
+       .qc_issue       = opti82c46x_qc_issue,
+@@ -771,20 +771,20 @@ static int qdi_port(struct platform_device *dev,
+       return 0;
+ }
+-static struct ata_port_operations qdi6500_port_ops = {
++static const struct ata_port_operations qdi6500_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = qdi6500_set_piomode,
+       .qc_issue       = qdi_qc_issue,
+       .sff_data_xfer  = vlb32_data_xfer,
+ };
+-static struct ata_port_operations qdi6580_port_ops = {
++static const struct ata_port_operations qdi6580_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = qdi6580_set_piomode,
+       .sff_data_xfer  = vlb32_data_xfer,
+ };
+-static struct ata_port_operations qdi6580dp_port_ops = {
++static const struct ata_port_operations qdi6580dp_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = qdi6580dp_set_piomode,
+       .sff_data_xfer  = vlb32_data_xfer,
+@@ -855,7 +855,7 @@ static int winbond_port(struct platform_device *dev,
+       return 0;
+ }
+-static struct ata_port_operations winbond_port_ops = {
++static const struct ata_port_operations winbond_port_ops = {
+       .inherits       = &legacy_base_port_ops,
+       .set_piomode    = winbond_set_piomode,
+       .sff_data_xfer  = vlb32_data_xfer,
+@@ -978,7 +978,7 @@ static __init int legacy_init_one(struct legacy_probe *probe)
+       int pio_modes = controller->pio_mask;
+       unsigned long io = probe->port;
+       u32 mask = (1 << probe->slot);
+-      struct ata_port_operations *ops = controller->ops;
++      const struct ata_port_operations *ops = controller->ops;
+       struct legacy_data *ld = &legacy_data[probe->slot];
+       struct ata_host *host = NULL;
+       struct ata_port *ap;
+diff --git a/drivers/ata/pata_marvell.c b/drivers/ata/pata_marvell.c
+index 2096fb7..4d090fc 100644
+--- a/drivers/ata/pata_marvell.c
++++ b/drivers/ata/pata_marvell.c
+@@ -100,7 +100,7 @@ static struct scsi_host_template marvell_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations marvell_ops = {
++static const struct ata_port_operations marvell_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = marvell_cable_detect,
+       .prereset               = marvell_pre_reset,
+diff --git a/drivers/ata/pata_mpc52xx.c b/drivers/ata/pata_mpc52xx.c
+index 99d41be..7d56aa8 100644
+--- a/drivers/ata/pata_mpc52xx.c
++++ b/drivers/ata/pata_mpc52xx.c
+@@ -609,7 +609,7 @@ static struct scsi_host_template mpc52xx_ata_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations mpc52xx_ata_port_ops = {
++static const struct ata_port_operations mpc52xx_ata_port_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .sff_dev_select         = mpc52xx_ata_dev_select,
+       .set_piomode            = mpc52xx_ata_set_piomode,
+diff --git a/drivers/ata/pata_mpiix.c b/drivers/ata/pata_mpiix.c
+index b21f002..0a27e7f 100644
+--- a/drivers/ata/pata_mpiix.c
++++ b/drivers/ata/pata_mpiix.c
+@@ -140,7 +140,7 @@ static struct scsi_host_template mpiix_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations mpiix_port_ops = {
++static const struct ata_port_operations mpiix_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .qc_issue       = mpiix_qc_issue,
+       .cable_detect   = ata_cable_40wire,
+diff --git a/drivers/ata/pata_netcell.c b/drivers/ata/pata_netcell.c
+index f0d52f7..89c3be3 100644
+--- a/drivers/ata/pata_netcell.c
++++ b/drivers/ata/pata_netcell.c
+@@ -34,7 +34,7 @@ static struct scsi_host_template netcell_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations netcell_ops = {
++static const struct ata_port_operations netcell_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = ata_cable_80wire,
+       .read_id        = netcell_read_id,
+diff --git a/drivers/ata/pata_ninja32.c b/drivers/ata/pata_ninja32.c
+index dd53a66..a3f4317 100644
+--- a/drivers/ata/pata_ninja32.c
++++ b/drivers/ata/pata_ninja32.c
+@@ -81,7 +81,7 @@ static struct scsi_host_template ninja32_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations ninja32_port_ops = {
++static const struct ata_port_operations ninja32_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .sff_dev_select = ninja32_dev_select,
+       .cable_detect   = ata_cable_40wire,
+diff --git a/drivers/ata/pata_ns87410.c b/drivers/ata/pata_ns87410.c
+index ca53fac..9aa93ef 100644
+--- a/drivers/ata/pata_ns87410.c
++++ b/drivers/ata/pata_ns87410.c
+@@ -132,7 +132,7 @@ static struct scsi_host_template ns87410_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations ns87410_port_ops = {
++static const struct ata_port_operations ns87410_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .qc_issue       = ns87410_qc_issue,
+       .cable_detect   = ata_cable_40wire,
+diff --git a/drivers/ata/pata_ns87415.c b/drivers/ata/pata_ns87415.c
+index 773b159..55f454e 100644
+--- a/drivers/ata/pata_ns87415.c
++++ b/drivers/ata/pata_ns87415.c
+@@ -299,7 +299,7 @@ static u8 ns87560_bmdma_status(struct ata_port *ap)
+ }
+ #endif                /* 87560 SuperIO Support */
+-static struct ata_port_operations ns87415_pata_ops = {
++static const struct ata_port_operations ns87415_pata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .check_atapi_dma        = ns87415_check_atapi_dma,
+@@ -313,7 +313,7 @@ static struct ata_port_operations ns87415_pata_ops = {
+ };
+ #if defined(CONFIG_SUPERIO)
+-static struct ata_port_operations ns87560_pata_ops = {
++static const struct ata_port_operations ns87560_pata_ops = {
+       .inherits               = &ns87415_pata_ops,
+       .sff_tf_read            = ns87560_tf_read,
+       .sff_check_status       = ns87560_check_status,
+diff --git a/drivers/ata/pata_octeon_cf.c b/drivers/ata/pata_octeon_cf.c
+index d6f6956..639295b 100644
+--- a/drivers/ata/pata_octeon_cf.c
++++ b/drivers/ata/pata_octeon_cf.c
+@@ -801,6 +801,7 @@ static unsigned int octeon_cf_qc_issue(struct ata_queued_cmd *qc)
+       return 0;
+ }
++/* cannot be const */
+ static struct ata_port_operations octeon_cf_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .check_atapi_dma        = octeon_cf_check_atapi_dma,
+diff --git a/drivers/ata/pata_oldpiix.c b/drivers/ata/pata_oldpiix.c
+index 84ac503..adee1cd 100644
+--- a/drivers/ata/pata_oldpiix.c
++++ b/drivers/ata/pata_oldpiix.c
+@@ -208,7 +208,7 @@ static struct scsi_host_template oldpiix_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations oldpiix_pata_ops = {
++static const struct ata_port_operations oldpiix_pata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .qc_issue               = oldpiix_qc_issue,
+       .cable_detect           = ata_cable_40wire,
+diff --git a/drivers/ata/pata_opti.c b/drivers/ata/pata_opti.c
+index 99eddda..3a4c0aa 100644
+--- a/drivers/ata/pata_opti.c
++++ b/drivers/ata/pata_opti.c
+@@ -152,7 +152,7 @@ static struct scsi_host_template opti_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations opti_port_ops = {
++static const struct ata_port_operations opti_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       .set_piomode    = opti_set_piomode,
+diff --git a/drivers/ata/pata_optidma.c b/drivers/ata/pata_optidma.c
+index 86885a4..8e9968d 100644
+--- a/drivers/ata/pata_optidma.c
++++ b/drivers/ata/pata_optidma.c
+@@ -337,7 +337,7 @@ static struct scsi_host_template optidma_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations optidma_port_ops = {
++static const struct ata_port_operations optidma_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       .set_piomode    = optidma_set_pio_mode,
+@@ -346,7 +346,7 @@ static struct ata_port_operations optidma_port_ops = {
+       .prereset       = optidma_pre_reset,
+ };
+-static struct ata_port_operations optiplus_port_ops = {
++static const struct ata_port_operations optiplus_port_ops = {
+       .inherits       = &optidma_port_ops,
+       .set_piomode    = optiplus_set_pio_mode,
+       .set_dmamode    = optiplus_set_dma_mode,
+diff --git a/drivers/ata/pata_palmld.c b/drivers/ata/pata_palmld.c
+index 11fb4cc..1a14022 100644
+--- a/drivers/ata/pata_palmld.c
++++ b/drivers/ata/pata_palmld.c
+@@ -37,7 +37,7 @@ static struct scsi_host_template palmld_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations palmld_port_ops = {
++static const struct ata_port_operations palmld_port_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .sff_data_xfer          = ata_sff_data_xfer_noirq,
+       .cable_detect           = ata_cable_40wire,
+diff --git a/drivers/ata/pata_pcmcia.c b/drivers/ata/pata_pcmcia.c
+index dc99e26..7f4b1e4 100644
+--- a/drivers/ata/pata_pcmcia.c
++++ b/drivers/ata/pata_pcmcia.c
+@@ -162,14 +162,14 @@ static struct scsi_host_template pcmcia_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations pcmcia_port_ops = {
++static const struct ata_port_operations pcmcia_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .sff_data_xfer  = ata_sff_data_xfer_noirq,
+       .cable_detect   = ata_cable_40wire,
+       .set_mode       = pcmcia_set_mode,
+ };
+-static struct ata_port_operations pcmcia_8bit_port_ops = {
++static const struct ata_port_operations pcmcia_8bit_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .sff_data_xfer  = ata_data_xfer_8bit,
+       .cable_detect   = ata_cable_40wire,
+@@ -256,7 +256,7 @@ static int pcmcia_init_one(struct pcmcia_device *pdev)
+       unsigned long io_base, ctl_base;
+       void __iomem *io_addr, *ctl_addr;
+       int n_ports = 1;
+-      struct ata_port_operations *ops = &pcmcia_port_ops;
++      const struct ata_port_operations *ops = &pcmcia_port_ops;
+       info = kzalloc(sizeof(*info), GFP_KERNEL);
+       if (info == NULL)
+diff --git a/drivers/ata/pata_pdc2027x.c b/drivers/ata/pata_pdc2027x.c
+index ca5cad0..3a1f125 100644
+--- a/drivers/ata/pata_pdc2027x.c
++++ b/drivers/ata/pata_pdc2027x.c
+@@ -132,14 +132,14 @@ static struct scsi_host_template pdc2027x_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations pdc2027x_pata100_ops = {
++static const struct ata_port_operations pdc2027x_pata100_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .check_atapi_dma        = pdc2027x_check_atapi_dma,
+       .cable_detect           = pdc2027x_cable_detect,
+       .prereset               = pdc2027x_prereset,
+ };
+-static struct ata_port_operations pdc2027x_pata133_ops = {
++static const struct ata_port_operations pdc2027x_pata133_ops = {
+       .inherits               = &pdc2027x_pata100_ops,
+       .mode_filter            = pdc2027x_mode_filter,
+       .set_piomode            = pdc2027x_set_piomode,
+diff --git a/drivers/ata/pata_pdc202xx_old.c b/drivers/ata/pata_pdc202xx_old.c
+index 2911120..4bf62aa 100644
+--- a/drivers/ata/pata_pdc202xx_old.c
++++ b/drivers/ata/pata_pdc202xx_old.c
+@@ -274,7 +274,7 @@ static struct scsi_host_template pdc202xx_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations pdc2024x_port_ops = {
++static const struct ata_port_operations pdc2024x_port_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = ata_cable_40wire,
+@@ -284,7 +284,7 @@ static struct ata_port_operations pdc2024x_port_ops = {
+       .sff_exec_command       = pdc202xx_exec_command,
+ };
+-static struct ata_port_operations pdc2026x_port_ops = {
++static const struct ata_port_operations pdc2026x_port_ops = {
+       .inherits               = &pdc2024x_port_ops,
+       .check_atapi_dma        = pdc2026x_check_atapi_dma,
+diff --git a/drivers/ata/pata_platform.c b/drivers/ata/pata_platform.c
+index 3f6ebc6..a18c358 100644
+--- a/drivers/ata/pata_platform.c
++++ b/drivers/ata/pata_platform.c
+@@ -48,7 +48,7 @@ static struct scsi_host_template pata_platform_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations pata_platform_port_ops = {
++static const struct ata_port_operations pata_platform_port_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .sff_data_xfer          = ata_sff_data_xfer_noirq,
+       .cable_detect           = ata_cable_unknown,
+diff --git a/drivers/ata/pata_qdi.c b/drivers/ata/pata_qdi.c
+index 45879dc..165a9f9 100644
+--- a/drivers/ata/pata_qdi.c
++++ b/drivers/ata/pata_qdi.c
+@@ -157,7 +157,7 @@ static struct scsi_host_template qdi_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations qdi6500_port_ops = {
++static const struct ata_port_operations qdi6500_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .qc_issue       = qdi_qc_issue,
+       .sff_data_xfer  = qdi_data_xfer,
+@@ -165,7 +165,7 @@ static struct ata_port_operations qdi6500_port_ops = {
+       .set_piomode    = qdi6500_set_piomode,
+ };
+-static struct ata_port_operations qdi6580_port_ops = {
++static const struct ata_port_operations qdi6580_port_ops = {
+       .inherits       = &qdi6500_port_ops,
+       .set_piomode    = qdi6580_set_piomode,
+ };
+diff --git a/drivers/ata/pata_radisys.c b/drivers/ata/pata_radisys.c
+index 4401b33..716c5cc 100644
+--- a/drivers/ata/pata_radisys.c
++++ b/drivers/ata/pata_radisys.c
+@@ -187,7 +187,7 @@ static struct scsi_host_template radisys_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations radisys_pata_ops = {
++static const struct ata_port_operations radisys_pata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .qc_issue               = radisys_qc_issue,
+       .cable_detect           = ata_cable_unknown,
+diff --git a/drivers/ata/pata_rb532_cf.c b/drivers/ata/pata_rb532_cf.c
+index 45f1e10..fab6bca 100644
+--- a/drivers/ata/pata_rb532_cf.c
++++ b/drivers/ata/pata_rb532_cf.c
+@@ -68,7 +68,7 @@ static irqreturn_t rb532_pata_irq_handler(int irq, void *dev_instance)
+       return IRQ_HANDLED;
+ }
+-static struct ata_port_operations rb532_pata_port_ops = {
++static const struct ata_port_operations rb532_pata_port_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .sff_data_xfer          = ata_sff_data_xfer32,
+ };
+diff --git a/drivers/ata/pata_rdc.c b/drivers/ata/pata_rdc.c
+index c843a1e..b5853c3 100644
+--- a/drivers/ata/pata_rdc.c
++++ b/drivers/ata/pata_rdc.c
+@@ -272,7 +272,7 @@ static void rdc_set_dmamode(struct ata_port *ap, struct ata_device *adev)
+       pci_write_config_byte(dev, 0x48, udma_enable);
+ }
+-static struct ata_port_operations rdc_pata_ops = {
++static const struct ata_port_operations rdc_pata_ops = {
+       .inherits               = &ata_bmdma32_port_ops,
+       .cable_detect           = rdc_pata_cable_detect,
+       .set_piomode            = rdc_set_piomode,
+diff --git a/drivers/ata/pata_rz1000.c b/drivers/ata/pata_rz1000.c
+index a5e4dfe..080c8c9 100644
+--- a/drivers/ata/pata_rz1000.c
++++ b/drivers/ata/pata_rz1000.c
+@@ -54,7 +54,7 @@ static struct scsi_host_template rz1000_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations rz1000_port_ops = {
++static const struct ata_port_operations rz1000_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .cable_detect   = ata_cable_40wire,
+       .set_mode       = rz1000_set_mode,
+diff --git a/drivers/ata/pata_sc1200.c b/drivers/ata/pata_sc1200.c
+index 3bbed83..e309daf 100644
+--- a/drivers/ata/pata_sc1200.c
++++ b/drivers/ata/pata_sc1200.c
+@@ -207,7 +207,7 @@ static struct scsi_host_template sc1200_sht = {
+       .sg_tablesize   = LIBATA_DUMB_MAX_PRD,
+ };
+-static struct ata_port_operations sc1200_port_ops = {
++static const struct ata_port_operations sc1200_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .qc_prep        = ata_sff_dumb_qc_prep,
+       .qc_issue       = sc1200_qc_issue,
+diff --git a/drivers/ata/pata_scc.c b/drivers/ata/pata_scc.c
+index 4257d6b..4c1d9d5 100644
+--- a/drivers/ata/pata_scc.c
++++ b/drivers/ata/pata_scc.c
+@@ -965,7 +965,7 @@ static struct scsi_host_template scc_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations scc_pata_ops = {
++static const struct ata_port_operations scc_pata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .set_piomode            = scc_set_piomode,
+diff --git a/drivers/ata/pata_sch.c b/drivers/ata/pata_sch.c
+index 99cceb4..e2e0a87 100644
+--- a/drivers/ata/pata_sch.c
++++ b/drivers/ata/pata_sch.c
+@@ -75,7 +75,7 @@ static struct scsi_host_template sch_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations sch_pata_ops = {
++static const struct ata_port_operations sch_pata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .cable_detect           = ata_cable_unknown,
+       .set_piomode            = sch_set_piomode,
+diff --git a/drivers/ata/pata_serverworks.c b/drivers/ata/pata_serverworks.c
+index beaed12..39969f1 100644
+--- a/drivers/ata/pata_serverworks.c
++++ b/drivers/ata/pata_serverworks.c
+@@ -299,7 +299,7 @@ static struct scsi_host_template serverworks_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations serverworks_osb4_port_ops = {
++static const struct ata_port_operations serverworks_osb4_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = serverworks_cable_detect,
+       .mode_filter    = serverworks_osb4_filter,
+@@ -307,7 +307,7 @@ static struct ata_port_operations serverworks_osb4_port_ops = {
+       .set_dmamode    = serverworks_set_dmamode,
+ };
+-static struct ata_port_operations serverworks_csb_port_ops = {
++static const struct ata_port_operations serverworks_csb_port_ops = {
+       .inherits       = &serverworks_osb4_port_ops,
+       .mode_filter    = serverworks_csb_filter,
+ };
+diff --git a/drivers/ata/pata_sil680.c b/drivers/ata/pata_sil680.c
+index a2ace48..0463b44 100644
+--- a/drivers/ata/pata_sil680.c
++++ b/drivers/ata/pata_sil680.c
+@@ -194,7 +194,7 @@ static struct scsi_host_template sil680_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations sil680_port_ops = {
++static const struct ata_port_operations sil680_port_ops = {
+       .inherits       = &ata_bmdma32_port_ops,
+       .cable_detect   = sil680_cable_detect,
+       .set_piomode    = sil680_set_piomode,
+diff --git a/drivers/ata/pata_sis.c b/drivers/ata/pata_sis.c
+index 488e77b..b3724d5 100644
+--- a/drivers/ata/pata_sis.c
++++ b/drivers/ata/pata_sis.c
+@@ -503,47 +503,47 @@ static struct scsi_host_template sis_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations sis_133_for_sata_ops = {
++static const struct ata_port_operations sis_133_for_sata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .set_piomode            = sis_133_set_piomode,
+       .set_dmamode            = sis_133_set_dmamode,
+       .cable_detect           = sis_133_cable_detect,
+ };
+-static struct ata_port_operations sis_base_ops = {
++static const struct ata_port_operations sis_base_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .prereset               = sis_pre_reset,
+ };
+-static struct ata_port_operations sis_133_ops = {
++static const struct ata_port_operations sis_133_ops = {
+       .inherits               = &sis_base_ops,
+       .set_piomode            = sis_133_set_piomode,
+       .set_dmamode            = sis_133_set_dmamode,
+       .cable_detect           = sis_133_cable_detect,
+ };
+-static struct ata_port_operations sis_133_early_ops = {
++static const struct ata_port_operations sis_133_early_ops = {
+       .inherits               = &sis_base_ops,
+       .set_piomode            = sis_100_set_piomode,
+       .set_dmamode            = sis_133_early_set_dmamode,
+       .cable_detect           = sis_66_cable_detect,
+ };
+-static struct ata_port_operations sis_100_ops = {
++static const struct ata_port_operations sis_100_ops = {
+       .inherits               = &sis_base_ops,
+       .set_piomode            = sis_100_set_piomode,
+       .set_dmamode            = sis_100_set_dmamode,
+       .cable_detect           = sis_66_cable_detect,
+ };
+-static struct ata_port_operations sis_66_ops = {
++static const struct ata_port_operations sis_66_ops = {
+       .inherits               = &sis_base_ops,
+       .set_piomode            = sis_old_set_piomode,
+       .set_dmamode            = sis_66_set_dmamode,
+       .cable_detect           = sis_66_cable_detect,
+ };
+-static struct ata_port_operations sis_old_ops = {
++static const struct ata_port_operations sis_old_ops = {
+       .inherits               = &sis_base_ops,
+       .set_piomode            = sis_old_set_piomode,
+       .set_dmamode            = sis_old_set_dmamode,
+diff --git a/drivers/ata/pata_sl82c105.c b/drivers/ata/pata_sl82c105.c
+index 29f733c..43e9ca0 100644
+--- a/drivers/ata/pata_sl82c105.c
++++ b/drivers/ata/pata_sl82c105.c
+@@ -231,7 +231,7 @@ static struct scsi_host_template sl82c105_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations sl82c105_port_ops = {
++static const struct ata_port_operations sl82c105_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .qc_defer       = sl82c105_qc_defer,
+       .bmdma_start    = sl82c105_bmdma_start,
+diff --git a/drivers/ata/pata_triflex.c b/drivers/ata/pata_triflex.c
+index f1f13ff..df39e99 100644
+--- a/drivers/ata/pata_triflex.c
++++ b/drivers/ata/pata_triflex.c
+@@ -178,7 +178,7 @@ static struct scsi_host_template triflex_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations triflex_port_ops = {
++static const struct ata_port_operations triflex_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .bmdma_start    = triflex_bmdma_start,
+       .bmdma_stop     = triflex_bmdma_stop,
+diff --git a/drivers/ata/pata_via.c b/drivers/ata/pata_via.c
+index 1d73b8d..98a4b29 100644
+--- a/drivers/ata/pata_via.c
++++ b/drivers/ata/pata_via.c
+@@ -419,7 +419,7 @@ static struct scsi_host_template via_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations via_port_ops = {
++static const struct ata_port_operations via_port_ops = {
+       .inherits       = &ata_bmdma_port_ops,
+       .cable_detect   = via_cable_detect,
+       .set_piomode    = via_set_piomode,
+@@ -429,7 +429,7 @@ static struct ata_port_operations via_port_ops = {
+       .port_start     = via_port_start,
+ };
+-static struct ata_port_operations via_port_ops_noirq = {
++static const struct ata_port_operations via_port_ops_noirq = {
+       .inherits       = &via_port_ops,
+       .sff_data_xfer  = ata_sff_data_xfer_noirq,
+ };
+diff --git a/drivers/ata/pata_winbond.c b/drivers/ata/pata_winbond.c
+index 6d8619b..ad511c4 100644
+--- a/drivers/ata/pata_winbond.c
++++ b/drivers/ata/pata_winbond.c
+@@ -125,7 +125,7 @@ static struct scsi_host_template winbond_sht = {
+       ATA_PIO_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations winbond_port_ops = {
++static const struct ata_port_operations winbond_port_ops = {
+       .inherits       = &ata_sff_port_ops,
+       .sff_data_xfer  = winbond_data_xfer,
+       .cable_detect   = ata_cable_40wire,
+diff --git a/drivers/ata/pdc_adma.c b/drivers/ata/pdc_adma.c
+index 6c65b07..f996ec7 100644
+--- a/drivers/ata/pdc_adma.c
++++ b/drivers/ata/pdc_adma.c
+@@ -145,7 +145,7 @@ static struct scsi_host_template adma_ata_sht = {
+       .dma_boundary           = ADMA_DMA_BOUNDARY,
+ };
+-static struct ata_port_operations adma_ata_ops = {
++static const struct ata_port_operations adma_ata_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .lost_interrupt         = ATA_OP_NULL,
+diff --git a/drivers/ata/sata_fsl.c b/drivers/ata/sata_fsl.c
+index 172b57e..c49bc1e 100644
+--- a/drivers/ata/sata_fsl.c
++++ b/drivers/ata/sata_fsl.c
+@@ -1258,7 +1258,7 @@ static struct scsi_host_template sata_fsl_sht = {
+       .dma_boundary = ATA_DMA_BOUNDARY,
+ };
+-static struct ata_port_operations sata_fsl_ops = {
++static const struct ata_port_operations sata_fsl_ops = {
+       .inherits               = &sata_pmp_port_ops,
+       .qc_defer = ata_std_qc_defer,
+diff --git a/drivers/ata/sata_inic162x.c b/drivers/ata/sata_inic162x.c
+index 4406902..60603ef 100644
+--- a/drivers/ata/sata_inic162x.c
++++ b/drivers/ata/sata_inic162x.c
+@@ -721,7 +721,7 @@ static int inic_port_start(struct ata_port *ap)
+       return 0;
+ }
+-static struct ata_port_operations inic_port_ops = {
++static const struct ata_port_operations inic_port_ops = {
+       .inherits               = &sata_port_ops,
+       .check_atapi_dma        = inic_check_atapi_dma,
+diff --git a/drivers/ata/sata_mv.c b/drivers/ata/sata_mv.c
+index cf41126..8107be6 100644
+--- a/drivers/ata/sata_mv.c
++++ b/drivers/ata/sata_mv.c
+@@ -656,7 +656,7 @@ static struct scsi_host_template mv6_sht = {
+       .dma_boundary           = MV_DMA_BOUNDARY,
+ };
+-static struct ata_port_operations mv5_ops = {
++static const struct ata_port_operations mv5_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .lost_interrupt         = ATA_OP_NULL,
+@@ -678,7 +678,7 @@ static struct ata_port_operations mv5_ops = {
+       .port_stop              = mv_port_stop,
+ };
+-static struct ata_port_operations mv6_ops = {
++static const struct ata_port_operations mv6_ops = {
+       .inherits               = &mv5_ops,
+       .dev_config             = mv6_dev_config,
+       .scr_read               = mv_scr_read,
+@@ -698,7 +698,7 @@ static struct ata_port_operations mv6_ops = {
+       .bmdma_status           = mv_bmdma_status,
+ };
+-static struct ata_port_operations mv_iie_ops = {
++static const struct ata_port_operations mv_iie_ops = {
+       .inherits               = &mv6_ops,
+       .dev_config             = ATA_OP_NULL,
+       .qc_prep                = mv_qc_prep_iie,
+diff --git a/drivers/ata/sata_nv.c b/drivers/ata/sata_nv.c
+index ae2297c..d5c9c33 100644
+--- a/drivers/ata/sata_nv.c
++++ b/drivers/ata/sata_nv.c
+@@ -464,7 +464,7 @@ static struct scsi_host_template nv_swncq_sht = {
+  * cases.  Define nv_hardreset() which only kicks in for post-boot
+  * probing and use it for all variants.
+  */
+-static struct ata_port_operations nv_generic_ops = {
++static const struct ata_port_operations nv_generic_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .lost_interrupt         = ATA_OP_NULL,
+       .scr_read               = nv_scr_read,
+@@ -472,20 +472,20 @@ static struct ata_port_operations nv_generic_ops = {
+       .hardreset              = nv_hardreset,
+ };
+-static struct ata_port_operations nv_nf2_ops = {
++static const struct ata_port_operations nv_nf2_ops = {
+       .inherits               = &nv_generic_ops,
+       .freeze                 = nv_nf2_freeze,
+       .thaw                   = nv_nf2_thaw,
+ };
+-static struct ata_port_operations nv_ck804_ops = {
++static const struct ata_port_operations nv_ck804_ops = {
+       .inherits               = &nv_generic_ops,
+       .freeze                 = nv_ck804_freeze,
+       .thaw                   = nv_ck804_thaw,
+       .host_stop              = nv_ck804_host_stop,
+ };
+-static struct ata_port_operations nv_adma_ops = {
++static const struct ata_port_operations nv_adma_ops = {
+       .inherits               = &nv_ck804_ops,
+       .check_atapi_dma        = nv_adma_check_atapi_dma,
+@@ -509,7 +509,7 @@ static struct ata_port_operations nv_adma_ops = {
+       .host_stop              = nv_adma_host_stop,
+ };
+-static struct ata_port_operations nv_swncq_ops = {
++static const struct ata_port_operations nv_swncq_ops = {
+       .inherits               = &nv_generic_ops,
+       .qc_defer               = ata_std_qc_defer,
+diff --git a/drivers/ata/sata_promise.c b/drivers/ata/sata_promise.c
+index 07d8d00..6cc70bb 100644
+--- a/drivers/ata/sata_promise.c
++++ b/drivers/ata/sata_promise.c
+@@ -195,7 +195,7 @@ static const struct ata_port_operations pdc_common_ops = {
+       .error_handler          = pdc_error_handler,
+ };
+-static struct ata_port_operations pdc_sata_ops = {
++static const struct ata_port_operations pdc_sata_ops = {
+       .inherits               = &pdc_common_ops,
+       .cable_detect           = pdc_sata_cable_detect,
+       .freeze                 = pdc_sata_freeze,
+@@ -208,14 +208,14 @@ static struct ata_port_operations pdc_sata_ops = {
+ /* First-generation chips need a more restrictive ->check_atapi_dma op,
+    and ->freeze/thaw that ignore the hotplug controls. */
+-static struct ata_port_operations pdc_old_sata_ops = {
++static const struct ata_port_operations pdc_old_sata_ops = {
+       .inherits               = &pdc_sata_ops,
+       .freeze                 = pdc_freeze,
+       .thaw                   = pdc_thaw,
+       .check_atapi_dma        = pdc_old_sata_check_atapi_dma,
+ };
+-static struct ata_port_operations pdc_pata_ops = {
++static const struct ata_port_operations pdc_pata_ops = {
+       .inherits               = &pdc_common_ops,
+       .cable_detect           = pdc_pata_cable_detect,
+       .freeze                 = pdc_freeze,
+diff --git a/drivers/ata/sata_qstor.c b/drivers/ata/sata_qstor.c
+index 326c0cf..36ecebe 100644
+--- a/drivers/ata/sata_qstor.c
++++ b/drivers/ata/sata_qstor.c
+@@ -132,7 +132,7 @@ static struct scsi_host_template qs_ata_sht = {
+       .dma_boundary           = QS_DMA_BOUNDARY,
+ };
+-static struct ata_port_operations qs_ata_ops = {
++static const struct ata_port_operations qs_ata_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .check_atapi_dma        = qs_check_atapi_dma,
+diff --git a/drivers/ata/sata_sil.c b/drivers/ata/sata_sil.c
+index 3cb69d5..0871d3c 100644
+--- a/drivers/ata/sata_sil.c
++++ b/drivers/ata/sata_sil.c
+@@ -182,7 +182,7 @@ static struct scsi_host_template sil_sht = {
+       .sg_tablesize           = ATA_MAX_PRD
+ };
+-static struct ata_port_operations sil_ops = {
++static const struct ata_port_operations sil_ops = {
+       .inherits               = &ata_bmdma32_port_ops,
+       .dev_config             = sil_dev_config,
+       .set_mode               = sil_set_mode,
+diff --git a/drivers/ata/sata_sil24.c b/drivers/ata/sata_sil24.c
+index e6946fc..eddb794 100644
+--- a/drivers/ata/sata_sil24.c
++++ b/drivers/ata/sata_sil24.c
+@@ -388,7 +388,7 @@ static struct scsi_host_template sil24_sht = {
+       .dma_boundary           = ATA_DMA_BOUNDARY,
+ };
+-static struct ata_port_operations sil24_ops = {
++static const struct ata_port_operations sil24_ops = {
+       .inherits               = &sata_pmp_port_ops,
+       .qc_defer               = sil24_qc_defer,
+diff --git a/drivers/ata/sata_sis.c b/drivers/ata/sata_sis.c
+index f8a91bf..9cb06b6 100644
+--- a/drivers/ata/sata_sis.c
++++ b/drivers/ata/sata_sis.c
+@@ -89,7 +89,7 @@ static struct scsi_host_template sis_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations sis_ops = {
++static const struct ata_port_operations sis_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .scr_read               = sis_scr_read,
+       .scr_write              = sis_scr_write,
+diff --git a/drivers/ata/sata_svw.c b/drivers/ata/sata_svw.c
+index 7257f2d..d04c6f5 100644
+--- a/drivers/ata/sata_svw.c
++++ b/drivers/ata/sata_svw.c
+@@ -344,7 +344,7 @@ static struct scsi_host_template k2_sata_sht = {
+ };
+-static struct ata_port_operations k2_sata_ops = {
++static const struct ata_port_operations k2_sata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .sff_tf_load            = k2_sata_tf_load,
+       .sff_tf_read            = k2_sata_tf_read,
+diff --git a/drivers/ata/sata_sx4.c b/drivers/ata/sata_sx4.c
+index bbcf970..cd0df0d 100644
+--- a/drivers/ata/sata_sx4.c
++++ b/drivers/ata/sata_sx4.c
+@@ -248,7 +248,7 @@ static struct scsi_host_template pdc_sata_sht = {
+ };
+ /* TODO: inherit from base port_ops after converting to new EH */
+-static struct ata_port_operations pdc_20621_ops = {
++static const struct ata_port_operations pdc_20621_ops = {
+       .inherits               = &ata_sff_port_ops,
+       .check_atapi_dma        = pdc_check_atapi_dma,
+diff --git a/drivers/ata/sata_uli.c b/drivers/ata/sata_uli.c
+index e5bff47..089d859 100644
+--- a/drivers/ata/sata_uli.c
++++ b/drivers/ata/sata_uli.c
+@@ -79,7 +79,7 @@ static struct scsi_host_template uli_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations uli_ops = {
++static const struct ata_port_operations uli_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .scr_read               = uli_scr_read,
+       .scr_write              = uli_scr_write,
+diff --git a/drivers/ata/sata_via.c b/drivers/ata/sata_via.c
+index f5dcca7..77b94eb 100644
+--- a/drivers/ata/sata_via.c
++++ b/drivers/ata/sata_via.c
+@@ -115,32 +115,32 @@ static struct scsi_host_template svia_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations svia_base_ops = {
++static const struct ata_port_operations svia_base_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .sff_tf_load            = svia_tf_load,
+ };
+-static struct ata_port_operations vt6420_sata_ops = {
++static const struct ata_port_operations vt6420_sata_ops = {
+       .inherits               = &svia_base_ops,
+       .freeze                 = svia_noop_freeze,
+       .prereset               = vt6420_prereset,
+       .bmdma_start            = vt6420_bmdma_start,
+ };
+-static struct ata_port_operations vt6421_pata_ops = {
++static const struct ata_port_operations vt6421_pata_ops = {
+       .inherits               = &svia_base_ops,
+       .cable_detect           = vt6421_pata_cable_detect,
+       .set_piomode            = vt6421_set_pio_mode,
+       .set_dmamode            = vt6421_set_dma_mode,
+ };
+-static struct ata_port_operations vt6421_sata_ops = {
++static const struct ata_port_operations vt6421_sata_ops = {
+       .inherits               = &svia_base_ops,
+       .scr_read               = svia_scr_read,
+       .scr_write              = svia_scr_write,
+ };
+-static struct ata_port_operations vt8251_ops = {
++static const struct ata_port_operations vt8251_ops = {
+       .inherits               = &svia_base_ops,
+       .hardreset              = sata_std_hardreset,
+       .scr_read               = vt8251_scr_read,
+diff --git a/drivers/ata/sata_vsc.c b/drivers/ata/sata_vsc.c
+index 8b2a278..51e65d3 100644
+--- a/drivers/ata/sata_vsc.c
++++ b/drivers/ata/sata_vsc.c
+@@ -306,7 +306,7 @@ static struct scsi_host_template vsc_sata_sht = {
+ };
+-static struct ata_port_operations vsc_sata_ops = {
++static const struct ata_port_operations vsc_sata_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       /* The IRQ handling is not quite standard SFF behaviour so we
+          cannot use the default lost interrupt handler */
+diff --git a/drivers/atm/adummy.c b/drivers/atm/adummy.c
+index 5effec6..7e4019a 100644
+--- a/drivers/atm/adummy.c
++++ b/drivers/atm/adummy.c
+@@ -77,7 +77,7 @@ adummy_send(struct atm_vcc *vcc, struct sk_buff *skb)
+               vcc->pop(vcc, skb);
+       else
+               dev_kfree_skb_any(skb);
+-      atomic_inc(&vcc->stats->tx);
++      atomic_inc_unchecked(&vcc->stats->tx);
+       return 0;
+ }
+diff --git a/drivers/atm/ambassador.c b/drivers/atm/ambassador.c
+index 66e1813..26a27c6 100644
+--- a/drivers/atm/ambassador.c
++++ b/drivers/atm/ambassador.c
+@@ -453,7 +453,7 @@ static void tx_complete (amb_dev * dev, tx_out * tx) {
+   PRINTD (DBG_FLOW|DBG_TX, "tx_complete %p %p", dev, tx);
+   
+   // VC layer stats
+-  atomic_inc(&ATM_SKB(skb)->vcc->stats->tx);
++  atomic_inc_unchecked(&ATM_SKB(skb)->vcc->stats->tx);
+   
+   // free the descriptor
+   kfree (tx_descr);
+@@ -494,7 +494,7 @@ static void rx_complete (amb_dev * dev, rx_out * rx) {
+         dump_skb ("<<<", vc, skb);
+         
+         // VC layer stats
+-        atomic_inc(&atm_vcc->stats->rx);
++        atomic_inc_unchecked(&atm_vcc->stats->rx);
+         __net_timestamp(skb);
+         // end of our responsability
+         atm_vcc->push (atm_vcc, skb);
+@@ -509,7 +509,7 @@ static void rx_complete (amb_dev * dev, rx_out * rx) {
+       } else {
+               PRINTK (KERN_INFO, "dropped over-size frame");
+       // should we count this?
+-      atomic_inc(&atm_vcc->stats->rx_drop);
++      atomic_inc_unchecked(&atm_vcc->stats->rx_drop);
+       }
+       
+     } else {
+@@ -1341,7 +1341,7 @@ static int amb_send (struct atm_vcc * atm_vcc, struct sk_buff * skb) {
+   }
+   
+   if (check_area (skb->data, skb->len)) {
+-    atomic_inc(&atm_vcc->stats->tx_err);
++    atomic_inc_unchecked(&atm_vcc->stats->tx_err);
+     return -ENOMEM; // ?
+   }
+   
+diff --git a/drivers/atm/atmtcp.c b/drivers/atm/atmtcp.c
+index 02ad83d..6daffeb 100644
+--- a/drivers/atm/atmtcp.c
++++ b/drivers/atm/atmtcp.c
+@@ -206,7 +206,7 @@ static int atmtcp_v_send(struct atm_vcc *vcc,struct sk_buff *skb)
+               if (vcc->pop) vcc->pop(vcc,skb);
+               else dev_kfree_skb(skb);
+               if (dev_data) return 0;
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               return -ENOLINK;
+       }
+       size = skb->len+sizeof(struct atmtcp_hdr);
+@@ -214,7 +214,7 @@ static int atmtcp_v_send(struct atm_vcc *vcc,struct sk_buff *skb)
+       if (!new_skb) {
+               if (vcc->pop) vcc->pop(vcc,skb);
+               else dev_kfree_skb(skb);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               return -ENOBUFS;
+       }
+       hdr = (void *) skb_put(new_skb,sizeof(struct atmtcp_hdr));
+@@ -225,8 +225,8 @@ static int atmtcp_v_send(struct atm_vcc *vcc,struct sk_buff *skb)
+       if (vcc->pop) vcc->pop(vcc,skb);
+       else dev_kfree_skb(skb);
+       out_vcc->push(out_vcc,new_skb);
+-      atomic_inc(&vcc->stats->tx);
+-      atomic_inc(&out_vcc->stats->rx);
++      atomic_inc_unchecked(&vcc->stats->tx);
++      atomic_inc_unchecked(&out_vcc->stats->rx);
+       return 0;
+ }
+@@ -300,7 +300,7 @@ static int atmtcp_c_send(struct atm_vcc *vcc,struct sk_buff *skb)
+       out_vcc = find_vcc(dev, ntohs(hdr->vpi), ntohs(hdr->vci));
+       read_unlock(&vcc_sklist_lock);
+       if (!out_vcc) {
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               goto done;
+       }
+       skb_pull(skb,sizeof(struct atmtcp_hdr));
+@@ -312,8 +312,8 @@ static int atmtcp_c_send(struct atm_vcc *vcc,struct sk_buff *skb)
+       __net_timestamp(new_skb);
+       skb_copy_from_linear_data(skb, skb_put(new_skb, skb->len), skb->len);
+       out_vcc->push(out_vcc,new_skb);
+-      atomic_inc(&vcc->stats->tx);
+-      atomic_inc(&out_vcc->stats->rx);
++      atomic_inc_unchecked(&vcc->stats->tx);
++      atomic_inc_unchecked(&out_vcc->stats->rx);
+ done:
+       if (vcc->pop) vcc->pop(vcc,skb);
+       else dev_kfree_skb(skb);
+diff --git a/drivers/atm/eni.c b/drivers/atm/eni.c
+index 0c30261..3da356e 100644
+--- a/drivers/atm/eni.c
++++ b/drivers/atm/eni.c
+@@ -525,7 +525,7 @@ static int rx_aal0(struct atm_vcc *vcc)
+               DPRINTK(DEV_LABEL "(itf %d): trashing empty cell\n",
+                   vcc->dev->number);
+               length = 0;
+-              atomic_inc(&vcc->stats->rx_err);
++              atomic_inc_unchecked(&vcc->stats->rx_err);
+       }
+       else {
+               length = ATM_CELL_SIZE-1; /* no HEC */
+@@ -580,7 +580,7 @@ static int rx_aal5(struct atm_vcc *vcc)
+                           size);
+               }
+               eff = length = 0;
+-              atomic_inc(&vcc->stats->rx_err);
++              atomic_inc_unchecked(&vcc->stats->rx_err);
+       }
+       else {
+               size = (descr & MID_RED_COUNT)*(ATM_CELL_PAYLOAD >> 2);
+@@ -597,7 +597,7 @@ static int rx_aal5(struct atm_vcc *vcc)
+                           "(VCI=%d,length=%ld,size=%ld (descr 0x%lx))\n",
+                           vcc->dev->number,vcc->vci,length,size << 2,descr);
+                       length = eff = 0;
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+               }
+       }
+       skb = eff ? atm_alloc_charge(vcc,eff << 2,GFP_ATOMIC) : NULL;
+@@ -770,7 +770,7 @@ rx_dequeued++;
+                       vcc->push(vcc,skb);
+                       pushed++;
+               }
+-              atomic_inc(&vcc->stats->rx);
++              atomic_inc_unchecked(&vcc->stats->rx);
+       }
+       wake_up(&eni_dev->rx_wait);
+ }
+@@ -1227,7 +1227,7 @@ static void dequeue_tx(struct atm_dev *dev)
+                   PCI_DMA_TODEVICE);
+               if (vcc->pop) vcc->pop(vcc,skb);
+               else dev_kfree_skb_irq(skb);
+-              atomic_inc(&vcc->stats->tx);
++              atomic_inc_unchecked(&vcc->stats->tx);
+               wake_up(&eni_dev->tx_wait);
+ dma_complete++;
+       }
+@@ -1570,7 +1570,7 @@ tx_complete++;
+ /*--------------------------------- entries ---------------------------------*/
+-static const char *media_name[] __devinitdata = {
++static const char *media_name[] __devinitconst = {
+     "MMF", "SMF", "MMF", "03?", /*  0- 3 */
+     "UTP", "05?", "06?", "07?", /*  4- 7 */
+     "TAXI","09?", "10?", "11?", /*  8-11 */
+diff --git a/drivers/atm/firestream.c b/drivers/atm/firestream.c
+index cd5049a..a51209f 100644
+--- a/drivers/atm/firestream.c
++++ b/drivers/atm/firestream.c
+@@ -748,7 +748,7 @@ static void process_txdone_queue (struct fs_dev *dev, struct queue *q)
+                               }
+                       }
+-                      atomic_inc(&ATM_SKB(skb)->vcc->stats->tx);
++                      atomic_inc_unchecked(&ATM_SKB(skb)->vcc->stats->tx);
+                       fs_dprintk (FS_DEBUG_TXMEM, "i");
+                       fs_dprintk (FS_DEBUG_ALLOC, "Free t-skb: %p\n", skb);
+@@ -815,7 +815,7 @@ static void process_incoming (struct fs_dev *dev, struct queue *q)
+ #endif
+                               skb_put (skb, qe->p1 & 0xffff); 
+                               ATM_SKB(skb)->vcc = atm_vcc;
+-                              atomic_inc(&atm_vcc->stats->rx);
++                              atomic_inc_unchecked(&atm_vcc->stats->rx);
+                               __net_timestamp(skb);
+                               fs_dprintk (FS_DEBUG_ALLOC, "Free rec-skb: %p (pushed)\n", skb);
+                               atm_vcc->push (atm_vcc, skb);
+@@ -836,12 +836,12 @@ static void process_incoming (struct fs_dev *dev, struct queue *q)
+                               kfree (pe);
+                       }
+                       if (atm_vcc)
+-                              atomic_inc(&atm_vcc->stats->rx_drop);
++                              atomic_inc_unchecked(&atm_vcc->stats->rx_drop);
+                       break;
+               case 0x1f: /*  Reassembly abort: no buffers. */
+                       /* Silently increment error counter. */
+                       if (atm_vcc)
+-                              atomic_inc(&atm_vcc->stats->rx_drop);
++                              atomic_inc_unchecked(&atm_vcc->stats->rx_drop);
+                       break;
+               default: /* Hmm. Haven't written the code to handle the others yet... -- REW */
+                       printk (KERN_WARNING "Don't know what to do with RX status %x: %s.\n", 
+diff --git a/drivers/atm/fore200e.c b/drivers/atm/fore200e.c
+index f766cc4..a34002e 100644
+--- a/drivers/atm/fore200e.c
++++ b/drivers/atm/fore200e.c
+@@ -931,9 +931,9 @@ fore200e_tx_irq(struct fore200e* fore200e)
+ #endif
+               /* check error condition */
+               if (*entry->status & STATUS_ERROR)
+-                  atomic_inc(&vcc->stats->tx_err);
++                  atomic_inc_unchecked(&vcc->stats->tx_err);
+               else
+-                  atomic_inc(&vcc->stats->tx);
++                  atomic_inc_unchecked(&vcc->stats->tx);
+           }
+       }
+@@ -1082,7 +1082,7 @@ fore200e_push_rpd(struct fore200e* fore200e, struct atm_vcc* vcc, struct rpd* rp
+     if (skb == NULL) {
+       DPRINTK(2, "unable to alloc new skb, rx PDU length = %d\n", pdu_len);
+-      atomic_inc(&vcc->stats->rx_drop);
++      atomic_inc_unchecked(&vcc->stats->rx_drop);
+       return -ENOMEM;
+     } 
+@@ -1125,14 +1125,14 @@ fore200e_push_rpd(struct fore200e* fore200e, struct atm_vcc* vcc, struct rpd* rp
+       dev_kfree_skb_any(skb);
+-      atomic_inc(&vcc->stats->rx_drop);
++      atomic_inc_unchecked(&vcc->stats->rx_drop);
+       return -ENOMEM;
+     }
+     ASSERT(atomic_read(&sk_atm(vcc)->sk_wmem_alloc) >= 0);
+     vcc->push(vcc, skb);
+-    atomic_inc(&vcc->stats->rx);
++    atomic_inc_unchecked(&vcc->stats->rx);
+     ASSERT(atomic_read(&sk_atm(vcc)->sk_wmem_alloc) >= 0);
+@@ -1210,7 +1210,7 @@ fore200e_rx_irq(struct fore200e* fore200e)
+               DPRINTK(2, "damaged PDU on %d.%d.%d\n",
+                       fore200e->atm_dev->number,
+                       entry->rpd->atm_header.vpi, entry->rpd->atm_header.vci);
+-              atomic_inc(&vcc->stats->rx_err);
++              atomic_inc_unchecked(&vcc->stats->rx_err);
+           }
+       }
+@@ -1655,7 +1655,7 @@ fore200e_send(struct atm_vcc *vcc, struct sk_buff *skb)
+               goto retry_here;
+           }
+-          atomic_inc(&vcc->stats->tx_err);
++          atomic_inc_unchecked(&vcc->stats->tx_err);
+           fore200e->tx_sat++;
+           DPRINTK(2, "tx queue of device %s is saturated, PDU dropped - heartbeat is %08x\n",
+diff --git a/drivers/atm/he.c b/drivers/atm/he.c
+index 7066703..2b130de 100644
+--- a/drivers/atm/he.c
++++ b/drivers/atm/he.c
+@@ -1769,7 +1769,7 @@ he_service_rbrq(struct he_dev *he_dev, int group)
+               if (RBRQ_HBUF_ERR(he_dev->rbrq_head)) {
+                       hprintk("HBUF_ERR!  (cid 0x%x)\n", cid);
+-                              atomic_inc(&vcc->stats->rx_drop);
++                              atomic_inc_unchecked(&vcc->stats->rx_drop);
+                       goto return_host_buffers;
+               }
+@@ -1802,7 +1802,7 @@ he_service_rbrq(struct he_dev *he_dev, int group)
+                               RBRQ_LEN_ERR(he_dev->rbrq_head)
+                                                       ? "LEN_ERR" : "",
+                                                       vcc->vpi, vcc->vci);
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+                       goto return_host_buffers;
+               }
+@@ -1861,7 +1861,7 @@ he_service_rbrq(struct he_dev *he_dev, int group)
+               vcc->push(vcc, skb);
+               spin_lock(&he_dev->global_lock);
+-              atomic_inc(&vcc->stats->rx);
++              atomic_inc_unchecked(&vcc->stats->rx);
+ return_host_buffers:
+               ++pdus_assembled;
+@@ -2206,7 +2206,7 @@ __enqueue_tpd(struct he_dev *he_dev, struct he_tpd *tpd, unsigned cid)
+                                       tpd->vcc->pop(tpd->vcc, tpd->skb);
+                               else
+                                       dev_kfree_skb_any(tpd->skb);
+-                              atomic_inc(&tpd->vcc->stats->tx_err);
++                              atomic_inc_unchecked(&tpd->vcc->stats->tx_err);
+                       }
+                       pci_pool_free(he_dev->tpd_pool, tpd, TPD_ADDR(tpd->status));
+                       return;
+@@ -2618,7 +2618,7 @@ he_send(struct atm_vcc *vcc, struct sk_buff *skb)
+                       vcc->pop(vcc, skb);
+               else
+                       dev_kfree_skb_any(skb);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               return -EINVAL;
+       }
+@@ -2629,7 +2629,7 @@ he_send(struct atm_vcc *vcc, struct sk_buff *skb)
+                       vcc->pop(vcc, skb);
+               else
+                       dev_kfree_skb_any(skb);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               return -EINVAL;
+       }
+ #endif
+@@ -2641,7 +2641,7 @@ he_send(struct atm_vcc *vcc, struct sk_buff *skb)
+                       vcc->pop(vcc, skb);
+               else
+                       dev_kfree_skb_any(skb);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               spin_unlock_irqrestore(&he_dev->global_lock, flags);
+               return -ENOMEM;
+       }
+@@ -2683,7 +2683,7 @@ he_send(struct atm_vcc *vcc, struct sk_buff *skb)
+                                       vcc->pop(vcc, skb);
+                               else
+                                       dev_kfree_skb_any(skb);
+-                              atomic_inc(&vcc->stats->tx_err);
++                              atomic_inc_unchecked(&vcc->stats->tx_err);
+                               spin_unlock_irqrestore(&he_dev->global_lock, flags);
+                               return -ENOMEM;
+                       }
+@@ -2714,7 +2714,7 @@ he_send(struct atm_vcc *vcc, struct sk_buff *skb)
+       __enqueue_tpd(he_dev, tpd, cid);
+       spin_unlock_irqrestore(&he_dev->global_lock, flags);
+-      atomic_inc(&vcc->stats->tx);
++      atomic_inc_unchecked(&vcc->stats->tx);
+       return 0;
+ }
+diff --git a/drivers/atm/horizon.c b/drivers/atm/horizon.c
+index 4e49021..01b1512 100644
+--- a/drivers/atm/horizon.c
++++ b/drivers/atm/horizon.c
+@@ -1033,7 +1033,7 @@ static void rx_schedule (hrz_dev * dev, int irq) {
+       {
+         struct atm_vcc * vcc = ATM_SKB(skb)->vcc;
+         // VC layer stats
+-        atomic_inc(&vcc->stats->rx);
++        atomic_inc_unchecked(&vcc->stats->rx);
+         __net_timestamp(skb);
+         // end of our responsability
+         vcc->push (vcc, skb);
+@@ -1185,7 +1185,7 @@ static void tx_schedule (hrz_dev * const dev, int irq) {
+       dev->tx_iovec = NULL;
+       
+       // VC layer stats
+-      atomic_inc(&ATM_SKB(skb)->vcc->stats->tx);
++      atomic_inc_unchecked(&ATM_SKB(skb)->vcc->stats->tx);
+       
+       // free the skb
+       hrz_kfree_skb (skb);
+diff --git a/drivers/atm/idt77252.c b/drivers/atm/idt77252.c
+index e33ae00..9deb4ab 100644
+--- a/drivers/atm/idt77252.c
++++ b/drivers/atm/idt77252.c
+@@ -810,7 +810,7 @@ drain_scq(struct idt77252_dev *card, struct vc_map *vc)
+               else
+                       dev_kfree_skb(skb);
+-              atomic_inc(&vcc->stats->tx);
++              atomic_inc_unchecked(&vcc->stats->tx);
+       }
+       atomic_dec(&scq->used);
+@@ -1073,13 +1073,13 @@ dequeue_rx(struct idt77252_dev *card, struct rsq_entry *rsqe)
+                       if ((sb = dev_alloc_skb(64)) == NULL) {
+                               printk("%s: Can't allocate buffers for aal0.\n",
+                                      card->name);
+-                              atomic_add(i, &vcc->stats->rx_drop);
++                              atomic_add_unchecked(i, &vcc->stats->rx_drop);
+                               break;
+                       }
+                       if (!atm_charge(vcc, sb->truesize)) {
+                               RXPRINTK("%s: atm_charge() dropped aal0 packets.\n",
+                                        card->name);
+-                              atomic_add(i - 1, &vcc->stats->rx_drop);
++                              atomic_add_unchecked(i - 1, &vcc->stats->rx_drop);
+                               dev_kfree_skb(sb);
+                               break;
+                       }
+@@ -1096,7 +1096,7 @@ dequeue_rx(struct idt77252_dev *card, struct rsq_entry *rsqe)
+                       ATM_SKB(sb)->vcc = vcc;
+                       __net_timestamp(sb);
+                       vcc->push(vcc, sb);
+-                      atomic_inc(&vcc->stats->rx);
++                      atomic_inc_unchecked(&vcc->stats->rx);
+                       cell += ATM_CELL_PAYLOAD;
+               }
+@@ -1133,13 +1133,13 @@ dequeue_rx(struct idt77252_dev *card, struct rsq_entry *rsqe)
+                                "(CDC: %08x)\n",
+                                card->name, len, rpp->len, readl(SAR_REG_CDC));
+                       recycle_rx_pool_skb(card, rpp);
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+                       return;
+               }
+               if (stat & SAR_RSQE_CRC) {
+                       RXPRINTK("%s: AAL5 CRC error.\n", card->name);
+                       recycle_rx_pool_skb(card, rpp);
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+                       return;
+               }
+               if (skb_queue_len(&rpp->queue) > 1) {
+@@ -1150,7 +1150,7 @@ dequeue_rx(struct idt77252_dev *card, struct rsq_entry *rsqe)
+                               RXPRINTK("%s: Can't alloc RX skb.\n",
+                                        card->name);
+                               recycle_rx_pool_skb(card, rpp);
+-                              atomic_inc(&vcc->stats->rx_err);
++                              atomic_inc_unchecked(&vcc->stats->rx_err);
+                               return;
+                       }
+                       if (!atm_charge(vcc, skb->truesize)) {
+@@ -1169,7 +1169,7 @@ dequeue_rx(struct idt77252_dev *card, struct rsq_entry *rsqe)
+                       __net_timestamp(skb);
+                       vcc->push(vcc, skb);
+-                      atomic_inc(&vcc->stats->rx);
++                      atomic_inc_unchecked(&vcc->stats->rx);
+                       return;
+               }
+@@ -1191,7 +1191,7 @@ dequeue_rx(struct idt77252_dev *card, struct rsq_entry *rsqe)
+               __net_timestamp(skb);
+               vcc->push(vcc, skb);
+-              atomic_inc(&vcc->stats->rx);
++              atomic_inc_unchecked(&vcc->stats->rx);
+               if (skb->truesize > SAR_FB_SIZE_3)
+                       add_rx_skb(card, 3, SAR_FB_SIZE_3, 1);
+@@ -1303,14 +1303,14 @@ idt77252_rx_raw(struct idt77252_dev *card)
+               if (vcc->qos.aal != ATM_AAL0) {
+                       RPRINTK("%s: raw cell for non AAL0 vc %u.%u\n",
+                               card->name, vpi, vci);
+-                      atomic_inc(&vcc->stats->rx_drop);
++                      atomic_inc_unchecked(&vcc->stats->rx_drop);
+                       goto drop;
+               }
+       
+               if ((sb = dev_alloc_skb(64)) == NULL) {
+                       printk("%s: Can't allocate buffers for AAL0.\n",
+                              card->name);
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+                       goto drop;
+               }
+@@ -1329,7 +1329,7 @@ idt77252_rx_raw(struct idt77252_dev *card)
+               ATM_SKB(sb)->vcc = vcc;
+               __net_timestamp(sb);
+               vcc->push(vcc, sb);
+-              atomic_inc(&vcc->stats->rx);
++              atomic_inc_unchecked(&vcc->stats->rx);
+ drop:
+               skb_pull(queue, 64);
+@@ -1954,13 +1954,13 @@ idt77252_send_skb(struct atm_vcc *vcc, struct sk_buff *skb, int oam)
+       if (vc == NULL) {
+               printk("%s: NULL connection in send().\n", card->name);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               dev_kfree_skb(skb);
+               return -EINVAL;
+       }
+       if (!test_bit(VCF_TX, &vc->flags)) {
+               printk("%s: Trying to transmit on a non-tx VC.\n", card->name);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               dev_kfree_skb(skb);
+               return -EINVAL;
+       }
+@@ -1972,14 +1972,14 @@ idt77252_send_skb(struct atm_vcc *vcc, struct sk_buff *skb, int oam)
+               break;
+       default:
+               printk("%s: Unsupported AAL: %d\n", card->name, vcc->qos.aal);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               dev_kfree_skb(skb);
+               return -EINVAL;
+       }
+       if (skb_shinfo(skb)->nr_frags != 0) {
+               printk("%s: No scatter-gather yet.\n", card->name);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               dev_kfree_skb(skb);
+               return -EINVAL;
+       }
+@@ -1987,7 +1987,7 @@ idt77252_send_skb(struct atm_vcc *vcc, struct sk_buff *skb, int oam)
+       err = queue_skb(card, vc, skb, oam);
+       if (err) {
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               dev_kfree_skb(skb);
+               return err;
+       }
+@@ -2010,7 +2010,7 @@ idt77252_send_oam(struct atm_vcc *vcc, void *cell, int flags)
+       skb = dev_alloc_skb(64);
+       if (!skb) {
+               printk("%s: Out of memory in send_oam().\n", card->name);
+-              atomic_inc(&vcc->stats->tx_err);
++              atomic_inc_unchecked(&vcc->stats->tx_err);
+               return -ENOMEM;
+       }
+       atomic_add(skb->truesize, &sk_atm(vcc)->sk_wmem_alloc);
+diff --git a/drivers/atm/iphase.c b/drivers/atm/iphase.c
+index b2c1b37..faa672b 100644
+--- a/drivers/atm/iphase.c
++++ b/drivers/atm/iphase.c
+@@ -1123,7 +1123,7 @@ static int rx_pkt(struct atm_dev *dev)
+       status = (u_short) (buf_desc_ptr->desc_mode);  
+       if (status & (RX_CER | RX_PTE | RX_OFL))  
+       {  
+-                atomic_inc(&vcc->stats->rx_err);
++                atomic_inc_unchecked(&vcc->stats->rx_err);
+               IF_ERR(printk("IA: bad packet, dropping it");)  
+                 if (status & RX_CER) { 
+                     IF_ERR(printk(" cause: packet CRC error\n");)
+@@ -1146,7 +1146,7 @@ static int rx_pkt(struct atm_dev *dev)
+       len = dma_addr - buf_addr;  
+         if (len > iadev->rx_buf_sz) {
+            printk("Over %d bytes sdu received, dropped!!!\n", iadev->rx_buf_sz);
+-           atomic_inc(&vcc->stats->rx_err);
++           atomic_inc_unchecked(&vcc->stats->rx_err);
+          goto out_free_desc;
+         }
+                 
+@@ -1296,7 +1296,7 @@ static void rx_dle_intr(struct atm_dev *dev)
+           ia_vcc = INPH_IA_VCC(vcc);
+           if (ia_vcc == NULL)
+           {
+-             atomic_inc(&vcc->stats->rx_err);
++             atomic_inc_unchecked(&vcc->stats->rx_err);
+              dev_kfree_skb_any(skb);
+              atm_return(vcc, atm_guess_pdu2truesize(len));
+              goto INCR_DLE;
+@@ -1308,7 +1308,7 @@ static void rx_dle_intr(struct atm_dev *dev)
+           if ((length > iadev->rx_buf_sz) || (length > 
+                               (skb->len - sizeof(struct cpcs_trailer))))
+           {
+-             atomic_inc(&vcc->stats->rx_err);
++             atomic_inc_unchecked(&vcc->stats->rx_err);
+              IF_ERR(printk("rx_dle_intr: Bad  AAL5 trailer %d (skb len %d)", 
+                                                             length, skb->len);)
+              dev_kfree_skb_any(skb);
+@@ -1324,7 +1324,7 @@ static void rx_dle_intr(struct atm_dev *dev)
+         IF_RX(printk("rx_dle_intr: skb push");)  
+         vcc->push(vcc,skb);  
+-        atomic_inc(&vcc->stats->rx);
++        atomic_inc_unchecked(&vcc->stats->rx);
+           iadev->rx_pkt_cnt++;
+       }  
+ INCR_DLE:
+@@ -2806,15 +2806,15 @@ static int ia_ioctl(struct atm_dev *dev, unsigned int cmd, void __user *arg)
+          {
+              struct k_sonet_stats *stats;
+              stats = &PRIV(_ia_dev[board])->sonet_stats;
+-             printk("section_bip: %d\n", atomic_read(&stats->section_bip));
+-             printk("line_bip   : %d\n", atomic_read(&stats->line_bip));
+-             printk("path_bip   : %d\n", atomic_read(&stats->path_bip));
+-             printk("line_febe  : %d\n", atomic_read(&stats->line_febe));
+-             printk("path_febe  : %d\n", atomic_read(&stats->path_febe));
+-             printk("corr_hcs   : %d\n", atomic_read(&stats->corr_hcs));
+-             printk("uncorr_hcs : %d\n", atomic_read(&stats->uncorr_hcs));
+-             printk("tx_cells   : %d\n", atomic_read(&stats->tx_cells));
+-             printk("rx_cells   : %d\n", atomic_read(&stats->rx_cells));
++             printk("section_bip: %d\n", atomic_read_unchecked(&stats->section_bip));
++             printk("line_bip   : %d\n", atomic_read_unchecked(&stats->line_bip));
++             printk("path_bip   : %d\n", atomic_read_unchecked(&stats->path_bip));
++             printk("line_febe  : %d\n", atomic_read_unchecked(&stats->line_febe));
++             printk("path_febe  : %d\n", atomic_read_unchecked(&stats->path_febe));
++             printk("corr_hcs   : %d\n", atomic_read_unchecked(&stats->corr_hcs));
++             printk("uncorr_hcs : %d\n", atomic_read_unchecked(&stats->uncorr_hcs));
++             printk("tx_cells   : %d\n", atomic_read_unchecked(&stats->tx_cells));
++             printk("rx_cells   : %d\n", atomic_read_unchecked(&stats->rx_cells));
+          }
+             ia_cmds.status = 0;
+             break;
+@@ -2919,7 +2919,7 @@ static int ia_pkt_tx (struct atm_vcc *vcc, struct sk_buff *skb) {
+       if ((desc == 0) || (desc > iadev->num_tx_desc))  
+       {  
+               IF_ERR(printk(DEV_LABEL "invalid desc for send: %d\n", desc);) 
+-                atomic_inc(&vcc->stats->tx);
++                atomic_inc_unchecked(&vcc->stats->tx);
+               if (vcc->pop)   
+                   vcc->pop(vcc, skb);   
+               else  
+@@ -3024,14 +3024,14 @@ static int ia_pkt_tx (struct atm_vcc *vcc, struct sk_buff *skb) {
+         ATM_DESC(skb) = vcc->vci;
+         skb_queue_tail(&iadev->tx_dma_q, skb);
+-        atomic_inc(&vcc->stats->tx);
++        atomic_inc_unchecked(&vcc->stats->tx);
+         iadev->tx_pkt_cnt++;
+       /* Increment transaction counter */  
+       writel(2, iadev->dma+IPHASE5575_TX_COUNTER);  
+         
+ #if 0        
+         /* add flow control logic */ 
+-        if (atomic_read(&vcc->stats->tx) % 20 == 0) {
++        if (atomic_read_unchecked(&vcc->stats->tx) % 20 == 0) {
+           if (iavcc->vc_desc_cnt > 10) {
+              vcc->tx_quota =  vcc->tx_quota * 3 / 4;
+             printk("Tx1:  vcc->tx_quota = %d \n", (u32)vcc->tx_quota );
+diff --git a/drivers/atm/lanai.c b/drivers/atm/lanai.c
+index cf97c34..8d30655 100644
+--- a/drivers/atm/lanai.c
++++ b/drivers/atm/lanai.c
+@@ -1305,7 +1305,7 @@ static void lanai_send_one_aal5(struct lanai_dev *lanai,
+       vcc_tx_add_aal5_trailer(lvcc, skb->len, 0, 0);
+       lanai_endtx(lanai, lvcc);
+       lanai_free_skb(lvcc->tx.atmvcc, skb);
+-      atomic_inc(&lvcc->tx.atmvcc->stats->tx);
++      atomic_inc_unchecked(&lvcc->tx.atmvcc->stats->tx);
+ }
+ /* Try to fill the buffer - don't call unless there is backlog */
+@@ -1428,7 +1428,7 @@ static void vcc_rx_aal5(struct lanai_vcc *lvcc, int endptr)
+       ATM_SKB(skb)->vcc = lvcc->rx.atmvcc;
+       __net_timestamp(skb);
+       lvcc->rx.atmvcc->push(lvcc->rx.atmvcc, skb);
+-      atomic_inc(&lvcc->rx.atmvcc->stats->rx);
++      atomic_inc_unchecked(&lvcc->rx.atmvcc->stats->rx);
+     out:
+       lvcc->rx.buf.ptr = end;
+       cardvcc_write(lvcc, endptr, vcc_rxreadptr);
+@@ -1670,7 +1670,7 @@ static int handle_service(struct lanai_dev *lanai, u32 s)
+               DPRINTK("(itf %d) got RX service entry 0x%X for non-AAL5 "
+                   "vcc %d\n", lanai->number, (unsigned int) s, vci);
+               lanai->stats.service_rxnotaal5++;
+-              atomic_inc(&lvcc->rx.atmvcc->stats->rx_err);
++              atomic_inc_unchecked(&lvcc->rx.atmvcc->stats->rx_err);
+               return 0;
+       }
+       if (likely(!(s & (SERVICE_TRASH | SERVICE_STREAM | SERVICE_CRCERR)))) {
+@@ -1682,7 +1682,7 @@ static int handle_service(struct lanai_dev *lanai, u32 s)
+               int bytes;
+               read_unlock(&vcc_sklist_lock);
+               DPRINTK("got trashed rx pdu on vci %d\n", vci);
+-              atomic_inc(&lvcc->rx.atmvcc->stats->rx_err);
++              atomic_inc_unchecked(&lvcc->rx.atmvcc->stats->rx_err);
+               lvcc->stats.x.aal5.service_trash++;
+               bytes = (SERVICE_GET_END(s) * 16) -
+                   (((unsigned long) lvcc->rx.buf.ptr) -
+@@ -1694,7 +1694,7 @@ static int handle_service(struct lanai_dev *lanai, u32 s)
+       }
+       if (s & SERVICE_STREAM) {
+               read_unlock(&vcc_sklist_lock);
+-              atomic_inc(&lvcc->rx.atmvcc->stats->rx_err);
++              atomic_inc_unchecked(&lvcc->rx.atmvcc->stats->rx_err);
+               lvcc->stats.x.aal5.service_stream++;
+               printk(KERN_ERR DEV_LABEL "(itf %d): Got AAL5 stream "
+                   "PDU on VCI %d!\n", lanai->number, vci);
+@@ -1702,7 +1702,7 @@ static int handle_service(struct lanai_dev *lanai, u32 s)
+               return 0;
+       }
+       DPRINTK("got rx crc error on vci %d\n", vci);
+-      atomic_inc(&lvcc->rx.atmvcc->stats->rx_err);
++      atomic_inc_unchecked(&lvcc->rx.atmvcc->stats->rx_err);
+       lvcc->stats.x.aal5.service_rxcrc++;
+       lvcc->rx.buf.ptr = &lvcc->rx.buf.start[SERVICE_GET_END(s) * 4];
+       cardvcc_write(lvcc, SERVICE_GET_END(s), vcc_rxreadptr);
+diff --git a/drivers/atm/nicstar.c b/drivers/atm/nicstar.c
+index 3da804b..d3b0eed 100644
+--- a/drivers/atm/nicstar.c
++++ b/drivers/atm/nicstar.c
+@@ -1723,7 +1723,7 @@ static int ns_send(struct atm_vcc *vcc, struct sk_buff *skb)
+    if ((vc = (vc_map *) vcc->dev_data) == NULL)
+    {
+       printk("nicstar%d: vcc->dev_data == NULL on ns_send().\n", card->index);
+-      atomic_inc(&vcc->stats->tx_err);
++      atomic_inc_unchecked(&vcc->stats->tx_err);
+       dev_kfree_skb_any(skb);
+       return -EINVAL;
+    }
+@@ -1731,7 +1731,7 @@ static int ns_send(struct atm_vcc *vcc, struct sk_buff *skb)
+    if (!vc->tx)
+    {
+       printk("nicstar%d: Trying to transmit on a non-tx VC.\n", card->index);
+-      atomic_inc(&vcc->stats->tx_err);
++      atomic_inc_unchecked(&vcc->stats->tx_err);
+       dev_kfree_skb_any(skb);
+       return -EINVAL;
+    }
+@@ -1739,7 +1739,7 @@ static int ns_send(struct atm_vcc *vcc, struct sk_buff *skb)
+    if (vcc->qos.aal != ATM_AAL5 && vcc->qos.aal != ATM_AAL0)
+    {
+       printk("nicstar%d: Only AAL0 and AAL5 are supported.\n", card->index);
+-      atomic_inc(&vcc->stats->tx_err);
++      atomic_inc_unchecked(&vcc->stats->tx_err);
+       dev_kfree_skb_any(skb);
+       return -EINVAL;
+    }
+@@ -1747,7 +1747,7 @@ static int ns_send(struct atm_vcc *vcc, struct sk_buff *skb)
+    if (skb_shinfo(skb)->nr_frags != 0)
+    {
+       printk("nicstar%d: No scatter-gather yet.\n", card->index);
+-      atomic_inc(&vcc->stats->tx_err);
++      atomic_inc_unchecked(&vcc->stats->tx_err);
+       dev_kfree_skb_any(skb);
+       return -EINVAL;
+    }
+@@ -1792,11 +1792,11 @@ static int ns_send(struct atm_vcc *vcc, struct sk_buff *skb)
+    if (push_scqe(card, vc, scq, &scqe, skb) != 0)
+    {
+-      atomic_inc(&vcc->stats->tx_err);
++      atomic_inc_unchecked(&vcc->stats->tx_err);
+       dev_kfree_skb_any(skb);
+       return -EIO;
+    }
+-   atomic_inc(&vcc->stats->tx);
++   atomic_inc_unchecked(&vcc->stats->tx);
+    return 0;
+ }
+@@ -2111,14 +2111,14 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+          {
+             printk("nicstar%d: Can't allocate buffers for aal0.\n",
+                    card->index);
+-            atomic_add(i,&vcc->stats->rx_drop);
++            atomic_add_unchecked(i,&vcc->stats->rx_drop);
+             break;
+          }
+          if (!atm_charge(vcc, sb->truesize))
+          {
+             RXPRINTK("nicstar%d: atm_charge() dropped aal0 packets.\n",
+                      card->index);
+-            atomic_add(i-1,&vcc->stats->rx_drop); /* already increased by 1 */
++            atomic_add_unchecked(i-1,&vcc->stats->rx_drop); /* already increased by 1 */
+             dev_kfree_skb_any(sb);
+             break;
+          }
+@@ -2133,7 +2133,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+          ATM_SKB(sb)->vcc = vcc;
+        __net_timestamp(sb);
+          vcc->push(vcc, sb);
+-         atomic_inc(&vcc->stats->rx);
++         atomic_inc_unchecked(&vcc->stats->rx);
+          cell += ATM_CELL_PAYLOAD;
+       }
+@@ -2152,7 +2152,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+        if (iovb == NULL)
+        {
+           printk("nicstar%d: Out of iovec buffers.\n", card->index);
+-            atomic_inc(&vcc->stats->rx_drop);
++            atomic_inc_unchecked(&vcc->stats->rx_drop);
+             recycle_rx_buf(card, skb);
+             return;
+        }
+@@ -2182,7 +2182,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+    else if (NS_SKB(iovb)->iovcnt >= NS_MAX_IOVECS)
+    {
+       printk("nicstar%d: received too big AAL5 SDU.\n", card->index);
+-      atomic_inc(&vcc->stats->rx_err);
++      atomic_inc_unchecked(&vcc->stats->rx_err);
+       recycle_iovec_rx_bufs(card, (struct iovec *) iovb->data, NS_MAX_IOVECS);
+       NS_SKB(iovb)->iovcnt = 0;
+       iovb->len = 0;
+@@ -2202,7 +2202,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+          printk("nicstar%d: Expected a small buffer, and this is not one.\n",
+               card->index);
+          which_list(card, skb);
+-         atomic_inc(&vcc->stats->rx_err);
++         atomic_inc_unchecked(&vcc->stats->rx_err);
+          recycle_rx_buf(card, skb);
+          vc->rx_iov = NULL;
+          recycle_iov_buf(card, iovb);
+@@ -2216,7 +2216,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+          printk("nicstar%d: Expected a large buffer, and this is not one.\n",
+               card->index);
+          which_list(card, skb);
+-         atomic_inc(&vcc->stats->rx_err);
++         atomic_inc_unchecked(&vcc->stats->rx_err);
+          recycle_iovec_rx_bufs(card, (struct iovec *) iovb->data,
+                              NS_SKB(iovb)->iovcnt);
+          vc->rx_iov = NULL;
+@@ -2240,7 +2240,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+             printk(" - PDU size mismatch.\n");
+          else
+             printk(".\n");
+-         atomic_inc(&vcc->stats->rx_err);
++         atomic_inc_unchecked(&vcc->stats->rx_err);
+          recycle_iovec_rx_bufs(card, (struct iovec *) iovb->data,
+          NS_SKB(iovb)->iovcnt);
+        vc->rx_iov = NULL;
+@@ -2256,7 +2256,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+          if (!atm_charge(vcc, skb->truesize))
+          {
+             push_rxbufs(card, skb);
+-            atomic_inc(&vcc->stats->rx_drop);
++            atomic_inc_unchecked(&vcc->stats->rx_drop);
+          }
+          else
+        {
+@@ -2268,7 +2268,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+             ATM_SKB(skb)->vcc = vcc;
+           __net_timestamp(skb);
+             vcc->push(vcc, skb);
+-            atomic_inc(&vcc->stats->rx);
++            atomic_inc_unchecked(&vcc->stats->rx);
+          }
+       }
+       else if (NS_SKB(iovb)->iovcnt == 2)     /* One small plus one large buffer */
+@@ -2283,7 +2283,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+             if (!atm_charge(vcc, sb->truesize))
+             {
+                push_rxbufs(card, sb);
+-               atomic_inc(&vcc->stats->rx_drop);
++               atomic_inc_unchecked(&vcc->stats->rx_drop);
+             }
+             else
+           {
+@@ -2295,7 +2295,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+                ATM_SKB(sb)->vcc = vcc;
+              __net_timestamp(sb);
+                vcc->push(vcc, sb);
+-               atomic_inc(&vcc->stats->rx);
++               atomic_inc_unchecked(&vcc->stats->rx);
+             }
+             push_rxbufs(card, skb);
+@@ -2306,7 +2306,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+             if (!atm_charge(vcc, skb->truesize))
+             {
+                push_rxbufs(card, skb);
+-               atomic_inc(&vcc->stats->rx_drop);
++               atomic_inc_unchecked(&vcc->stats->rx_drop);
+             }
+             else
+             {
+@@ -2320,7 +2320,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+                ATM_SKB(skb)->vcc = vcc;
+              __net_timestamp(skb);
+                vcc->push(vcc, skb);
+-               atomic_inc(&vcc->stats->rx);
++               atomic_inc_unchecked(&vcc->stats->rx);
+             }
+             push_rxbufs(card, sb);
+@@ -2342,7 +2342,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+             if (hb == NULL)
+             {
+                printk("nicstar%d: Out of huge buffers.\n", card->index);
+-               atomic_inc(&vcc->stats->rx_drop);
++               atomic_inc_unchecked(&vcc->stats->rx_drop);
+                recycle_iovec_rx_bufs(card, (struct iovec *) iovb->data,
+                                    NS_SKB(iovb)->iovcnt);
+                vc->rx_iov = NULL;
+@@ -2393,7 +2393,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+             }
+           else
+              dev_kfree_skb_any(hb);
+-          atomic_inc(&vcc->stats->rx_drop);
++          atomic_inc_unchecked(&vcc->stats->rx_drop);
+          }
+          else
+        {
+@@ -2427,7 +2427,7 @@ static void dequeue_rx(ns_dev *card, ns_rsqe *rsqe)
+ #endif /* NS_USE_DESTRUCTORS */
+           __net_timestamp(hb);
+             vcc->push(vcc, hb);
+-            atomic_inc(&vcc->stats->rx);
++            atomic_inc_unchecked(&vcc->stats->rx);
+          }
+       }
+diff --git a/drivers/atm/solos-pci.c b/drivers/atm/solos-pci.c
+index 84c93ff..e6ed269 100644
+--- a/drivers/atm/solos-pci.c
++++ b/drivers/atm/solos-pci.c
+@@ -708,7 +708,7 @@ void solos_bh(unsigned long card_arg)
+                               }
+                               atm_charge(vcc, skb->truesize);
+                               vcc->push(vcc, skb);
+-                              atomic_inc(&vcc->stats->rx);
++                              atomic_inc_unchecked(&vcc->stats->rx);
+                               break;
+                       case PKT_STATUS:
+@@ -914,6 +914,8 @@ static int print_buffer(struct sk_buff *buf)
+       char msg[500];
+       char item[10];
++      pax_track_stack();
++
+       len = buf->len;
+       for (i = 0; i < len; i++){
+               if(i % 8 == 0)
+@@ -1023,7 +1025,7 @@ static uint32_t fpga_tx(struct solos_card *card)
+                       vcc = SKB_CB(oldskb)->vcc;
+                       if (vcc) {
+-                              atomic_inc(&vcc->stats->tx);
++                              atomic_inc_unchecked(&vcc->stats->tx);
+                               solos_pop(vcc, oldskb);
+                       } else
+                               dev_kfree_skb_irq(oldskb);
+diff --git a/drivers/atm/suni.c b/drivers/atm/suni.c
+index 6dd3f59..ee377f3 100644
+--- a/drivers/atm/suni.c
++++ b/drivers/atm/suni.c
+@@ -49,8 +49,8 @@ static DEFINE_SPINLOCK(sunis_lock);
+ #define ADD_LIMITED(s,v) \
+-    atomic_add((v),&stats->s); \
+-    if (atomic_read(&stats->s) < 0) atomic_set(&stats->s,INT_MAX);
++    atomic_add_unchecked((v),&stats->s); \
++    if (atomic_read_unchecked(&stats->s) < 0) atomic_set_unchecked(&stats->s,INT_MAX);
+ static void suni_hz(unsigned long from_timer)
+diff --git a/drivers/atm/uPD98402.c b/drivers/atm/uPD98402.c
+index fc8cb07..4a80e53 100644
+--- a/drivers/atm/uPD98402.c
++++ b/drivers/atm/uPD98402.c
+@@ -41,7 +41,7 @@ static int fetch_stats(struct atm_dev *dev,struct sonet_stats __user *arg,int ze
+       struct sonet_stats tmp;
+       int error = 0;
+-      atomic_add(GET(HECCT),&PRIV(dev)->sonet_stats.uncorr_hcs);
++      atomic_add_unchecked(GET(HECCT),&PRIV(dev)->sonet_stats.uncorr_hcs);
+       sonet_copy_stats(&PRIV(dev)->sonet_stats,&tmp);
+       if (arg) error = copy_to_user(arg,&tmp,sizeof(tmp));
+       if (zero && !error) {
+@@ -160,9 +160,9 @@ static int uPD98402_ioctl(struct atm_dev *dev,unsigned int cmd,void __user *arg)
+ #define ADD_LIMITED(s,v) \
+-    { atomic_add(GET(v),&PRIV(dev)->sonet_stats.s); \
+-    if (atomic_read(&PRIV(dev)->sonet_stats.s) < 0) \
+-      atomic_set(&PRIV(dev)->sonet_stats.s,INT_MAX); }
++    { atomic_add_unchecked(GET(v),&PRIV(dev)->sonet_stats.s); \
++    if (atomic_read_unchecked(&PRIV(dev)->sonet_stats.s) < 0) \
++      atomic_set_unchecked(&PRIV(dev)->sonet_stats.s,INT_MAX); }
+ static void stat_event(struct atm_dev *dev)
+@@ -193,7 +193,7 @@ static void uPD98402_int(struct atm_dev *dev)
+               if (reason & uPD98402_INT_PFM) stat_event(dev);
+               if (reason & uPD98402_INT_PCO) {
+                       (void) GET(PCOCR); /* clear interrupt cause */
+-                      atomic_add(GET(HECCT),
++                      atomic_add_unchecked(GET(HECCT),
+                           &PRIV(dev)->sonet_stats.uncorr_hcs);
+               }
+               if ((reason & uPD98402_INT_RFO) && 
+@@ -221,9 +221,9 @@ static int uPD98402_start(struct atm_dev *dev)
+       PUT(~(uPD98402_INT_PFM | uPD98402_INT_ALM | uPD98402_INT_RFO |
+         uPD98402_INT_LOS),PIMR); /* enable them */
+       (void) fetch_stats(dev,NULL,1); /* clear kernel counters */
+-      atomic_set(&PRIV(dev)->sonet_stats.corr_hcs,-1);
+-      atomic_set(&PRIV(dev)->sonet_stats.tx_cells,-1);
+-      atomic_set(&PRIV(dev)->sonet_stats.rx_cells,-1);
++      atomic_set_unchecked(&PRIV(dev)->sonet_stats.corr_hcs,-1);
++      atomic_set_unchecked(&PRIV(dev)->sonet_stats.tx_cells,-1);
++      atomic_set_unchecked(&PRIV(dev)->sonet_stats.rx_cells,-1);
+       return 0;
+ }
+diff --git a/drivers/atm/zatm.c b/drivers/atm/zatm.c
+index 2e9635b..32927b4 100644
+--- a/drivers/atm/zatm.c
++++ b/drivers/atm/zatm.c
+@@ -458,7 +458,7 @@ printk("dummy: 0x%08lx, 0x%08lx\n",dummy[0],dummy[1]);
+               }
+               if (!size) {
+                       dev_kfree_skb_irq(skb);
+-                      if (vcc) atomic_inc(&vcc->stats->rx_err);
++                      if (vcc) atomic_inc_unchecked(&vcc->stats->rx_err);
+                       continue;
+               }
+               if (!atm_charge(vcc,skb->truesize)) {
+@@ -468,7 +468,7 @@ printk("dummy: 0x%08lx, 0x%08lx\n",dummy[0],dummy[1]);
+               skb->len = size;
+               ATM_SKB(skb)->vcc = vcc;
+               vcc->push(vcc,skb);
+-              atomic_inc(&vcc->stats->rx);
++              atomic_inc_unchecked(&vcc->stats->rx);
+       }
+       zout(pos & 0xffff,MTA(mbx));
+ #if 0 /* probably a stupid idea */
+@@ -732,7 +732,7 @@ if (*ZATM_PRV_DSC(skb) != (uPD98401_TXPD_V | uPD98401_TXPD_DP |
+                       skb_queue_head(&zatm_vcc->backlog,skb);
+                       break;
+               }
+-      atomic_inc(&vcc->stats->tx);
++      atomic_inc_unchecked(&vcc->stats->tx);
+       wake_up(&zatm_vcc->tx_wait);
+ }
+diff --git a/drivers/base/bus.c b/drivers/base/bus.c
+index 63c143e..fece183 100644
+--- a/drivers/base/bus.c
++++ b/drivers/base/bus.c
+@@ -70,7 +70,7 @@ static ssize_t drv_attr_store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static struct sysfs_ops driver_sysfs_ops = {
++static const struct sysfs_ops driver_sysfs_ops = {
+       .show   = drv_attr_show,
+       .store  = drv_attr_store,
+ };
+@@ -115,7 +115,7 @@ static ssize_t bus_attr_store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static struct sysfs_ops bus_sysfs_ops = {
++static const struct sysfs_ops bus_sysfs_ops = {
+       .show   = bus_attr_show,
+       .store  = bus_attr_store,
+ };
+@@ -154,7 +154,7 @@ static int bus_uevent_filter(struct kset *kset, struct kobject *kobj)
+       return 0;
+ }
+-static struct kset_uevent_ops bus_uevent_ops = {
++static const struct kset_uevent_ops bus_uevent_ops = {
+       .filter = bus_uevent_filter,
+ };
+diff --git a/drivers/base/class.c b/drivers/base/class.c
+index 6e2c3b0..cb61871 100644
+--- a/drivers/base/class.c
++++ b/drivers/base/class.c
+@@ -63,7 +63,7 @@ static void class_release(struct kobject *kobj)
+       kfree(cp);
+ }
+-static struct sysfs_ops class_sysfs_ops = {
++static const struct sysfs_ops class_sysfs_ops = {
+       .show   = class_attr_show,
+       .store  = class_attr_store,
+ };
+diff --git a/drivers/base/core.c b/drivers/base/core.c
+index f33d768..a9358d0 100644
+--- a/drivers/base/core.c
++++ b/drivers/base/core.c
+@@ -100,7 +100,7 @@ static ssize_t dev_attr_store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static struct sysfs_ops dev_sysfs_ops = {
++static const struct sysfs_ops dev_sysfs_ops = {
+       .show   = dev_attr_show,
+       .store  = dev_attr_store,
+ };
+@@ -252,7 +252,7 @@ static int dev_uevent(struct kset *kset, struct kobject *kobj,
+       return retval;
+ }
+-static struct kset_uevent_ops device_uevent_ops = {
++static const struct kset_uevent_ops device_uevent_ops = {
+       .filter =       dev_uevent_filter,
+       .name =         dev_uevent_name,
+       .uevent =       dev_uevent,
+diff --git a/drivers/base/memory.c b/drivers/base/memory.c
+index 989429c..2272b00 100644
+--- a/drivers/base/memory.c
++++ b/drivers/base/memory.c
+@@ -44,7 +44,7 @@ static int memory_uevent(struct kset *kset, struct kobject *obj, struct kobj_uev
+       return retval;
+ }
+-static struct kset_uevent_ops memory_uevent_ops = {
++static const struct kset_uevent_ops memory_uevent_ops = {
+       .name           = memory_uevent_name,
+       .uevent         = memory_uevent,
+ };
+diff --git a/drivers/base/sys.c b/drivers/base/sys.c
+index 3f202f7..61c4a6f 100644
+--- a/drivers/base/sys.c
++++ b/drivers/base/sys.c
+@@ -54,7 +54,7 @@ sysdev_store(struct kobject *kobj, struct attribute *attr,
+       return -EIO;
+ }
+-static struct sysfs_ops sysfs_ops = {
++static const struct sysfs_ops sysfs_ops = {
+       .show   = sysdev_show,
+       .store  = sysdev_store,
+ };
+@@ -104,7 +104,7 @@ static ssize_t sysdev_class_store(struct kobject *kobj, struct attribute *attr,
+       return -EIO;
+ }
+-static struct sysfs_ops sysfs_class_ops = {
++static const struct sysfs_ops sysfs_class_ops = {
+       .show   = sysdev_class_show,
+       .store  = sysdev_class_store,
+ };
+diff --git a/drivers/block/DAC960.c b/drivers/block/DAC960.c
+index eb4fa19..1954777 100644
+--- a/drivers/block/DAC960.c
++++ b/drivers/block/DAC960.c
+@@ -1973,6 +1973,8 @@ static bool DAC960_V1_ReadDeviceConfiguration(DAC960_Controller_T
+   unsigned long flags;
+   int Channel, TargetID;
++  pax_track_stack();
++
+   if (!init_dma_loaf(Controller->PCIDevice, &local_dma, 
+               DAC960_V1_MaxChannels*(sizeof(DAC960_V1_DCDB_T) +
+                       sizeof(DAC960_SCSI_Inquiry_T) +
+diff --git a/drivers/block/cciss.c b/drivers/block/cciss.c
+index 68b90d9..7e2e3f3 100644
+--- a/drivers/block/cciss.c
++++ b/drivers/block/cciss.c
+@@ -1011,6 +1011,8 @@ static int cciss_ioctl32_passthru(struct block_device *bdev, fmode_t mode,
+       int err;
+       u32 cp;
++      memset(&arg64, 0, sizeof(arg64));
++
+       err = 0;
+       err |=
+           copy_from_user(&arg64.LUN_info, &arg32->LUN_info,
+@@ -2852,7 +2854,7 @@ static unsigned long pollcomplete(int ctlr)
+       /* Wait (up to 20 seconds) for a command to complete */
+       for (i = 20 * HZ; i > 0; i--) {
+-              done = hba[ctlr]->access.command_completed(hba[ctlr]);
++              done = hba[ctlr]->access->command_completed(hba[ctlr]);
+               if (done == FIFO_EMPTY)
+                       schedule_timeout_uninterruptible(1);
+               else
+@@ -2876,7 +2878,7 @@ static int sendcmd_core(ctlr_info_t *h, CommandList_struct *c)
+ resend_cmd1:
+       /* Disable interrupt on the board. */
+-      h->access.set_intr_mask(h, CCISS_INTR_OFF);
++      h->access->set_intr_mask(h, CCISS_INTR_OFF);
+       /* Make sure there is room in the command FIFO */
+       /* Actually it should be completely empty at this time */
+@@ -2884,13 +2886,13 @@ resend_cmd1:
+       /* tape side of the driver. */
+       for (i = 200000; i > 0; i--) {
+               /* if fifo isn't full go */
+-              if (!(h->access.fifo_full(h)))
++              if (!(h->access->fifo_full(h)))
+                       break;
+               udelay(10);
+               printk(KERN_WARNING "cciss cciss%d: SendCmd FIFO full,"
+                      " waiting!\n", h->ctlr);
+       }
+-      h->access.submit_command(h, c); /* Send the cmd */
++      h->access->submit_command(h, c); /* Send the cmd */
+       do {
+               complete = pollcomplete(h->ctlr);
+@@ -3023,7 +3025,7 @@ static void start_io(ctlr_info_t *h)
+       while (!hlist_empty(&h->reqQ)) {
+               c = hlist_entry(h->reqQ.first, CommandList_struct, list);
+               /* can't do anything if fifo is full */
+-              if ((h->access.fifo_full(h))) {
++              if ((h->access->fifo_full(h))) {
+                       printk(KERN_WARNING "cciss: fifo full\n");
+                       break;
+               }
+@@ -3033,7 +3035,7 @@ static void start_io(ctlr_info_t *h)
+               h->Qdepth--;
+               /* Tell the controller execute command */
+-              h->access.submit_command(h, c);
++              h->access->submit_command(h, c);
+               /* Put job onto the completed Q */
+               addQ(&h->cmpQ, c);
+@@ -3393,17 +3395,17 @@ startio:
+ static inline unsigned long get_next_completion(ctlr_info_t *h)
+ {
+-      return h->access.command_completed(h);
++      return h->access->command_completed(h);
+ }
+ static inline int interrupt_pending(ctlr_info_t *h)
+ {
+-      return h->access.intr_pending(h);
++      return h->access->intr_pending(h);
+ }
+ static inline long interrupt_not_for_us(ctlr_info_t *h)
+ {
+-      return (((h->access.intr_pending(h) == 0) ||
++      return (((h->access->intr_pending(h) == 0) ||
+                (h->interrupts_enabled == 0)));
+ }
+@@ -3892,7 +3894,7 @@ static int __devinit cciss_pci_init(ctlr_info_t *c, struct pci_dev *pdev)
+        */
+       c->max_commands = readl(&(c->cfgtable->CmdsOutMax));
+       c->product_name = products[prod_index].product_name;
+-      c->access = *(products[prod_index].access);
++      c->access = products[prod_index].access;
+       c->nr_cmds = c->max_commands - 4;
+       if ((readb(&c->cfgtable->Signature[0]) != 'C') ||
+           (readb(&c->cfgtable->Signature[1]) != 'I') ||
+@@ -4291,7 +4293,7 @@ static int __devinit cciss_init_one(struct pci_dev *pdev,
+       }
+       /* make sure the board interrupts are off */
+-      hba[i]->access.set_intr_mask(hba[i], CCISS_INTR_OFF);
++      hba[i]->access->set_intr_mask(hba[i], CCISS_INTR_OFF);
+       if (request_irq(hba[i]->intr[SIMPLE_MODE_INT], do_cciss_intr,
+                       IRQF_DISABLED | IRQF_SHARED, hba[i]->devname, hba[i])) {
+               printk(KERN_ERR "cciss: Unable to get irq %d for %s\n",
+@@ -4341,7 +4343,7 @@ static int __devinit cciss_init_one(struct pci_dev *pdev,
+       cciss_scsi_setup(i);
+       /* Turn the interrupts on so we can service requests */
+-      hba[i]->access.set_intr_mask(hba[i], CCISS_INTR_ON);
++      hba[i]->access->set_intr_mask(hba[i], CCISS_INTR_ON);
+       /* Get the firmware version */
+       inq_buff = kzalloc(sizeof(InquiryData_struct), GFP_KERNEL);
+diff --git a/drivers/block/cciss.h b/drivers/block/cciss.h
+index 04d6bf8..36e712d 100644
+--- a/drivers/block/cciss.h
++++ b/drivers/block/cciss.h
+@@ -90,7 +90,7 @@ struct ctlr_info
+       // information about each logical volume
+       drive_info_struct *drv[CISS_MAX_LUN];
+-      struct access_method access;
++      struct access_method *access;
+       /* queue and queue Info */ 
+       struct hlist_head reqQ;
+diff --git a/drivers/block/cpqarray.c b/drivers/block/cpqarray.c
+index 6422651..bb1bdef 100644
+--- a/drivers/block/cpqarray.c
++++ b/drivers/block/cpqarray.c
+@@ -402,7 +402,7 @@ static int __init cpqarray_register_ctlr( int i, struct pci_dev *pdev)
+       if (register_blkdev(COMPAQ_SMART2_MAJOR+i, hba[i]->devname)) {
+               goto Enomem4;
+       }
+-      hba[i]->access.set_intr_mask(hba[i], 0);
++      hba[i]->access->set_intr_mask(hba[i], 0);
+       if (request_irq(hba[i]->intr, do_ida_intr,
+               IRQF_DISABLED|IRQF_SHARED, hba[i]->devname, hba[i]))
+       {
+@@ -460,7 +460,7 @@ static int __init cpqarray_register_ctlr( int i, struct pci_dev *pdev)
+       add_timer(&hba[i]->timer);
+       /* Enable IRQ now that spinlock and rate limit timer are set up */
+-      hba[i]->access.set_intr_mask(hba[i], FIFO_NOT_EMPTY);
++      hba[i]->access->set_intr_mask(hba[i], FIFO_NOT_EMPTY);
+       for(j=0; j<NWD; j++) {
+               struct gendisk *disk = ida_gendisk[i][j];
+@@ -695,7 +695,7 @@ DBGINFO(
+       for(i=0; i<NR_PRODUCTS; i++) {
+               if (board_id == products[i].board_id) {
+                       c->product_name = products[i].product_name;
+-                      c->access = *(products[i].access);
++                      c->access = products[i].access;
+                       break;
+               }
+       }
+@@ -793,7 +793,7 @@ static int __init cpqarray_eisa_detect(void)
+               hba[ctlr]->intr = intr;
+               sprintf(hba[ctlr]->devname, "ida%d", nr_ctlr);
+               hba[ctlr]->product_name = products[j].product_name;
+-              hba[ctlr]->access = *(products[j].access);
++              hba[ctlr]->access = products[j].access;
+               hba[ctlr]->ctlr = ctlr;
+               hba[ctlr]->board_id = board_id;
+               hba[ctlr]->pci_dev = NULL; /* not PCI */
+@@ -896,6 +896,8 @@ static void do_ida_request(struct request_queue *q)
+       struct scatterlist tmp_sg[SG_MAX];
+       int i, dir, seg;
++      pax_track_stack();
++
+       if (blk_queue_plugged(q))
+               goto startio;
+@@ -968,7 +970,7 @@ static void start_io(ctlr_info_t *h)
+       while((c = h->reqQ) != NULL) {
+               /* Can't do anything if we're busy */
+-              if (h->access.fifo_full(h) == 0)
++              if (h->access->fifo_full(h) == 0)
+                       return;
+               /* Get the first entry from the request Q */
+@@ -976,7 +978,7 @@ static void start_io(ctlr_info_t *h)
+               h->Qdepth--;
+       
+               /* Tell the controller to do our bidding */
+-              h->access.submit_command(h, c);
++              h->access->submit_command(h, c);
+               /* Get onto the completion Q */
+               addQ(&h->cmpQ, c);
+@@ -1038,7 +1040,7 @@ static irqreturn_t do_ida_intr(int irq, void *dev_id)
+       unsigned long flags;
+       __u32 a,a1;
+-      istat = h->access.intr_pending(h);
++      istat = h->access->intr_pending(h);
+       /* Is this interrupt for us? */
+       if (istat == 0)
+               return IRQ_NONE;
+@@ -1049,7 +1051,7 @@ static irqreturn_t do_ida_intr(int irq, void *dev_id)
+        */
+       spin_lock_irqsave(IDA_LOCK(h->ctlr), flags);
+       if (istat & FIFO_NOT_EMPTY) {
+-              while((a = h->access.command_completed(h))) {
++              while((a = h->access->command_completed(h))) {
+                       a1 = a; a &= ~3;
+                       if ((c = h->cmpQ) == NULL)
+                       {  
+@@ -1434,11 +1436,11 @@ static int sendcmd(
+       /*
+        * Disable interrupt
+        */
+-      info_p->access.set_intr_mask(info_p, 0);
++      info_p->access->set_intr_mask(info_p, 0);
+       /* Make sure there is room in the command FIFO */
+       /* Actually it should be completely empty at this time. */
+       for (i = 200000; i > 0; i--) {
+-              temp = info_p->access.fifo_full(info_p);
++              temp = info_p->access->fifo_full(info_p);
+               if (temp != 0) {
+                       break;
+               }
+@@ -1451,7 +1453,7 @@ DBG(
+       /*
+        * Send the cmd
+        */
+-      info_p->access.submit_command(info_p, c);
++      info_p->access->submit_command(info_p, c);
+       complete = pollcomplete(ctlr);
+       
+       pci_unmap_single(info_p->pci_dev, (dma_addr_t) c->req.sg[0].addr, 
+@@ -1534,9 +1536,9 @@ static int revalidate_allvol(ctlr_info_t *host)
+        * we check the new geometry.  Then turn interrupts back on when
+        * we're done.
+        */
+-      host->access.set_intr_mask(host, 0);
++      host->access->set_intr_mask(host, 0);
+       getgeometry(ctlr);
+-      host->access.set_intr_mask(host, FIFO_NOT_EMPTY);
++      host->access->set_intr_mask(host, FIFO_NOT_EMPTY);
+       for(i=0; i<NWD; i++) {
+               struct gendisk *disk = ida_gendisk[ctlr][i];
+@@ -1576,7 +1578,7 @@ static int pollcomplete(int ctlr)
+       /* Wait (up to 2 seconds) for a command to complete */
+       for (i = 200000; i > 0; i--) {
+-              done = hba[ctlr]->access.command_completed(hba[ctlr]);
++              done = hba[ctlr]->access->command_completed(hba[ctlr]);
+               if (done == 0) {
+                       udelay(10);     /* a short fixed delay */
+               } else
+diff --git a/drivers/block/cpqarray.h b/drivers/block/cpqarray.h
+index be73e9d..7fbf140 100644
+--- a/drivers/block/cpqarray.h
++++ b/drivers/block/cpqarray.h
+@@ -99,7 +99,7 @@ struct ctlr_info {
+       drv_info_t      drv[NWD];
+       struct proc_dir_entry *proc;
+-      struct access_method access;
++      struct access_method *access;
+       cmdlist_t *reqQ;
+       cmdlist_t *cmpQ;
+diff --git a/drivers/block/loop.c b/drivers/block/loop.c
+index 8ec2d70..2804b30 100644
+--- a/drivers/block/loop.c
++++ b/drivers/block/loop.c
+@@ -282,7 +282,7 @@ static int __do_lo_send_write(struct file *file,
+       mm_segment_t old_fs = get_fs();
+       set_fs(get_ds());
+-      bw = file->f_op->write(file, buf, len, &pos);
++      bw = file->f_op->write(file, (const char __force_user *)buf, len, &pos);
+       set_fs(old_fs);
+       if (likely(bw == len))
+               return 0;
+diff --git a/drivers/block/nbd.c b/drivers/block/nbd.c
+index 26ada47..083c480 100644
+--- a/drivers/block/nbd.c
++++ b/drivers/block/nbd.c
+@@ -155,6 +155,8 @@ static int sock_xmit(struct nbd_device *lo, int send, void *buf, int size,
+       struct kvec iov;
+       sigset_t blocked, oldset;
++      pax_track_stack();
++
+       if (unlikely(!sock)) {
+               printk(KERN_ERR "%s: Attempted %s on closed socket in sock_xmit\n",
+                      lo->disk->disk_name, (send ? "send" : "recv"));
+@@ -569,6 +571,8 @@ static void do_nbd_request(struct request_queue *q)
+ static int __nbd_ioctl(struct block_device *bdev, struct nbd_device *lo,
+                      unsigned int cmd, unsigned long arg)
+ {
++      pax_track_stack();
++
+       switch (cmd) {
+       case NBD_DISCONNECT: {
+               struct request sreq;
+diff --git a/drivers/block/pktcdvd.c b/drivers/block/pktcdvd.c
+index a5d585d..d087be3 100644
+--- a/drivers/block/pktcdvd.c
++++ b/drivers/block/pktcdvd.c
+@@ -284,7 +284,7 @@ static ssize_t kobj_pkt_store(struct kobject *kobj,
+       return len;
+ }
+-static struct sysfs_ops kobj_pkt_ops = {
++static const struct sysfs_ops kobj_pkt_ops = {
+       .show = kobj_pkt_show,
+       .store = kobj_pkt_store
+ };
+diff --git a/drivers/char/Kconfig b/drivers/char/Kconfig
+index 6aad99e..89cd142 100644
+--- a/drivers/char/Kconfig
++++ b/drivers/char/Kconfig
+@@ -90,7 +90,8 @@ config VT_HW_CONSOLE_BINDING
+ config DEVKMEM
+       bool "/dev/kmem virtual device support"
+-      default y
++      default n
++      depends on !GRKERNSEC_KMEM
+       help
+         Say Y here if you want to support the /dev/kmem device. The
+         /dev/kmem device is rarely used, but can be used for certain
+@@ -1114,6 +1115,7 @@ config DEVPORT
+       bool
+       depends on !M68K
+       depends on ISA || PCI
++      depends on !GRKERNSEC_KMEM
+       default y
+ source "drivers/s390/char/Kconfig"
+diff --git a/drivers/char/agp/frontend.c b/drivers/char/agp/frontend.c
+index a96f319..a778a5b 100644
+--- a/drivers/char/agp/frontend.c
++++ b/drivers/char/agp/frontend.c
+@@ -824,7 +824,7 @@ static int agpioc_reserve_wrap(struct agp_file_private *priv, void __user *arg)
+       if (copy_from_user(&reserve, arg, sizeof(struct agp_region)))
+               return -EFAULT;
+-      if ((unsigned) reserve.seg_count >= ~0U/sizeof(struct agp_segment))
++      if ((unsigned) reserve.seg_count >= ~0U/sizeof(struct agp_segment_priv))
+               return -EFAULT;
+       client = agp_find_client_by_pid(reserve.pid);
+diff --git a/drivers/char/briq_panel.c b/drivers/char/briq_panel.c
+index d8cff90..9628e70 100644
+--- a/drivers/char/briq_panel.c
++++ b/drivers/char/briq_panel.c
+@@ -10,6 +10,7 @@
+ #include <linux/types.h>
+ #include <linux/errno.h>
+ #include <linux/tty.h>
++#include <linux/mutex.h>
+ #include <linux/timer.h>
+ #include <linux/kernel.h>
+ #include <linux/wait.h>
+@@ -36,6 +37,7 @@ static int           vfd_is_open;
+ static unsigned char  vfd[40];
+ static int            vfd_cursor;
+ static unsigned char  ledpb, led;
++static DEFINE_MUTEX(vfd_mutex);
+ static void update_vfd(void)
+ {
+@@ -142,12 +144,15 @@ static ssize_t briq_panel_write(struct file *file, const char __user *buf, size_
+       if (!vfd_is_open)
+               return -EBUSY;
++      mutex_lock(&vfd_mutex);
+       for (;;) {
+               char c;
+               if (!indx)
+                       break;
+-              if (get_user(c, buf))
++              if (get_user(c, buf)) {
++                      mutex_unlock(&vfd_mutex);
+                       return -EFAULT;
++              }
+               if (esc) {
+                       set_led(c);
+                       esc = 0;
+@@ -177,6 +182,7 @@ static ssize_t briq_panel_write(struct file *file, const char __user *buf, size_
+               buf++;
+       }
+       update_vfd();
++      mutex_unlock(&vfd_mutex);
+       return len;
+ }
+diff --git a/drivers/char/genrtc.c b/drivers/char/genrtc.c
+index 31e7c91..161afc0 100644
+--- a/drivers/char/genrtc.c
++++ b/drivers/char/genrtc.c
+@@ -272,6 +272,7 @@ static int gen_rtc_ioctl(struct inode *inode, struct file *file,
+       switch (cmd) {
+       case RTC_PLL_GET:
++          memset(&pll, 0, sizeof(pll));
+           if (get_rtc_pll(&pll))
+                   return -EINVAL;
+           else
+diff --git a/drivers/char/hpet.c b/drivers/char/hpet.c
+index 006466d..a2bb21c 100644
+--- a/drivers/char/hpet.c
++++ b/drivers/char/hpet.c
+@@ -430,7 +430,7 @@ static int hpet_release(struct inode *inode, struct file *file)
+       return 0;
+ }
+-static int hpet_ioctl_common(struct hpet_dev *, int, unsigned long, int);
++static int hpet_ioctl_common(struct hpet_dev *, unsigned int, unsigned long, int);
+ static int
+ hpet_ioctl(struct inode *inode, struct file *file, unsigned int cmd,
+@@ -565,7 +565,7 @@ static inline unsigned long hpet_time_div(struct hpets *hpets,
+ }
+ static int
+-hpet_ioctl_common(struct hpet_dev *devp, int cmd, unsigned long arg, int kernel)
++hpet_ioctl_common(struct hpet_dev *devp, unsigned int cmd, unsigned long arg, int kernel)
+ {
+       struct hpet_timer __iomem *timer;
+       struct hpet __iomem *hpet;
+@@ -608,11 +608,11 @@ hpet_ioctl_common(struct hpet_dev *devp, int cmd, unsigned long arg, int kernel)
+               {
+                       struct hpet_info info;
++                      memset(&info, 0, sizeof(info));
++
+                       if (devp->hd_ireqfreq)
+                               info.hi_ireqfreq =
+                                       hpet_time_div(hpetp, devp->hd_ireqfreq);
+-                      else
+-                              info.hi_ireqfreq = 0;
+                       info.hi_flags =
+                           readq(&timer->hpet_config) & Tn_PER_INT_CAP_MASK;
+                       info.hi_hpet = hpetp->hp_which;
+diff --git a/drivers/char/hvc_beat.c b/drivers/char/hvc_beat.c
+index 0afc8b8..6913fc3 100644
+--- a/drivers/char/hvc_beat.c
++++ b/drivers/char/hvc_beat.c
+@@ -84,7 +84,7 @@ static int hvc_beat_put_chars(uint32_t vtermno, const char *buf, int cnt)
+       return cnt;
+ }
+-static struct hv_ops hvc_beat_get_put_ops = {
++static const struct hv_ops hvc_beat_get_put_ops = {
+       .get_chars = hvc_beat_get_chars,
+       .put_chars = hvc_beat_put_chars,
+ };
+diff --git a/drivers/char/hvc_console.c b/drivers/char/hvc_console.c
+index 98097f2..407dddc 100644
+--- a/drivers/char/hvc_console.c
++++ b/drivers/char/hvc_console.c
+@@ -125,7 +125,7 @@ static struct hvc_struct *hvc_get_by_index(int index)
+  * console interfaces but can still be used as a tty device.  This has to be
+  * static because kmalloc will not work during early console init.
+  */
+-static struct hv_ops *cons_ops[MAX_NR_HVC_CONSOLES];
++static const struct hv_ops *cons_ops[MAX_NR_HVC_CONSOLES];
+ static uint32_t vtermnos[MAX_NR_HVC_CONSOLES] =
+       {[0 ... MAX_NR_HVC_CONSOLES - 1] = -1};
+@@ -249,7 +249,7 @@ static void destroy_hvc_struct(struct kref *kref)
+  * vty adapters do NOT get an hvc_instantiate() callback since they
+  * appear after early console init.
+  */
+-int hvc_instantiate(uint32_t vtermno, int index, struct hv_ops *ops)
++int hvc_instantiate(uint32_t vtermno, int index, const struct hv_ops *ops)
+ {
+       struct hvc_struct *hp;
+@@ -758,7 +758,7 @@ static const struct tty_operations hvc_ops = {
+ };
+ struct hvc_struct __devinit *hvc_alloc(uint32_t vtermno, int data,
+-                                      struct hv_ops *ops, int outbuf_size)
++                                      const struct hv_ops *ops, int outbuf_size)
+ {
+       struct hvc_struct *hp;
+       int i;
+diff --git a/drivers/char/hvc_console.h b/drivers/char/hvc_console.h
+index 10950ca..ed176c3 100644
+--- a/drivers/char/hvc_console.h
++++ b/drivers/char/hvc_console.h
+@@ -55,7 +55,7 @@ struct hvc_struct {
+       int outbuf_size;
+       int n_outbuf;
+       uint32_t vtermno;
+-      struct hv_ops *ops;
++      const struct hv_ops *ops;
+       int irq_requested;
+       int data;
+       struct winsize ws;
+@@ -76,11 +76,11 @@ struct hv_ops {
+ };
+ /* Register a vterm and a slot index for use as a console (console_init) */
+-extern int hvc_instantiate(uint32_t vtermno, int index, struct hv_ops *ops);
++extern int hvc_instantiate(uint32_t vtermno, int index, const struct hv_ops *ops);
+ /* register a vterm for hvc tty operation (module_init or hotplug add) */
+ extern struct hvc_struct * __devinit hvc_alloc(uint32_t vtermno, int data,
+-                              struct hv_ops *ops, int outbuf_size);
++                              const struct hv_ops *ops, int outbuf_size);
+ /* remove a vterm from hvc tty operation (module_exit or hotplug remove) */
+ extern int hvc_remove(struct hvc_struct *hp);
+diff --git a/drivers/char/hvc_iseries.c b/drivers/char/hvc_iseries.c
+index 936d05b..fd02426 100644
+--- a/drivers/char/hvc_iseries.c
++++ b/drivers/char/hvc_iseries.c
+@@ -197,7 +197,7 @@ done:
+       return sent;
+ }
+-static struct hv_ops hvc_get_put_ops = {
++static const struct hv_ops hvc_get_put_ops = {
+       .get_chars = get_chars,
+       .put_chars = put_chars,
+       .notifier_add = notifier_add_irq,
+diff --git a/drivers/char/hvc_iucv.c b/drivers/char/hvc_iucv.c
+index b0e168f..69cda2a 100644
+--- a/drivers/char/hvc_iucv.c
++++ b/drivers/char/hvc_iucv.c
+@@ -924,7 +924,7 @@ static int hvc_iucv_pm_restore_thaw(struct device *dev)
+ /* HVC operations */
+-static struct hv_ops hvc_iucv_ops = {
++static const struct hv_ops hvc_iucv_ops = {
+       .get_chars = hvc_iucv_get_chars,
+       .put_chars = hvc_iucv_put_chars,
+       .notifier_add = hvc_iucv_notifier_add,
+diff --git a/drivers/char/hvc_rtas.c b/drivers/char/hvc_rtas.c
+index 88590d0..61c4a61 100644
+--- a/drivers/char/hvc_rtas.c
++++ b/drivers/char/hvc_rtas.c
+@@ -71,7 +71,7 @@ static int hvc_rtas_read_console(uint32_t vtermno, char *buf, int count)
+       return i;
+ }
+-static struct hv_ops hvc_rtas_get_put_ops = {
++static const struct hv_ops hvc_rtas_get_put_ops = {
+       .get_chars = hvc_rtas_read_console,
+       .put_chars = hvc_rtas_write_console,
+ };
+diff --git a/drivers/char/hvc_udbg.c b/drivers/char/hvc_udbg.c
+index bd63ba8..b0957e6 100644
+--- a/drivers/char/hvc_udbg.c
++++ b/drivers/char/hvc_udbg.c
+@@ -58,7 +58,7 @@ static int hvc_udbg_get(uint32_t vtermno, char *buf, int count)
+       return i;
+ }
+-static struct hv_ops hvc_udbg_ops = {
++static const struct hv_ops hvc_udbg_ops = {
+       .get_chars = hvc_udbg_get,
+       .put_chars = hvc_udbg_put,
+ };
+diff --git a/drivers/char/hvc_vio.c b/drivers/char/hvc_vio.c
+index 10be343..27370e9 100644
+--- a/drivers/char/hvc_vio.c
++++ b/drivers/char/hvc_vio.c
+@@ -77,7 +77,7 @@ static int filtered_get_chars(uint32_t vtermno, char *buf, int count)
+       return got;
+ }
+-static struct hv_ops hvc_get_put_ops = {
++static const struct hv_ops hvc_get_put_ops = {
+       .get_chars = filtered_get_chars,
+       .put_chars = hvc_put_chars,
+       .notifier_add = notifier_add_irq,
+diff --git a/drivers/char/hvc_xen.c b/drivers/char/hvc_xen.c
+index a6ee32b..94f8c26 100644
+--- a/drivers/char/hvc_xen.c
++++ b/drivers/char/hvc_xen.c
+@@ -120,7 +120,7 @@ static int read_console(uint32_t vtermno, char *buf, int len)
+       return recv;
+ }
+-static struct hv_ops hvc_ops = {
++static const struct hv_ops hvc_ops = {
+       .get_chars = read_console,
+       .put_chars = write_console,
+       .notifier_add = notifier_add_irq,
+diff --git a/drivers/char/hvcs.c b/drivers/char/hvcs.c
+index 266b858..f3ee0bb 100644
+--- a/drivers/char/hvcs.c
++++ b/drivers/char/hvcs.c
+@@ -82,6 +82,7 @@
+ #include <asm/hvcserver.h>
+ #include <asm/uaccess.h>
+ #include <asm/vio.h>
++#include <asm/local.h>
+ /*
+  * 1.3.0 -> 1.3.1 In hvcs_open memset(..,0x00,..) instead of memset(..,0x3F,00).
+@@ -269,7 +270,7 @@ struct hvcs_struct {
+       unsigned int index;
+       struct tty_struct *tty;
+-      int open_count;
++      local_t open_count;
+       /*
+        * Used to tell the driver kernel_thread what operations need to take
+@@ -419,7 +420,7 @@ static ssize_t hvcs_vterm_state_store(struct device *dev, struct device_attribut
+       spin_lock_irqsave(&hvcsd->lock, flags);
+-      if (hvcsd->open_count > 0) {
++      if (local_read(&hvcsd->open_count) > 0) {
+               spin_unlock_irqrestore(&hvcsd->lock, flags);
+               printk(KERN_INFO "HVCS: vterm state unchanged.  "
+                               "The hvcs device node is still in use.\n");
+@@ -1135,7 +1136,7 @@ static int hvcs_open(struct tty_struct *tty, struct file *filp)
+               if ((retval = hvcs_partner_connect(hvcsd)))
+                       goto error_release;
+-      hvcsd->open_count = 1;
++      local_set(&hvcsd->open_count, 1);
+       hvcsd->tty = tty;
+       tty->driver_data = hvcsd;
+@@ -1169,7 +1170,7 @@ fast_open:
+       spin_lock_irqsave(&hvcsd->lock, flags);
+       kref_get(&hvcsd->kref);
+-      hvcsd->open_count++;
++      local_inc(&hvcsd->open_count);
+       hvcsd->todo_mask |= HVCS_SCHED_READ;
+       spin_unlock_irqrestore(&hvcsd->lock, flags);
+@@ -1213,7 +1214,7 @@ static void hvcs_close(struct tty_struct *tty, struct file *filp)
+       hvcsd = tty->driver_data;
+       spin_lock_irqsave(&hvcsd->lock, flags);
+-      if (--hvcsd->open_count == 0) {
++      if (local_dec_and_test(&hvcsd->open_count)) {
+               vio_disable_interrupts(hvcsd->vdev);
+@@ -1239,10 +1240,10 @@ static void hvcs_close(struct tty_struct *tty, struct file *filp)
+               free_irq(irq, hvcsd);
+               kref_put(&hvcsd->kref, destroy_hvcs_struct);
+               return;
+-      } else if (hvcsd->open_count < 0) {
++      } else if (local_read(&hvcsd->open_count) < 0) {
+               printk(KERN_ERR "HVCS: vty-server@%X open_count: %d"
+                               " is missmanaged.\n",
+-              hvcsd->vdev->unit_address, hvcsd->open_count);
++              hvcsd->vdev->unit_address, local_read(&hvcsd->open_count));
+       }
+       spin_unlock_irqrestore(&hvcsd->lock, flags);
+@@ -1258,7 +1259,7 @@ static void hvcs_hangup(struct tty_struct * tty)
+       spin_lock_irqsave(&hvcsd->lock, flags);
+       /* Preserve this so that we know how many kref refs to put */
+-      temp_open_count = hvcsd->open_count;
++      temp_open_count = local_read(&hvcsd->open_count);
+       /*
+        * Don't kref put inside the spinlock because the destruction
+@@ -1273,7 +1274,7 @@ static void hvcs_hangup(struct tty_struct * tty)
+       hvcsd->tty->driver_data = NULL;
+       hvcsd->tty = NULL;
+-      hvcsd->open_count = 0;
++      local_set(&hvcsd->open_count, 0);
+       /* This will drop any buffered data on the floor which is OK in a hangup
+        * scenario. */
+@@ -1344,7 +1345,7 @@ static int hvcs_write(struct tty_struct *tty,
+        * the middle of a write operation?  This is a crummy place to do this
+        * but we want to keep it all in the spinlock.
+        */
+-      if (hvcsd->open_count <= 0) {
++      if (local_read(&hvcsd->open_count) <= 0) {
+               spin_unlock_irqrestore(&hvcsd->lock, flags);
+               return -ENODEV;
+       }
+@@ -1418,7 +1419,7 @@ static int hvcs_write_room(struct tty_struct *tty)
+ {
+       struct hvcs_struct *hvcsd = tty->driver_data;
+-      if (!hvcsd || hvcsd->open_count <= 0)
++      if (!hvcsd || local_read(&hvcsd->open_count) <= 0)
+               return 0;
+       return HVCS_BUFF_LEN - hvcsd->chars_in_buffer;
+diff --git a/drivers/char/ipmi/ipmi_msghandler.c b/drivers/char/ipmi/ipmi_msghandler.c
+index ec5e3f8..02455ba 100644
+--- a/drivers/char/ipmi/ipmi_msghandler.c
++++ b/drivers/char/ipmi/ipmi_msghandler.c
+@@ -414,7 +414,7 @@ struct ipmi_smi {
+       struct proc_dir_entry *proc_dir;
+       char                  proc_dir_name[10];
+-      atomic_t stats[IPMI_NUM_STATS];
++      atomic_unchecked_t stats[IPMI_NUM_STATS];
+       /*
+        * run_to_completion duplicate of smb_info, smi_info
+@@ -447,9 +447,9 @@ static DEFINE_MUTEX(smi_watchers_mutex);
+ #define ipmi_inc_stat(intf, stat) \
+-      atomic_inc(&(intf)->stats[IPMI_STAT_ ## stat])
++      atomic_inc_unchecked(&(intf)->stats[IPMI_STAT_ ## stat])
+ #define ipmi_get_stat(intf, stat) \
+-      ((unsigned int) atomic_read(&(intf)->stats[IPMI_STAT_ ## stat]))
++      ((unsigned int) atomic_read_unchecked(&(intf)->stats[IPMI_STAT_ ## stat]))
+ static int is_lan_addr(struct ipmi_addr *addr)
+ {
+@@ -2808,7 +2808,7 @@ int ipmi_register_smi(struct ipmi_smi_handlers *handlers,
+       INIT_LIST_HEAD(&intf->cmd_rcvrs);
+       init_waitqueue_head(&intf->waitq);
+       for (i = 0; i < IPMI_NUM_STATS; i++)
+-              atomic_set(&intf->stats[i], 0);
++              atomic_set_unchecked(&intf->stats[i], 0);
+       intf->proc_dir = NULL;
+@@ -4160,6 +4160,8 @@ static void send_panic_events(char *str)
+       struct ipmi_smi_msg               smi_msg;
+       struct ipmi_recv_msg              recv_msg;
++      pax_track_stack();
++
+       si = (struct ipmi_system_interface_addr *) &addr;
+       si->addr_type = IPMI_SYSTEM_INTERFACE_ADDR_TYPE;
+       si->channel = IPMI_BMC_CHANNEL;
+diff --git a/drivers/char/ipmi/ipmi_si_intf.c b/drivers/char/ipmi/ipmi_si_intf.c
+index abae8c9..8021979 100644
+--- a/drivers/char/ipmi/ipmi_si_intf.c
++++ b/drivers/char/ipmi/ipmi_si_intf.c
+@@ -277,7 +277,7 @@ struct smi_info {
+       unsigned char slave_addr;
+       /* Counters and things for the proc filesystem. */
+-      atomic_t stats[SI_NUM_STATS];
++      atomic_unchecked_t stats[SI_NUM_STATS];
+       struct task_struct *thread;
+@@ -285,9 +285,9 @@ struct smi_info {
+ };
+ #define smi_inc_stat(smi, stat) \
+-      atomic_inc(&(smi)->stats[SI_STAT_ ## stat])
++      atomic_inc_unchecked(&(smi)->stats[SI_STAT_ ## stat])
+ #define smi_get_stat(smi, stat) \
+-      ((unsigned int) atomic_read(&(smi)->stats[SI_STAT_ ## stat]))
++      ((unsigned int) atomic_read_unchecked(&(smi)->stats[SI_STAT_ ## stat]))
+ #define SI_MAX_PARMS 4
+@@ -2931,7 +2931,7 @@ static int try_smi_init(struct smi_info *new_smi)
+       atomic_set(&new_smi->req_events, 0);
+       new_smi->run_to_completion = 0;
+       for (i = 0; i < SI_NUM_STATS; i++)
+-              atomic_set(&new_smi->stats[i], 0);
++              atomic_set_unchecked(&new_smi->stats[i], 0);
+       new_smi->interrupt_disabled = 0;
+       atomic_set(&new_smi->stop_operation, 0);
+diff --git a/drivers/char/istallion.c b/drivers/char/istallion.c
+index 402838f..55e2200 100644
+--- a/drivers/char/istallion.c
++++ b/drivers/char/istallion.c
+@@ -187,7 +187,6 @@ static struct ktermios             stli_deftermios = {
+  *    re-used for each stats call.
+  */
+ static comstats_t     stli_comstats;
+-static combrd_t               stli_brdstats;
+ static struct asystats        stli_cdkstats;
+ /*****************************************************************************/
+@@ -4058,6 +4057,7 @@ static int stli_getbrdstats(combrd_t __user *bp)
+ {
+       struct stlibrd *brdp;
+       unsigned int i;
++      combrd_t stli_brdstats;
+       if (copy_from_user(&stli_brdstats, bp, sizeof(combrd_t)))
+               return -EFAULT;
+@@ -4269,6 +4269,8 @@ static int stli_getportstruct(struct stliport __user *arg)
+       struct stliport stli_dummyport;
+       struct stliport *portp;
++      pax_track_stack();
++
+       if (copy_from_user(&stli_dummyport, arg, sizeof(struct stliport)))
+               return -EFAULT;
+       portp = stli_getport(stli_dummyport.brdnr, stli_dummyport.panelnr,
+@@ -4291,6 +4293,8 @@ static int stli_getbrdstruct(struct stlibrd __user *arg)
+       struct stlibrd stli_dummybrd;
+       struct stlibrd *brdp;
++      pax_track_stack();
++
+       if (copy_from_user(&stli_dummybrd, arg, sizeof(struct stlibrd)))
+               return -EFAULT;
+       if (stli_dummybrd.brdnr >= STL_MAXBRDS)
+diff --git a/drivers/char/keyboard.c b/drivers/char/keyboard.c
+index 950837c..e55a288 100644
+--- a/drivers/char/keyboard.c
++++ b/drivers/char/keyboard.c
+@@ -635,6 +635,16 @@ static void k_spec(struct vc_data *vc, unsigned char value, char up_flag)
+            kbd->kbdmode == VC_MEDIUMRAW) &&
+            value != KVAL(K_SAK))
+               return;         /* SAK is allowed even in raw mode */
++
++#if defined(CONFIG_GRKERNSEC_PROC) || defined(CONFIG_GRKERNSEC_PROC_MEMMAP)
++      {
++              void *func = fn_handler[value];
++              if (func == fn_show_state || func == fn_show_ptregs ||
++                  func == fn_show_mem)
++                      return;
++      }
++#endif
++
+       fn_handler[value](vc);
+ }
+@@ -1386,7 +1396,7 @@ static const struct input_device_id kbd_ids[] = {
+                 .evbit = { BIT_MASK(EV_SND) },
+         },
+-      { },    /* Terminating entry */
++      { 0 },    /* Terminating entry */
+ };
+ MODULE_DEVICE_TABLE(input, kbd_ids);
+diff --git a/drivers/char/mbcs.c b/drivers/char/mbcs.c
+index 87c67b4..230527a 100644
+--- a/drivers/char/mbcs.c
++++ b/drivers/char/mbcs.c
+@@ -799,7 +799,7 @@ static int mbcs_remove(struct cx_dev *dev)
+       return 0;
+ }
+-static const struct cx_device_id __devinitdata mbcs_id_table[] = {
++static const struct cx_device_id __devinitconst mbcs_id_table[] = {
+       {
+        .part_num = MBCS_PART_NUM,
+        .mfg_num = MBCS_MFG_NUM,
+diff --git a/drivers/char/mem.c b/drivers/char/mem.c
+index 1270f64..8495f49 100644
+--- a/drivers/char/mem.c
++++ b/drivers/char/mem.c
+@@ -18,6 +18,7 @@
+ #include <linux/raw.h>
+ #include <linux/tty.h>
+ #include <linux/capability.h>
++#include <linux/security.h>
+ #include <linux/ptrace.h>
+ #include <linux/device.h>
+ #include <linux/highmem.h>
+@@ -35,6 +36,10 @@
+ # include <linux/efi.h>
+ #endif
++#if defined(CONFIG_GRKERNSEC) && !defined(CONFIG_GRKERNSEC_NO_RBAC)
++extern struct file_operations grsec_fops;
++#endif
++
+ static inline unsigned long size_inside_page(unsigned long start,
+                                            unsigned long size)
+ {
+@@ -102,9 +107,13 @@ static inline int range_is_allowed(unsigned long pfn, unsigned long size)
+       while (cursor < to) {
+               if (!devmem_is_allowed(pfn)) {
++#ifdef CONFIG_GRKERNSEC_KMEM
++                      gr_handle_mem_readwrite(from, to);
++#else
+                       printk(KERN_INFO
+               "Program %s tried to access /dev/mem between %Lx->%Lx.\n",
+                               current->comm, from, to);
++#endif
+                       return 0;
+               }
+               cursor += PAGE_SIZE;
+@@ -112,6 +121,11 @@ static inline int range_is_allowed(unsigned long pfn, unsigned long size)
+       }
+       return 1;
+ }
++#elif defined(CONFIG_GRKERNSEC_KMEM)
++static inline int range_is_allowed(unsigned long pfn, unsigned long size)
++{
++      return 0;
++}
+ #else
+ static inline int range_is_allowed(unsigned long pfn, unsigned long size)
+ {
+@@ -155,6 +169,8 @@ static ssize_t read_mem(struct file * file, char __user * buf,
+ #endif
+       while (count > 0) {
++              char *temp;
++
+               /*
+                * Handle first page in case it's not aligned
+                */
+@@ -177,11 +193,31 @@ static ssize_t read_mem(struct file * file, char __user * buf,
+               if (!ptr)
+                       return -EFAULT;
+-              if (copy_to_user(buf, ptr, sz)) {
++#ifdef CONFIG_PAX_USERCOPY
++              temp = kmalloc(sz, GFP_KERNEL);
++              if (!temp) {
++                      unxlate_dev_mem_ptr(p, ptr);
++                      return -ENOMEM;
++              }
++              memcpy(temp, ptr, sz);
++#else
++              temp = ptr;
++#endif
++
++              if (copy_to_user(buf, temp, sz)) {
++
++#ifdef CONFIG_PAX_USERCOPY
++                      kfree(temp);
++#endif
++
+                       unxlate_dev_mem_ptr(p, ptr);
+                       return -EFAULT;
+               }
++#ifdef CONFIG_PAX_USERCOPY
++              kfree(temp);
++#endif
++
+               unxlate_dev_mem_ptr(p, ptr);
+               buf += sz;
+@@ -419,9 +455,8 @@ static ssize_t read_kmem(struct file *file, char __user *buf,
+                        size_t count, loff_t *ppos)
+ {
+       unsigned long p = *ppos;
+-      ssize_t low_count, read, sz;
++      ssize_t low_count, read, sz, err = 0;
+       char * kbuf; /* k-addr because vread() takes vmlist_lock rwlock */
+-      int err = 0;
+       read = 0;
+       if (p < (unsigned long) high_memory) {
+@@ -444,6 +479,8 @@ static ssize_t read_kmem(struct file *file, char __user *buf,
+               }
+ #endif
+               while (low_count > 0) {
++                      char *temp;
++
+                       sz = size_inside_page(p, low_count);
+                       /*
+@@ -453,7 +490,22 @@ static ssize_t read_kmem(struct file *file, char __user *buf,
+                        */
+                       kbuf = xlate_dev_kmem_ptr((char *)p);
+-                      if (copy_to_user(buf, kbuf, sz))
++#ifdef CONFIG_PAX_USERCOPY
++                      temp = kmalloc(sz, GFP_KERNEL);
++                      if (!temp)
++                              return -ENOMEM;
++                      memcpy(temp, kbuf, sz);
++#else
++                      temp = kbuf;
++#endif
++
++                      err = copy_to_user(buf, temp, sz);
++
++#ifdef CONFIG_PAX_USERCOPY
++                      kfree(temp);
++#endif
++
++                      if (err)
+                               return -EFAULT;
+                       buf += sz;
+                       p += sz;
+@@ -889,6 +941,9 @@ static const struct memdev {
+ #ifdef CONFIG_CRASH_DUMP
+       [12] = { "oldmem", 0, &oldmem_fops, NULL },
+ #endif
++#if defined(CONFIG_GRKERNSEC) && !defined(CONFIG_GRKERNSEC_NO_RBAC)
++      [13] = { "grsec",S_IRUSR | S_IWUGO, &grsec_fops, NULL },
++#endif
+ };
+ static int memory_open(struct inode *inode, struct file *filp)
+diff --git a/drivers/char/pcmcia/ipwireless/tty.c b/drivers/char/pcmcia/ipwireless/tty.c
+index 674b3ab..a8d1970 100644
+--- a/drivers/char/pcmcia/ipwireless/tty.c
++++ b/drivers/char/pcmcia/ipwireless/tty.c
+@@ -29,6 +29,7 @@
+ #include <linux/tty_driver.h>
+ #include <linux/tty_flip.h>
+ #include <linux/uaccess.h>
++#include <asm/local.h>
+ #include "tty.h"
+ #include "network.h"
+@@ -51,7 +52,7 @@ struct ipw_tty {
+       int tty_type;
+       struct ipw_network *network;
+       struct tty_struct *linux_tty;
+-      int open_count;
++      local_t open_count;
+       unsigned int control_lines;
+       struct mutex ipw_tty_mutex;
+       int tx_bytes_queued;
+@@ -127,10 +128,10 @@ static int ipw_open(struct tty_struct *linux_tty, struct file *filp)
+               mutex_unlock(&tty->ipw_tty_mutex);
+               return -ENODEV;
+       }
+-      if (tty->open_count == 0)
++      if (local_read(&tty->open_count) == 0)
+               tty->tx_bytes_queued = 0;
+-      tty->open_count++;
++      local_inc(&tty->open_count);
+       tty->linux_tty = linux_tty;
+       linux_tty->driver_data = tty;
+@@ -146,9 +147,7 @@ static int ipw_open(struct tty_struct *linux_tty, struct file *filp)
+ static void do_ipw_close(struct ipw_tty *tty)
+ {
+-      tty->open_count--;
+-
+-      if (tty->open_count == 0) {
++      if (local_dec_return(&tty->open_count) == 0) {
+               struct tty_struct *linux_tty = tty->linux_tty;
+               if (linux_tty != NULL) {
+@@ -169,7 +168,7 @@ static void ipw_hangup(struct tty_struct *linux_tty)
+               return;
+       mutex_lock(&tty->ipw_tty_mutex);
+-      if (tty->open_count == 0) {
++      if (local_read(&tty->open_count) == 0) {
+               mutex_unlock(&tty->ipw_tty_mutex);
+               return;
+       }
+@@ -198,7 +197,7 @@ void ipwireless_tty_received(struct ipw_tty *tty, unsigned char *data,
+               return;
+       }
+-      if (!tty->open_count) {
++      if (!local_read(&tty->open_count)) {
+               mutex_unlock(&tty->ipw_tty_mutex);
+               return;
+       }
+@@ -240,7 +239,7 @@ static int ipw_write(struct tty_struct *linux_tty,
+               return -ENODEV;
+       mutex_lock(&tty->ipw_tty_mutex);
+-      if (!tty->open_count) {
++      if (!local_read(&tty->open_count)) {
+               mutex_unlock(&tty->ipw_tty_mutex);
+               return -EINVAL;
+       }
+@@ -280,7 +279,7 @@ static int ipw_write_room(struct tty_struct *linux_tty)
+       if (!tty)
+               return -ENODEV;
+-      if (!tty->open_count)
++      if (!local_read(&tty->open_count))
+               return -EINVAL;
+       room = IPWIRELESS_TX_QUEUE_SIZE - tty->tx_bytes_queued;
+@@ -322,7 +321,7 @@ static int ipw_chars_in_buffer(struct tty_struct *linux_tty)
+       if (!tty)
+               return 0;
+-      if (!tty->open_count)
++      if (!local_read(&tty->open_count))
+               return 0;
+       return tty->tx_bytes_queued;
+@@ -403,7 +402,7 @@ static int ipw_tiocmget(struct tty_struct *linux_tty, struct file *file)
+       if (!tty)
+               return -ENODEV;
+-      if (!tty->open_count)
++      if (!local_read(&tty->open_count))
+               return -EINVAL;
+       return get_control_lines(tty);
+@@ -419,7 +418,7 @@ ipw_tiocmset(struct tty_struct *linux_tty, struct file *file,
+       if (!tty)
+               return -ENODEV;
+-      if (!tty->open_count)
++      if (!local_read(&tty->open_count))
+               return -EINVAL;
+       return set_control_lines(tty, set, clear);
+@@ -433,7 +432,7 @@ static int ipw_ioctl(struct tty_struct *linux_tty, struct file *file,
+       if (!tty)
+               return -ENODEV;
+-      if (!tty->open_count)
++      if (!local_read(&tty->open_count))
+               return -EINVAL;
+       /* FIXME: Exactly how is the tty object locked here .. */
+@@ -591,7 +590,7 @@ void ipwireless_tty_free(struct ipw_tty *tty)
+                                  against a parallel ioctl etc */
+                               mutex_lock(&ttyj->ipw_tty_mutex);
+                       }
+-                      while (ttyj->open_count)
++                      while (local_read(&ttyj->open_count))
+                               do_ipw_close(ttyj);
+                       ipwireless_disassociate_network_ttys(network,
+                                                            ttyj->channel_idx);
+diff --git a/drivers/char/pty.c b/drivers/char/pty.c
+index 62f282e..e45c45c 100644
+--- a/drivers/char/pty.c
++++ b/drivers/char/pty.c
+@@ -736,8 +736,10 @@ static void __init unix98_pty_init(void)
+       register_sysctl_table(pty_root_table);
+       /* Now create the /dev/ptmx special device */
++      pax_open_kernel();
+       tty_default_fops(&ptmx_fops);
+-      ptmx_fops.open = ptmx_open;
++      *(void **)&ptmx_fops.open = ptmx_open;
++      pax_close_kernel();
+       cdev_init(&ptmx_cdev, &ptmx_fops);
+       if (cdev_add(&ptmx_cdev, MKDEV(TTYAUX_MAJOR, 2), 1) ||
+diff --git a/drivers/char/random.c b/drivers/char/random.c
+index 3a19e2d..6ed09d3 100644
+--- a/drivers/char/random.c
++++ b/drivers/char/random.c
+@@ -254,8 +254,13 @@
+ /*
+  * Configuration information
+  */
++#ifdef CONFIG_GRKERNSEC_RANDNET
++#define INPUT_POOL_WORDS 512
++#define OUTPUT_POOL_WORDS 128
++#else
+ #define INPUT_POOL_WORDS 128
+ #define OUTPUT_POOL_WORDS 32
++#endif
+ #define SEC_XFER_SIZE 512
+ /*
+@@ -292,10 +297,17 @@ static struct poolinfo {
+       int poolwords;
+       int tap1, tap2, tap3, tap4, tap5;
+ } poolinfo_table[] = {
++#ifdef CONFIG_GRKERNSEC_RANDNET
++      /* x^512 + x^411 + x^308 + x^208 +x^104 + x + 1 -- 225 */
++      { 512,  411,    308,    208,    104,    1 },
++      /* x^128 + x^103 + x^76 + x^51 + x^25 + x + 1 -- 105 */
++      { 128,  103,    76,     51,     25,     1 },
++#else
+       /* x^128 + x^103 + x^76 + x^51 +x^25 + x + 1 -- 105 */
+       { 128,  103,    76,     51,     25,     1 },
+       /* x^32 + x^26 + x^20 + x^14 + x^7 + x + 1 -- 15 */
+       { 32,   26,     20,     14,     7,      1 },
++#endif
+ #if 0
+       /* x^2048 + x^1638 + x^1231 + x^819 + x^411 + x + 1  -- 115 */
+       { 2048, 1638,   1231,   819,    411,    1 },
+@@ -1209,7 +1221,7 @@ EXPORT_SYMBOL(generate_random_uuid);
+ #include <linux/sysctl.h>
+ static int min_read_thresh = 8, min_write_thresh;
+-static int max_read_thresh = INPUT_POOL_WORDS * 32;
++static int max_read_thresh = OUTPUT_POOL_WORDS * 32;
+ static int max_write_thresh = INPUT_POOL_WORDS * 32;
+ static char sysctl_bootid[16];
+diff --git a/drivers/char/rocket.c b/drivers/char/rocket.c
+index 0e29a23..0efc2c2 100644
+--- a/drivers/char/rocket.c
++++ b/drivers/char/rocket.c
+@@ -1266,6 +1266,8 @@ static int get_ports(struct r_port *info, struct rocket_ports __user *retports)
+       struct rocket_ports tmp;
+       int board;
++      pax_track_stack();
++
+       if (!retports)
+               return -EFAULT;
+       memset(&tmp, 0, sizeof (tmp));
+diff --git a/drivers/char/sonypi.c b/drivers/char/sonypi.c
+index 8c262aa..4d3b058 100644
+--- a/drivers/char/sonypi.c
++++ b/drivers/char/sonypi.c
+@@ -55,6 +55,7 @@
+ #include <asm/uaccess.h>
+ #include <asm/io.h>
+ #include <asm/system.h>
++#include <asm/local.h>
+ #include <linux/sonypi.h>
+@@ -491,7 +492,7 @@ static struct sonypi_device {
+       spinlock_t fifo_lock;
+       wait_queue_head_t fifo_proc_list;
+       struct fasync_struct *fifo_async;
+-      int open_count;
++      local_t open_count;
+       int model;
+       struct input_dev *input_jog_dev;
+       struct input_dev *input_key_dev;
+@@ -895,7 +896,7 @@ static int sonypi_misc_fasync(int fd, struct file *filp, int on)
+ static int sonypi_misc_release(struct inode *inode, struct file *file)
+ {
+       mutex_lock(&sonypi_device.lock);
+-      sonypi_device.open_count--;
++      local_dec(&sonypi_device.open_count);
+       mutex_unlock(&sonypi_device.lock);
+       return 0;
+ }
+@@ -905,9 +906,9 @@ static int sonypi_misc_open(struct inode *inode, struct file *file)
+       lock_kernel();
+       mutex_lock(&sonypi_device.lock);
+       /* Flush input queue on first open */
+-      if (!sonypi_device.open_count)
++      if (!local_read(&sonypi_device.open_count))
+               kfifo_reset(sonypi_device.fifo);
+-      sonypi_device.open_count++;
++      local_inc(&sonypi_device.open_count);
+       mutex_unlock(&sonypi_device.lock);
+       unlock_kernel();
+       return 0;
+diff --git a/drivers/char/stallion.c b/drivers/char/stallion.c
+index db6dcfa..13834cb 100644
+--- a/drivers/char/stallion.c
++++ b/drivers/char/stallion.c
+@@ -2448,6 +2448,8 @@ static int stl_getportstruct(struct stlport __user *arg)
+       struct stlport  stl_dummyport;
+       struct stlport  *portp;
++      pax_track_stack();
++
+       if (copy_from_user(&stl_dummyport, arg, sizeof(struct stlport)))
+               return -EFAULT;
+       portp = stl_getport(stl_dummyport.brdnr, stl_dummyport.panelnr,
+diff --git a/drivers/char/tpm/tpm.c b/drivers/char/tpm/tpm.c
+index a0789f6..cea3902 100644
+--- a/drivers/char/tpm/tpm.c
++++ b/drivers/char/tpm/tpm.c
+@@ -405,7 +405,7 @@ static ssize_t tpm_transmit(struct tpm_chip *chip, const char *buf,
+                   chip->vendor.req_complete_val)
+                       goto out_recv;
+-              if ((status == chip->vendor.req_canceled)) {
++              if (status == chip->vendor.req_canceled) {
+                       dev_err(chip->dev, "Operation Canceled\n");
+                       rc = -ECANCELED;
+                       goto out;
+@@ -824,6 +824,8 @@ ssize_t tpm_show_pubek(struct device *dev, struct device_attribute *attr,
+       struct tpm_chip *chip = dev_get_drvdata(dev);
++      pax_track_stack();
++
+       tpm_cmd.header.in = tpm_readpubek_header;
+       err = transmit_cmd(chip, &tpm_cmd, READ_PUBEK_RESULT_SIZE,
+                       "attempting to read the PUBEK");
+diff --git a/drivers/char/tpm/tpm_bios.c b/drivers/char/tpm/tpm_bios.c
+index bf2170f..ce8cab9 100644
+--- a/drivers/char/tpm/tpm_bios.c
++++ b/drivers/char/tpm/tpm_bios.c
+@@ -172,7 +172,7 @@ static void *tpm_bios_measurements_start(struct seq_file *m, loff_t *pos)
+       event = addr;
+       if ((event->event_type == 0 && event->event_size == 0) ||
+-          ((addr + sizeof(struct tcpa_event) + event->event_size) >= limit))
++          (event->event_size >= limit - addr - sizeof(struct tcpa_event)))
+               return NULL;
+       return addr;
+@@ -197,7 +197,7 @@ static void *tpm_bios_measurements_next(struct seq_file *m, void *v,
+               return NULL;
+       if ((event->event_type == 0 && event->event_size == 0) ||
+-          ((v + sizeof(struct tcpa_event) + event->event_size) >= limit))
++          (event->event_size >= limit - v - sizeof(struct tcpa_event)))
+               return NULL;
+       (*pos)++;
+@@ -290,7 +290,8 @@ static int tpm_binary_bios_measurements_show(struct seq_file *m, void *v)
+       int i;
+       for (i = 0; i < sizeof(struct tcpa_event) + event->event_size; i++)
+-              seq_putc(m, data[i]);
++              if (!seq_putc(m, data[i]))
++                      return -EFAULT;
+       return 0;
+ }
+@@ -409,8 +410,13 @@ static int read_log(struct tpm_bios_log *log)
+       log->bios_event_log_end = log->bios_event_log + len;
+       virt = acpi_os_map_memory(start, len);
++      if (!virt) {
++              kfree(log->bios_event_log);
++              log->bios_event_log = NULL;
++              return -EFAULT;
++      }
+-      memcpy(log->bios_event_log, virt, len);
++      memcpy(log->bios_event_log, (const char __force_kernel *)virt, len);
+       acpi_os_unmap_memory(virt, len);
+       return 0;
+diff --git a/drivers/char/tty_io.c b/drivers/char/tty_io.c
+index 123cedf..6664cb4 100644
+--- a/drivers/char/tty_io.c
++++ b/drivers/char/tty_io.c
+@@ -146,7 +146,7 @@ static int tty_open(struct inode *, struct file *);
+ static int tty_release(struct inode *, struct file *);
+ long tty_ioctl(struct file *file, unsigned int cmd, unsigned long arg);
+ #ifdef CONFIG_COMPAT
+-static long tty_compat_ioctl(struct file *file, unsigned int cmd,
++long tty_compat_ioctl(struct file *file, unsigned int cmd,
+                               unsigned long arg);
+ #else
+ #define tty_compat_ioctl NULL
+@@ -1774,6 +1774,7 @@ got_driver:
+               if (IS_ERR(tty)) {
+                       mutex_unlock(&tty_mutex);
++                      tty_driver_kref_put(driver);
+                       return PTR_ERR(tty);
+               }
+       }
+@@ -2603,8 +2604,10 @@ long tty_ioctl(struct file *file, unsigned int cmd, unsigned long arg)
+       return retval;
+ }
++EXPORT_SYMBOL(tty_ioctl);
++
+ #ifdef CONFIG_COMPAT
+-static long tty_compat_ioctl(struct file *file, unsigned int cmd,
++long tty_compat_ioctl(struct file *file, unsigned int cmd,
+                               unsigned long arg)
+ {
+       struct inode *inode = file->f_dentry->d_inode;
+@@ -2628,6 +2631,8 @@ static long tty_compat_ioctl(struct file *file, unsigned int cmd,
+       return retval;
+ }
++
++EXPORT_SYMBOL(tty_compat_ioctl);
+ #endif
+ /*
+@@ -3073,7 +3078,7 @@ EXPORT_SYMBOL_GPL(get_current_tty);
+ void tty_default_fops(struct file_operations *fops)
+ {
+-      *fops = tty_fops;
++      memcpy((void *)fops, &tty_fops, sizeof(tty_fops));
+ }
+ /*
+diff --git a/drivers/char/tty_ldisc.c b/drivers/char/tty_ldisc.c
+index d814a3d..b55b9c9 100644
+--- a/drivers/char/tty_ldisc.c
++++ b/drivers/char/tty_ldisc.c
+@@ -74,7 +74,7 @@ static void put_ldisc(struct tty_ldisc *ld)
+       if (atomic_dec_and_lock(&ld->users, &tty_ldisc_lock)) {
+               struct tty_ldisc_ops *ldo = ld->ops;
+-              ldo->refcount--;
++              atomic_dec(&ldo->refcount);
+               module_put(ldo->owner);
+               spin_unlock_irqrestore(&tty_ldisc_lock, flags);
+@@ -109,7 +109,7 @@ int tty_register_ldisc(int disc, struct tty_ldisc_ops *new_ldisc)
+       spin_lock_irqsave(&tty_ldisc_lock, flags);
+       tty_ldiscs[disc] = new_ldisc;
+       new_ldisc->num = disc;
+-      new_ldisc->refcount = 0;
++      atomic_set(&new_ldisc->refcount, 0);
+       spin_unlock_irqrestore(&tty_ldisc_lock, flags);
+       return ret;
+@@ -137,7 +137,7 @@ int tty_unregister_ldisc(int disc)
+               return -EINVAL;
+       spin_lock_irqsave(&tty_ldisc_lock, flags);
+-      if (tty_ldiscs[disc]->refcount)
++      if (atomic_read(&tty_ldiscs[disc]->refcount))
+               ret = -EBUSY;
+       else
+               tty_ldiscs[disc] = NULL;
+@@ -158,7 +158,7 @@ static struct tty_ldisc_ops *get_ldops(int disc)
+       if (ldops) {
+               ret = ERR_PTR(-EAGAIN);
+               if (try_module_get(ldops->owner)) {
+-                      ldops->refcount++;
++                      atomic_inc(&ldops->refcount);
+                       ret = ldops;
+               }
+       }
+@@ -171,7 +171,7 @@ static void put_ldops(struct tty_ldisc_ops *ldops)
+       unsigned long flags;
+       spin_lock_irqsave(&tty_ldisc_lock, flags);
+-      ldops->refcount--;
++      atomic_dec(&ldops->refcount);
+       module_put(ldops->owner);
+       spin_unlock_irqrestore(&tty_ldisc_lock, flags);
+ }
+diff --git a/drivers/char/virtio_console.c b/drivers/char/virtio_console.c
+index a035ae3..c27fe2c 100644
+--- a/drivers/char/virtio_console.c
++++ b/drivers/char/virtio_console.c
+@@ -133,7 +133,9 @@ static int get_chars(u32 vtermno, char *buf, int count)
+  * virtqueue, so we let the drivers do some boutique early-output thing. */
+ int __init virtio_cons_early_init(int (*put_chars)(u32, const char *, int))
+ {
+-      virtio_cons.put_chars = put_chars;
++      pax_open_kernel();
++      *(void **)&virtio_cons.put_chars = put_chars;
++      pax_close_kernel();
+       return hvc_instantiate(0, 0, &virtio_cons);
+ }
+@@ -213,11 +215,13 @@ static int __devinit virtcons_probe(struct virtio_device *dev)
+       out_vq = vqs[1];
+       /* Start using the new console output. */
+-      virtio_cons.get_chars = get_chars;
+-      virtio_cons.put_chars = put_chars;
+-      virtio_cons.notifier_add = notifier_add_vio;
+-      virtio_cons.notifier_del = notifier_del_vio;
+-      virtio_cons.notifier_hangup = notifier_del_vio;
++      pax_open_kernel();
++      *(void **)&virtio_cons.get_chars = get_chars;
++      *(void **)&virtio_cons.put_chars = put_chars;
++      *(void **)&virtio_cons.notifier_add = notifier_add_vio;
++      *(void **)&virtio_cons.notifier_del = notifier_del_vio;
++      *(void **)&virtio_cons.notifier_hangup = notifier_del_vio;
++      pax_close_kernel();
+       /* The first argument of hvc_alloc() is the virtual console number, so
+        * we use zero.  The second argument is the parameter for the
+diff --git a/drivers/char/vt.c b/drivers/char/vt.c
+index 0c80c68..53d59c1 100644
+--- a/drivers/char/vt.c
++++ b/drivers/char/vt.c
+@@ -243,7 +243,7 @@ EXPORT_SYMBOL_GPL(unregister_vt_notifier);
+ static void notify_write(struct vc_data *vc, unsigned int unicode)
+ {
+-      struct vt_notifier_param param = { .vc = vc, unicode = unicode };
++      struct vt_notifier_param param = { .vc = vc, .c = unicode };
+       atomic_notifier_call_chain(&vt_notifier_list, VT_WRITE, &param);
+ }
+diff --git a/drivers/char/vt_ioctl.c b/drivers/char/vt_ioctl.c
+index 6351a26..999af95 100644
+--- a/drivers/char/vt_ioctl.c
++++ b/drivers/char/vt_ioctl.c
+@@ -210,9 +210,6 @@ do_kdsk_ioctl(int cmd, struct kbentry __user *user_kbe, int perm, struct kbd_str
+       if (copy_from_user(&tmp, user_kbe, sizeof(struct kbentry)))
+               return -EFAULT;
+-      if (!capable(CAP_SYS_TTY_CONFIG))
+-              perm = 0;
+-
+       switch (cmd) {
+       case KDGKBENT:
+               key_map = key_maps[s];
+@@ -224,8 +221,12 @@ do_kdsk_ioctl(int cmd, struct kbentry __user *user_kbe, int perm, struct kbd_str
+                   val = (i ? K_HOLE : K_NOSUCHMAP);
+               return put_user(val, &user_kbe->kb_value);
+       case KDSKBENT:
++              if (!capable(CAP_SYS_TTY_CONFIG))
++                      perm = 0;
++
+               if (!perm)
+                       return -EPERM;
++
+               if (!i && v == K_NOSUCHMAP) {
+                       /* deallocate map */
+                       key_map = key_maps[s];
+@@ -325,9 +326,6 @@ do_kdgkb_ioctl(int cmd, struct kbsentry __user *user_kdgkb, int perm)
+       int i, j, k;
+       int ret;
+-      if (!capable(CAP_SYS_TTY_CONFIG))
+-              perm = 0;
+-
+       kbs = kmalloc(sizeof(*kbs), GFP_KERNEL);
+       if (!kbs) {
+               ret = -ENOMEM;
+@@ -361,6 +359,9 @@ do_kdgkb_ioctl(int cmd, struct kbsentry __user *user_kdgkb, int perm)
+               kfree(kbs);
+               return ((p && *p) ? -EOVERFLOW : 0);
+       case KDSKBSENT:
++              if (!capable(CAP_SYS_TTY_CONFIG))
++                      perm = 0;
++
+               if (!perm) {
+                       ret = -EPERM;
+                       goto reterr;
+diff --git a/drivers/cpufreq/cpufreq.c b/drivers/cpufreq/cpufreq.c
+index c7ae026..1769c1d 100644
+--- a/drivers/cpufreq/cpufreq.c
++++ b/drivers/cpufreq/cpufreq.c
+@@ -750,7 +750,7 @@ static void cpufreq_sysfs_release(struct kobject *kobj)
+       complete(&policy->kobj_unregister);
+ }
+-static struct sysfs_ops sysfs_ops = {
++static const struct sysfs_ops sysfs_ops = {
+       .show   = show,
+       .store  = store,
+ };
+diff --git a/drivers/cpuidle/sysfs.c b/drivers/cpuidle/sysfs.c
+index 97b0038..2056670 100644
+--- a/drivers/cpuidle/sysfs.c
++++ b/drivers/cpuidle/sysfs.c
+@@ -191,7 +191,7 @@ static ssize_t cpuidle_store(struct kobject * kobj, struct attribute * attr,
+       return ret;
+ }
+-static struct sysfs_ops cpuidle_sysfs_ops = {
++static const struct sysfs_ops cpuidle_sysfs_ops = {
+       .show = cpuidle_show,
+       .store = cpuidle_store,
+ };
+@@ -277,7 +277,7 @@ static ssize_t cpuidle_state_show(struct kobject * kobj,
+       return ret;
+ }
+-static struct sysfs_ops cpuidle_state_sysfs_ops = {
++static const struct sysfs_ops cpuidle_state_sysfs_ops = {
+       .show = cpuidle_state_show,
+ };
+@@ -294,7 +294,7 @@ static struct kobj_type ktype_state_cpuidle = {
+       .release = cpuidle_state_sysfs_release,
+ };
+-static void inline cpuidle_free_state_kobj(struct cpuidle_device *device, int i)
++static inline void cpuidle_free_state_kobj(struct cpuidle_device *device, int i)
+ {
+       kobject_put(&device->kobjs[i]->kobj);
+       wait_for_completion(&device->kobjs[i]->kobj_unregister);
+diff --git a/drivers/crypto/hifn_795x.c b/drivers/crypto/hifn_795x.c
+index 5f753fc..0377ae9 100644
+--- a/drivers/crypto/hifn_795x.c
++++ b/drivers/crypto/hifn_795x.c
+@@ -1655,6 +1655,8 @@ static int hifn_test(struct hifn_device *dev, int encdec, u8 snum)
+               0xCA, 0x34, 0x2B, 0x2E};
+       struct scatterlist sg;
++      pax_track_stack();
++
+       memset(src, 0, sizeof(src));
+       memset(ctx.key, 0, sizeof(ctx.key));
+diff --git a/drivers/crypto/padlock-aes.c b/drivers/crypto/padlock-aes.c
+index 71e6482..de8d96c 100644
+--- a/drivers/crypto/padlock-aes.c
++++ b/drivers/crypto/padlock-aes.c
+@@ -108,6 +108,8 @@ static int aes_set_key(struct crypto_tfm *tfm, const u8 *in_key,
+       struct crypto_aes_ctx gen_aes;
+       int cpu;
++      pax_track_stack();
++
+       if (key_len % 8) {
+               *flags |= CRYPTO_TFM_RES_BAD_KEY_LEN;
+               return -EINVAL;
+diff --git a/drivers/dma/ioat/dma.c b/drivers/dma/ioat/dma.c
+index dcc4ab7..cc834bb 100644
+--- a/drivers/dma/ioat/dma.c
++++ b/drivers/dma/ioat/dma.c
+@@ -1146,7 +1146,7 @@ ioat_attr_show(struct kobject *kobj, struct attribute *attr, char *page)
+       return entry->show(&chan->common, page);
+ }
+-struct sysfs_ops ioat_sysfs_ops = {
++const struct sysfs_ops ioat_sysfs_ops = {
+       .show   = ioat_attr_show,
+ };
+diff --git a/drivers/dma/ioat/dma.h b/drivers/dma/ioat/dma.h
+index bbc3e78..f2db62c 100644
+--- a/drivers/dma/ioat/dma.h
++++ b/drivers/dma/ioat/dma.h
+@@ -347,7 +347,7 @@ bool ioat_cleanup_preamble(struct ioat_chan_common *chan,
+                          unsigned long *phys_complete);
+ void ioat_kobject_add(struct ioatdma_device *device, struct kobj_type *type);
+ void ioat_kobject_del(struct ioatdma_device *device);
+-extern struct sysfs_ops ioat_sysfs_ops;
++extern const struct sysfs_ops ioat_sysfs_ops;
+ extern struct ioat_sysfs_entry ioat_version_attr;
+ extern struct ioat_sysfs_entry ioat_cap_attr;
+ #endif /* IOATDMA_H */
+diff --git a/drivers/dma/ioat/dma_v3.c b/drivers/dma/ioat/dma_v3.c
+index 9908c9e..3ceb0e5 100644
+--- a/drivers/dma/ioat/dma_v3.c
++++ b/drivers/dma/ioat/dma_v3.c
+@@ -71,10 +71,10 @@
+ /* provide a lookup table for setting the source address in the base or
+  * extended descriptor of an xor or pq descriptor
+  */
+-static const u8 xor_idx_to_desc __read_mostly = 0xd0;
+-static const u8 xor_idx_to_field[] __read_mostly = { 1, 4, 5, 6, 7, 0, 1, 2 };
+-static const u8 pq_idx_to_desc __read_mostly = 0xf8;
+-static const u8 pq_idx_to_field[] __read_mostly = { 1, 4, 5, 0, 1, 2, 4, 5 };
++static const u8 xor_idx_to_desc = 0xd0;
++static const u8 xor_idx_to_field[] = { 1, 4, 5, 6, 7, 0, 1, 2 };
++static const u8 pq_idx_to_desc = 0xf8;
++static const u8 pq_idx_to_field[] = { 1, 4, 5, 0, 1, 2, 4, 5 };
+ static dma_addr_t xor_get_src(struct ioat_raw_descriptor *descs[2], int idx)
+ {
+diff --git a/drivers/edac/amd64_edac.c b/drivers/edac/amd64_edac.c
+index 85c464a..afd1e73 100644
+--- a/drivers/edac/amd64_edac.c
++++ b/drivers/edac/amd64_edac.c
+@@ -3099,7 +3099,7 @@ static void __devexit amd64_remove_one_instance(struct pci_dev *pdev)
+  * PCI core identifies what devices are on a system during boot, and then
+  * inquiry this table to see if this driver is for a given device found.
+  */
+-static const struct pci_device_id amd64_pci_table[] __devinitdata = {
++static const struct pci_device_id amd64_pci_table[] __devinitconst = {
+       {
+               .vendor         = PCI_VENDOR_ID_AMD,
+               .device         = PCI_DEVICE_ID_AMD_K8_NB_MEMCTL,
+diff --git a/drivers/edac/amd76x_edac.c b/drivers/edac/amd76x_edac.c
+index 2b95f1a..4f52793 100644
+--- a/drivers/edac/amd76x_edac.c
++++ b/drivers/edac/amd76x_edac.c
+@@ -322,7 +322,7 @@ static void __devexit amd76x_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id amd76x_pci_tbl[] __devinitdata = {
++static const struct pci_device_id amd76x_pci_tbl[] __devinitconst = {
+       {
+        PCI_VEND_DEV(AMD, FE_GATE_700C), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+        AMD762},
+diff --git a/drivers/edac/e752x_edac.c b/drivers/edac/e752x_edac.c
+index d205d49..74c9672 100644
+--- a/drivers/edac/e752x_edac.c
++++ b/drivers/edac/e752x_edac.c
+@@ -1282,7 +1282,7 @@ static void __devexit e752x_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id e752x_pci_tbl[] __devinitdata = {
++static const struct pci_device_id e752x_pci_tbl[] __devinitconst = {
+       {
+        PCI_VEND_DEV(INTEL, 7520_0), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+        E7520},
+diff --git a/drivers/edac/e7xxx_edac.c b/drivers/edac/e7xxx_edac.c
+index c7d11cc..c59c1ca 100644
+--- a/drivers/edac/e7xxx_edac.c
++++ b/drivers/edac/e7xxx_edac.c
+@@ -526,7 +526,7 @@ static void __devexit e7xxx_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id e7xxx_pci_tbl[] __devinitdata = {
++static const struct pci_device_id e7xxx_pci_tbl[] __devinitconst = {
+       {
+        PCI_VEND_DEV(INTEL, 7205_0), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+        E7205},
+diff --git a/drivers/edac/edac_device_sysfs.c b/drivers/edac/edac_device_sysfs.c
+index 5376457..5fdedbc 100644
+--- a/drivers/edac/edac_device_sysfs.c
++++ b/drivers/edac/edac_device_sysfs.c
+@@ -137,7 +137,7 @@ static ssize_t edac_dev_ctl_info_store(struct kobject *kobj,
+ }
+ /* edac_dev file operations for an 'ctl_info' */
+-static struct sysfs_ops device_ctl_info_ops = {
++static const struct sysfs_ops device_ctl_info_ops = {
+       .show = edac_dev_ctl_info_show,
+       .store = edac_dev_ctl_info_store
+ };
+@@ -373,7 +373,7 @@ static ssize_t edac_dev_instance_store(struct kobject *kobj,
+ }
+ /* edac_dev file operations for an 'instance' */
+-static struct sysfs_ops device_instance_ops = {
++static const struct sysfs_ops device_instance_ops = {
+       .show = edac_dev_instance_show,
+       .store = edac_dev_instance_store
+ };
+@@ -476,7 +476,7 @@ static ssize_t edac_dev_block_store(struct kobject *kobj,
+ }
+ /* edac_dev file operations for a 'block' */
+-static struct sysfs_ops device_block_ops = {
++static const struct sysfs_ops device_block_ops = {
+       .show = edac_dev_block_show,
+       .store = edac_dev_block_store
+ };
+diff --git a/drivers/edac/edac_mc_sysfs.c b/drivers/edac/edac_mc_sysfs.c
+index e1d4ce0..88840e9 100644
+--- a/drivers/edac/edac_mc_sysfs.c
++++ b/drivers/edac/edac_mc_sysfs.c
+@@ -245,7 +245,7 @@ static ssize_t csrowdev_store(struct kobject *kobj, struct attribute *attr,
+       return -EIO;
+ }
+-static struct sysfs_ops csrowfs_ops = {
++static const struct sysfs_ops csrowfs_ops = {
+       .show = csrowdev_show,
+       .store = csrowdev_store
+ };
+@@ -575,7 +575,7 @@ static ssize_t mcidev_store(struct kobject *kobj, struct attribute *attr,
+ }
+ /* Intermediate show/store table */
+-static struct sysfs_ops mci_ops = {
++static const struct sysfs_ops mci_ops = {
+       .show = mcidev_show,
+       .store = mcidev_store
+ };
+diff --git a/drivers/edac/edac_pci_sysfs.c b/drivers/edac/edac_pci_sysfs.c
+index 422728c..d8d9c88 100644
+--- a/drivers/edac/edac_pci_sysfs.c
++++ b/drivers/edac/edac_pci_sysfs.c
+@@ -25,8 +25,8 @@ static int edac_pci_log_pe = 1;              /* log PCI parity errors */
+ static int edac_pci_log_npe = 1;      /* log PCI non-parity error errors */
+ static int edac_pci_poll_msec = 1000; /* one second workq period */
+-static atomic_t pci_parity_count = ATOMIC_INIT(0);
+-static atomic_t pci_nonparity_count = ATOMIC_INIT(0);
++static atomic_unchecked_t pci_parity_count = ATOMIC_INIT(0);
++static atomic_unchecked_t pci_nonparity_count = ATOMIC_INIT(0);
+ static struct kobject *edac_pci_top_main_kobj;
+ static atomic_t edac_pci_sysfs_refcount = ATOMIC_INIT(0);
+@@ -121,7 +121,7 @@ static ssize_t edac_pci_instance_store(struct kobject *kobj,
+ }
+ /* fs_ops table */
+-static struct sysfs_ops pci_instance_ops = {
++static const struct sysfs_ops pci_instance_ops = {
+       .show = edac_pci_instance_show,
+       .store = edac_pci_instance_store
+ };
+@@ -261,7 +261,7 @@ static ssize_t edac_pci_dev_store(struct kobject *kobj,
+       return -EIO;
+ }
+-static struct sysfs_ops edac_pci_sysfs_ops = {
++static const struct sysfs_ops edac_pci_sysfs_ops = {
+       .show = edac_pci_dev_show,
+       .store = edac_pci_dev_store
+ };
+@@ -579,7 +579,7 @@ static void edac_pci_dev_parity_test(struct pci_dev *dev)
+                       edac_printk(KERN_CRIT, EDAC_PCI,
+                               "Signaled System Error on %s\n",
+                               pci_name(dev));
+-                      atomic_inc(&pci_nonparity_count);
++                      atomic_inc_unchecked(&pci_nonparity_count);
+               }
+               if (status & (PCI_STATUS_PARITY)) {
+@@ -587,7 +587,7 @@ static void edac_pci_dev_parity_test(struct pci_dev *dev)
+                               "Master Data Parity Error on %s\n",
+                               pci_name(dev));
+-                      atomic_inc(&pci_parity_count);
++                      atomic_inc_unchecked(&pci_parity_count);
+               }
+               if (status & (PCI_STATUS_DETECTED_PARITY)) {
+@@ -595,7 +595,7 @@ static void edac_pci_dev_parity_test(struct pci_dev *dev)
+                               "Detected Parity Error on %s\n",
+                               pci_name(dev));
+-                      atomic_inc(&pci_parity_count);
++                      atomic_inc_unchecked(&pci_parity_count);
+               }
+       }
+@@ -616,7 +616,7 @@ static void edac_pci_dev_parity_test(struct pci_dev *dev)
+                               edac_printk(KERN_CRIT, EDAC_PCI, "Bridge "
+                                       "Signaled System Error on %s\n",
+                                       pci_name(dev));
+-                              atomic_inc(&pci_nonparity_count);
++                              atomic_inc_unchecked(&pci_nonparity_count);
+                       }
+                       if (status & (PCI_STATUS_PARITY)) {
+@@ -624,7 +624,7 @@ static void edac_pci_dev_parity_test(struct pci_dev *dev)
+                                       "Master Data Parity Error on "
+                                       "%s\n", pci_name(dev));
+-                              atomic_inc(&pci_parity_count);
++                              atomic_inc_unchecked(&pci_parity_count);
+                       }
+                       if (status & (PCI_STATUS_DETECTED_PARITY)) {
+@@ -632,7 +632,7 @@ static void edac_pci_dev_parity_test(struct pci_dev *dev)
+                                       "Detected Parity Error on %s\n",
+                                       pci_name(dev));
+-                              atomic_inc(&pci_parity_count);
++                              atomic_inc_unchecked(&pci_parity_count);
+                       }
+               }
+       }
+@@ -674,7 +674,7 @@ void edac_pci_do_parity_check(void)
+       if (!check_pci_errors)
+               return;
+-      before_count = atomic_read(&pci_parity_count);
++      before_count = atomic_read_unchecked(&pci_parity_count);
+       /* scan all PCI devices looking for a Parity Error on devices and
+        * bridges.
+@@ -686,7 +686,7 @@ void edac_pci_do_parity_check(void)
+       /* Only if operator has selected panic on PCI Error */
+       if (edac_pci_get_panic_on_pe()) {
+               /* If the count is different 'after' from 'before' */
+-              if (before_count != atomic_read(&pci_parity_count))
++              if (before_count != atomic_read_unchecked(&pci_parity_count))
+                       panic("EDAC: PCI Parity Error");
+       }
+ }
+diff --git a/drivers/edac/i3000_edac.c b/drivers/edac/i3000_edac.c
+index 6c9a0f2..9c1cf7e 100644
+--- a/drivers/edac/i3000_edac.c
++++ b/drivers/edac/i3000_edac.c
+@@ -471,7 +471,7 @@ static void __devexit i3000_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id i3000_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i3000_pci_tbl[] __devinitconst = {
+       {
+        PCI_VEND_DEV(INTEL, 3000_HB), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+        I3000},
+diff --git a/drivers/edac/i3200_edac.c b/drivers/edac/i3200_edac.c
+index fde4db9..fe108f9 100644
+--- a/drivers/edac/i3200_edac.c
++++ b/drivers/edac/i3200_edac.c
+@@ -444,7 +444,7 @@ static void __devexit i3200_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id i3200_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i3200_pci_tbl[] __devinitconst = {
+       {
+               PCI_VEND_DEV(INTEL, 3200_HB), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+               I3200},
+diff --git a/drivers/edac/i5000_edac.c b/drivers/edac/i5000_edac.c
+index adc10a2..57d4ccf 100644
+--- a/drivers/edac/i5000_edac.c
++++ b/drivers/edac/i5000_edac.c
+@@ -1516,7 +1516,7 @@ static void __devexit i5000_remove_one(struct pci_dev *pdev)
+  *
+  *    The "E500P" device is the first device supported.
+  */
+-static const struct pci_device_id i5000_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i5000_pci_tbl[] __devinitconst = {
+       {PCI_DEVICE(PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_INTEL_I5000_DEV16),
+        .driver_data = I5000P},
+diff --git a/drivers/edac/i5100_edac.c b/drivers/edac/i5100_edac.c
+index 22db05a..b2b5503 100644
+--- a/drivers/edac/i5100_edac.c
++++ b/drivers/edac/i5100_edac.c
+@@ -944,7 +944,7 @@ static void __devexit i5100_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id i5100_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i5100_pci_tbl[] __devinitconst = {
+       /* Device 16, Function 0, Channel 0 Memory Map, Error Flag/Mask, ... */
+       { PCI_DEVICE(PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_INTEL_5100_16) },
+       { 0, }
+diff --git a/drivers/edac/i5400_edac.c b/drivers/edac/i5400_edac.c
+index f99d106..f050710 100644
+--- a/drivers/edac/i5400_edac.c
++++ b/drivers/edac/i5400_edac.c
+@@ -1383,7 +1383,7 @@ static void __devexit i5400_remove_one(struct pci_dev *pdev)
+  *
+  *    The "E500P" device is the first device supported.
+  */
+-static const struct pci_device_id i5400_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i5400_pci_tbl[] __devinitconst = {
+       {PCI_DEVICE(PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_INTEL_5400_ERR)},
+       {0,}                    /* 0 terminated list. */
+ };
+diff --git a/drivers/edac/i82443bxgx_edac.c b/drivers/edac/i82443bxgx_edac.c
+index 577760a..9ce16ce 100644
+--- a/drivers/edac/i82443bxgx_edac.c
++++ b/drivers/edac/i82443bxgx_edac.c
+@@ -381,7 +381,7 @@ static void __devexit i82443bxgx_edacmc_remove_one(struct pci_dev *pdev)
+ EXPORT_SYMBOL_GPL(i82443bxgx_edacmc_remove_one);
+-static const struct pci_device_id i82443bxgx_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i82443bxgx_pci_tbl[] __devinitconst = {
+       {PCI_DEVICE(PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_INTEL_82443BX_0)},
+       {PCI_DEVICE(PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_INTEL_82443BX_2)},
+       {PCI_DEVICE(PCI_VENDOR_ID_INTEL, PCI_DEVICE_ID_INTEL_82443GX_0)},
+diff --git a/drivers/edac/i82860_edac.c b/drivers/edac/i82860_edac.c
+index c0088ba..64a7b98 100644
+--- a/drivers/edac/i82860_edac.c
++++ b/drivers/edac/i82860_edac.c
+@@ -271,7 +271,7 @@ static void __devexit i82860_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id i82860_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i82860_pci_tbl[] __devinitconst = {
+       {
+        PCI_VEND_DEV(INTEL, 82860_0), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+        I82860},
+diff --git a/drivers/edac/i82875p_edac.c b/drivers/edac/i82875p_edac.c
+index b2d83b9..a34357b 100644
+--- a/drivers/edac/i82875p_edac.c
++++ b/drivers/edac/i82875p_edac.c
+@@ -512,7 +512,7 @@ static void __devexit i82875p_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id i82875p_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i82875p_pci_tbl[] __devinitconst = {
+       {
+        PCI_VEND_DEV(INTEL, 82875_0), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+        I82875P},
+diff --git a/drivers/edac/i82975x_edac.c b/drivers/edac/i82975x_edac.c
+index 2eed3ea..87bbbd1 100644
+--- a/drivers/edac/i82975x_edac.c
++++ b/drivers/edac/i82975x_edac.c
+@@ -586,7 +586,7 @@ static void __devexit i82975x_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id i82975x_pci_tbl[] __devinitdata = {
++static const struct pci_device_id i82975x_pci_tbl[] __devinitconst = {
+       {
+               PCI_VEND_DEV(INTEL, 82975_0), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+               I82975X
+diff --git a/drivers/edac/r82600_edac.c b/drivers/edac/r82600_edac.c
+index 9900675..78ac2b6 100644
+--- a/drivers/edac/r82600_edac.c
++++ b/drivers/edac/r82600_edac.c
+@@ -374,7 +374,7 @@ static void __devexit r82600_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id r82600_pci_tbl[] __devinitdata = {
++static const struct pci_device_id r82600_pci_tbl[] __devinitconst = {
+       {
+        PCI_DEVICE(PCI_VENDOR_ID_RADISYS, R82600_BRIDGE_ID)
+        },
+diff --git a/drivers/edac/x38_edac.c b/drivers/edac/x38_edac.c
+index d4ec605..4cfec4e 100644
+--- a/drivers/edac/x38_edac.c
++++ b/drivers/edac/x38_edac.c
+@@ -441,7 +441,7 @@ static void __devexit x38_remove_one(struct pci_dev *pdev)
+       edac_mc_free(mci);
+ }
+-static const struct pci_device_id x38_pci_tbl[] __devinitdata = {
++static const struct pci_device_id x38_pci_tbl[] __devinitconst = {
+       {
+        PCI_VEND_DEV(INTEL, X38_HB), PCI_ANY_ID, PCI_ANY_ID, 0, 0,
+        X38},
+diff --git a/drivers/firewire/core-card.c b/drivers/firewire/core-card.c
+index 3fc2ceb..daf098f 100644
+--- a/drivers/firewire/core-card.c
++++ b/drivers/firewire/core-card.c
+@@ -558,7 +558,7 @@ void fw_card_release(struct kref *kref)
+ void fw_core_remove_card(struct fw_card *card)
+ {
+-      struct fw_card_driver dummy_driver = dummy_driver_template;
++      fw_card_driver_no_const dummy_driver = dummy_driver_template;
+       card->driver->update_phy_reg(card, 4,
+                                    PHY_LINK_ACTIVE | PHY_CONTENDER, 0);
+diff --git a/drivers/firewire/core-cdev.c b/drivers/firewire/core-cdev.c
+index 4560d8f..36db24a 100644
+--- a/drivers/firewire/core-cdev.c
++++ b/drivers/firewire/core-cdev.c
+@@ -1141,8 +1141,7 @@ static int init_iso_resource(struct client *client,
+       int ret;
+       if ((request->channels == 0 && request->bandwidth == 0) ||
+-          request->bandwidth > BANDWIDTH_AVAILABLE_INITIAL ||
+-          request->bandwidth < 0)
++          request->bandwidth > BANDWIDTH_AVAILABLE_INITIAL)
+               return -EINVAL;
+       r  = kmalloc(sizeof(*r), GFP_KERNEL);
+diff --git a/drivers/firewire/core-transaction.c b/drivers/firewire/core-transaction.c
+index da628c7..cf54a2c 100644
+--- a/drivers/firewire/core-transaction.c
++++ b/drivers/firewire/core-transaction.c
+@@ -36,6 +36,7 @@
+ #include <linux/string.h>
+ #include <linux/timer.h>
+ #include <linux/types.h>
++#include <linux/sched.h>
+ #include <asm/byteorder.h>
+@@ -344,6 +345,8 @@ int fw_run_transaction(struct fw_card *card, int tcode, int destination_id,
+       struct transaction_callback_data d;
+       struct fw_transaction t;
++      pax_track_stack();
++
+       init_completion(&d.done);
+       d.payload = payload;
+       fw_send_request(card, &t, tcode, destination_id, generation, speed,
+diff --git a/drivers/firewire/core.h b/drivers/firewire/core.h
+index 7ff6e75..a2965d9 100644
+--- a/drivers/firewire/core.h
++++ b/drivers/firewire/core.h
+@@ -86,6 +86,7 @@ struct fw_card_driver {
+       int (*stop_iso)(struct fw_iso_context *ctx);
+ };
++typedef struct fw_card_driver __no_const fw_card_driver_no_const;
+ void fw_card_initialize(struct fw_card *card,
+               const struct fw_card_driver *driver, struct device *device);
+diff --git a/drivers/firmware/dmi_scan.c b/drivers/firmware/dmi_scan.c
+index 3a2ccb0..82fd7c4 100644
+--- a/drivers/firmware/dmi_scan.c
++++ b/drivers/firmware/dmi_scan.c
+@@ -391,11 +391,6 @@ void __init dmi_scan_machine(void)
+               }
+       }
+       else {
+-              /*
+-               * no iounmap() for that ioremap(); it would be a no-op, but
+-               * it's so early in setup that sucker gets confused into doing
+-               * what it shouldn't if we actually call it.
+-               */
+               p = dmi_ioremap(0xF0000, 0x10000);
+               if (p == NULL)
+                       goto error;
+@@ -667,7 +662,7 @@ int dmi_walk(void (*decode)(const struct dmi_header *, void *),
+       if (buf == NULL)
+               return -1;
+-      dmi_table(buf, dmi_len, dmi_num, decode, private_data);
++      dmi_table((char __force_kernel *)buf, dmi_len, dmi_num, decode, private_data);
+       iounmap(buf);
+       return 0;
+diff --git a/drivers/firmware/edd.c b/drivers/firmware/edd.c
+index 9e4f59d..110e24e 100644
+--- a/drivers/firmware/edd.c
++++ b/drivers/firmware/edd.c
+@@ -122,7 +122,7 @@ edd_attr_show(struct kobject * kobj, struct attribute *attr, char *buf)
+       return ret;
+ }
+-static struct sysfs_ops edd_attr_ops = {
++static const struct sysfs_ops edd_attr_ops = {
+       .show = edd_attr_show,
+ };
+diff --git a/drivers/firmware/efivars.c b/drivers/firmware/efivars.c
+index f4f709d..082f06e 100644
+--- a/drivers/firmware/efivars.c
++++ b/drivers/firmware/efivars.c
+@@ -362,7 +362,7 @@ static ssize_t efivar_attr_store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static struct sysfs_ops efivar_attr_ops = {
++static const struct sysfs_ops efivar_attr_ops = {
+       .show = efivar_attr_show,
+       .store = efivar_attr_store,
+ };
+diff --git a/drivers/firmware/iscsi_ibft.c b/drivers/firmware/iscsi_ibft.c
+index 051d1eb..0a5d4e7 100644
+--- a/drivers/firmware/iscsi_ibft.c
++++ b/drivers/firmware/iscsi_ibft.c
+@@ -525,7 +525,7 @@ static ssize_t ibft_show_attribute(struct kobject *kobj,
+       return ret;
+ }
+-static struct sysfs_ops ibft_attr_ops = {
++static const struct sysfs_ops ibft_attr_ops = {
+       .show = ibft_show_attribute,
+ };
+diff --git a/drivers/firmware/memmap.c b/drivers/firmware/memmap.c
+index 56f9234..8c58c7b 100644
+--- a/drivers/firmware/memmap.c
++++ b/drivers/firmware/memmap.c
+@@ -74,7 +74,7 @@ static struct attribute *def_attrs[] = {
+       NULL
+ };
+-static struct sysfs_ops memmap_attr_ops = {
++static const struct sysfs_ops memmap_attr_ops = {
+       .show = memmap_attr_show,
+ };
+diff --git a/drivers/gpio/vr41xx_giu.c b/drivers/gpio/vr41xx_giu.c
+index b16c9a8..2af7d3f 100644
+--- a/drivers/gpio/vr41xx_giu.c
++++ b/drivers/gpio/vr41xx_giu.c
+@@ -204,7 +204,7 @@ static int giu_get_irq(unsigned int irq)
+       printk(KERN_ERR "spurious GIU interrupt: %04x(%04x),%04x(%04x)\n",
+              maskl, pendl, maskh, pendh);
+-      atomic_inc(&irq_err_count);
++      atomic_inc_unchecked(&irq_err_count);
+       return -EINVAL;
+ }
+diff --git a/drivers/gpu/drm/drm_crtc.c b/drivers/gpu/drm/drm_crtc.c
+index bea6efc..3dc0f42 100644
+--- a/drivers/gpu/drm/drm_crtc.c
++++ b/drivers/gpu/drm/drm_crtc.c
+@@ -1323,7 +1323,7 @@ int drm_mode_getconnector(struct drm_device *dev, void *data,
+        */
+       if ((out_resp->count_modes >= mode_count) && mode_count) {
+               copied = 0;
+-              mode_ptr = (struct drm_mode_modeinfo *)(unsigned long)out_resp->modes_ptr;
++              mode_ptr = (struct drm_mode_modeinfo __user *)(unsigned long)out_resp->modes_ptr;
+               list_for_each_entry(mode, &connector->modes, head) {
+                       drm_crtc_convert_to_umode(&u_mode, mode);
+                       if (copy_to_user(mode_ptr + copied,
+@@ -1338,8 +1338,8 @@ int drm_mode_getconnector(struct drm_device *dev, void *data,
+       if ((out_resp->count_props >= props_count) && props_count) {
+               copied = 0;
+-              prop_ptr = (uint32_t *)(unsigned long)(out_resp->props_ptr);
+-              prop_values = (uint64_t *)(unsigned long)(out_resp->prop_values_ptr);
++              prop_ptr = (uint32_t __user *)(unsigned long)(out_resp->props_ptr);
++              prop_values = (uint64_t __user *)(unsigned long)(out_resp->prop_values_ptr);
+               for (i = 0; i < DRM_CONNECTOR_MAX_PROPERTY; i++) {
+                       if (connector->property_ids[i] != 0) {
+                               if (put_user(connector->property_ids[i],
+@@ -1361,7 +1361,7 @@ int drm_mode_getconnector(struct drm_device *dev, void *data,
+       if ((out_resp->count_encoders >= encoders_count) && encoders_count) {
+               copied = 0;
+-              encoder_ptr = (uint32_t *)(unsigned long)(out_resp->encoders_ptr);
++              encoder_ptr = (uint32_t __user *)(unsigned long)(out_resp->encoders_ptr);
+               for (i = 0; i < DRM_CONNECTOR_MAX_ENCODER; i++) {
+                       if (connector->encoder_ids[i] != 0) {
+                               if (put_user(connector->encoder_ids[i],
+@@ -1513,7 +1513,7 @@ int drm_mode_setcrtc(struct drm_device *dev, void *data,
+               }
+               for (i = 0; i < crtc_req->count_connectors; i++) {
+-                      set_connectors_ptr = (uint32_t *)(unsigned long)crtc_req->set_connectors_ptr;
++                      set_connectors_ptr = (uint32_t __user *)(unsigned long)crtc_req->set_connectors_ptr;
+                       if (get_user(out_id, &set_connectors_ptr[i])) {
+                               ret = -EFAULT;
+                               goto out;
+@@ -2118,7 +2118,7 @@ int drm_mode_getproperty_ioctl(struct drm_device *dev,
+       out_resp->flags = property->flags;
+       if ((out_resp->count_values >= value_count) && value_count) {
+-              values_ptr = (uint64_t *)(unsigned long)out_resp->values_ptr;
++              values_ptr = (uint64_t __user *)(unsigned long)out_resp->values_ptr;
+               for (i = 0; i < value_count; i++) {
+                       if (copy_to_user(values_ptr + i, &property->values[i], sizeof(uint64_t))) {
+                               ret = -EFAULT;
+@@ -2131,7 +2131,7 @@ int drm_mode_getproperty_ioctl(struct drm_device *dev,
+       if (property->flags & DRM_MODE_PROP_ENUM) {
+               if ((out_resp->count_enum_blobs >= enum_count) && enum_count) {
+                       copied = 0;
+-                      enum_ptr = (struct drm_mode_property_enum *)(unsigned long)out_resp->enum_blob_ptr;
++                      enum_ptr = (struct drm_mode_property_enum __user *)(unsigned long)out_resp->enum_blob_ptr;
+                       list_for_each_entry(prop_enum, &property->enum_blob_list, head) {
+                               if (copy_to_user(&enum_ptr[copied].value, &prop_enum->value, sizeof(uint64_t))) {
+@@ -2154,7 +2154,7 @@ int drm_mode_getproperty_ioctl(struct drm_device *dev,
+               if ((out_resp->count_enum_blobs >= blob_count) && blob_count) {
+                       copied = 0;
+                       blob_id_ptr = (uint32_t *)(unsigned long)out_resp->enum_blob_ptr;
+-                      blob_length_ptr = (uint32_t *)(unsigned long)out_resp->values_ptr;
++                      blob_length_ptr = (uint32_t __user *)(unsigned long)out_resp->values_ptr;
+                       list_for_each_entry(prop_blob, &property->enum_blob_list, head) {
+                               if (put_user(prop_blob->base.id, blob_id_ptr + copied)) {
+@@ -2226,7 +2226,7 @@ int drm_mode_getblob_ioctl(struct drm_device *dev,
+       blob = obj_to_blob(obj);
+       if (out_resp->length == blob->length) {
+-              blob_ptr = (void *)(unsigned long)out_resp->data;
++              blob_ptr = (void __user *)(unsigned long)out_resp->data;
+               if (copy_to_user(blob_ptr, blob->data, blob->length)){
+                       ret = -EFAULT;
+                       goto done;
+diff --git a/drivers/gpu/drm/drm_crtc_helper.c b/drivers/gpu/drm/drm_crtc_helper.c
+index 1b8745d..92fdbf6 100644
+--- a/drivers/gpu/drm/drm_crtc_helper.c
++++ b/drivers/gpu/drm/drm_crtc_helper.c
+@@ -573,7 +573,7 @@ static bool drm_encoder_crtc_ok(struct drm_encoder *encoder,
+       struct drm_crtc *tmp;
+       int crtc_mask = 1;
+-      WARN(!crtc, "checking null crtc?");
++      BUG_ON(!crtc);
+       dev = crtc->dev;
+@@ -642,6 +642,8 @@ bool drm_crtc_helper_set_mode(struct drm_crtc *crtc,
+       adjusted_mode = drm_mode_duplicate(dev, mode);
++      pax_track_stack();
++
+       crtc->enabled = drm_helper_crtc_in_use(crtc);
+       if (!crtc->enabled)
+diff --git a/drivers/gpu/drm/drm_drv.c b/drivers/gpu/drm/drm_drv.c
+index 0e27d98..dec8768 100644
+--- a/drivers/gpu/drm/drm_drv.c
++++ b/drivers/gpu/drm/drm_drv.c
+@@ -417,7 +417,7 @@ int drm_ioctl(struct inode *inode, struct file *filp,
+       char *kdata = NULL;
+       atomic_inc(&dev->ioctl_count);
+-      atomic_inc(&dev->counts[_DRM_STAT_IOCTLS]);
++      atomic_inc_unchecked(&dev->counts[_DRM_STAT_IOCTLS]);
+       ++file_priv->ioctl_count;
+       DRM_DEBUG("pid=%d, cmd=0x%02x, nr=0x%02x, dev 0x%lx, auth=%d\n",
+diff --git a/drivers/gpu/drm/drm_fops.c b/drivers/gpu/drm/drm_fops.c
+index 519161e..98c840c 100644
+--- a/drivers/gpu/drm/drm_fops.c
++++ b/drivers/gpu/drm/drm_fops.c
+@@ -66,7 +66,7 @@ static int drm_setup(struct drm_device * dev)
+       }
+       for (i = 0; i < ARRAY_SIZE(dev->counts); i++)
+-              atomic_set(&dev->counts[i], 0);
++              atomic_set_unchecked(&dev->counts[i], 0);
+       dev->sigdata.lock = NULL;
+@@ -130,9 +130,9 @@ int drm_open(struct inode *inode, struct file *filp)
+       retcode = drm_open_helper(inode, filp, dev);
+       if (!retcode) {
+-              atomic_inc(&dev->counts[_DRM_STAT_OPENS]);
++              atomic_inc_unchecked(&dev->counts[_DRM_STAT_OPENS]);
+               spin_lock(&dev->count_lock);
+-              if (!dev->open_count++) {
++              if (local_inc_return(&dev->open_count) == 1) {
+                       spin_unlock(&dev->count_lock);
+                       retcode = drm_setup(dev);
+                       goto out;
+@@ -435,7 +435,7 @@ int drm_release(struct inode *inode, struct file *filp)
+       lock_kernel();
+-      DRM_DEBUG("open_count = %d\n", dev->open_count);
++      DRM_DEBUG("open_count = %d\n", local_read(&dev->open_count));
+       if (dev->driver->preclose)
+               dev->driver->preclose(dev, file_priv);
+@@ -447,7 +447,7 @@ int drm_release(struct inode *inode, struct file *filp)
+       DRM_DEBUG("pid = %d, device = 0x%lx, open_count = %d\n",
+                 task_pid_nr(current),
+                 (long)old_encode_dev(file_priv->minor->device),
+-                dev->open_count);
++                local_read(&dev->open_count));
+       /* Release any auth tokens that might point to this file_priv,
+          (do that under the drm_global_mutex) */
+@@ -529,9 +529,9 @@ int drm_release(struct inode *inode, struct file *filp)
+        * End inline drm_release
+        */
+-      atomic_inc(&dev->counts[_DRM_STAT_CLOSES]);
++      atomic_inc_unchecked(&dev->counts[_DRM_STAT_CLOSES]);
+       spin_lock(&dev->count_lock);
+-      if (!--dev->open_count) {
++      if (local_dec_and_test(&dev->open_count)) {
+               if (atomic_read(&dev->ioctl_count)) {
+                       DRM_ERROR("Device busy: %d\n",
+                                 atomic_read(&dev->ioctl_count));
+diff --git a/drivers/gpu/drm/drm_gem.c b/drivers/gpu/drm/drm_gem.c
+index 8bf3770..79422805 100644
+--- a/drivers/gpu/drm/drm_gem.c
++++ b/drivers/gpu/drm/drm_gem.c
+@@ -83,11 +83,11 @@ drm_gem_init(struct drm_device *dev)
+       spin_lock_init(&dev->object_name_lock);
+       idr_init(&dev->object_name_idr);
+       atomic_set(&dev->object_count, 0);
+-      atomic_set(&dev->object_memory, 0);
++      atomic_set_unchecked(&dev->object_memory, 0);
+       atomic_set(&dev->pin_count, 0);
+-      atomic_set(&dev->pin_memory, 0);
++      atomic_set_unchecked(&dev->pin_memory, 0);
+       atomic_set(&dev->gtt_count, 0);
+-      atomic_set(&dev->gtt_memory, 0);
++      atomic_set_unchecked(&dev->gtt_memory, 0);
+       mm = kzalloc(sizeof(struct drm_gem_mm), GFP_KERNEL);
+       if (!mm) {
+@@ -150,7 +150,7 @@ drm_gem_object_alloc(struct drm_device *dev, size_t size)
+               goto fput;
+       }
+       atomic_inc(&dev->object_count);
+-      atomic_add(obj->size, &dev->object_memory);
++      atomic_add_unchecked(obj->size, &dev->object_memory);
+       return obj;
+ fput:
+       fput(obj->filp);
+@@ -429,7 +429,7 @@ drm_gem_object_free(struct kref *kref)
+       fput(obj->filp);
+       atomic_dec(&dev->object_count);
+-      atomic_sub(obj->size, &dev->object_memory);
++      atomic_sub_unchecked(obj->size, &dev->object_memory);
+       kfree(obj);
+ }
+ EXPORT_SYMBOL(drm_gem_object_free);
+diff --git a/drivers/gpu/drm/drm_info.c b/drivers/gpu/drm/drm_info.c
+index f0f6c6b..34af322 100644
+--- a/drivers/gpu/drm/drm_info.c
++++ b/drivers/gpu/drm/drm_info.c
+@@ -75,10 +75,14 @@ int drm_vm_info(struct seq_file *m, void *data)
+       struct drm_local_map *map;
+       struct drm_map_list *r_list;
+-      /* Hardcoded from _DRM_FRAME_BUFFER,
+-         _DRM_REGISTERS, _DRM_SHM, _DRM_AGP, and
+-         _DRM_SCATTER_GATHER and _DRM_CONSISTENT */
+-      const char *types[] = { "FB", "REG", "SHM", "AGP", "SG", "PCI" };
++      static const char * const types[] = {
++              [_DRM_FRAME_BUFFER] = "FB",
++              [_DRM_REGISTERS] = "REG",
++              [_DRM_SHM] = "SHM",
++              [_DRM_AGP] = "AGP",
++              [_DRM_SCATTER_GATHER] = "SG",
++              [_DRM_CONSISTENT] = "PCI",
++              [_DRM_GEM] = "GEM" };
+       const char *type;
+       int i;
+@@ -89,7 +93,7 @@ int drm_vm_info(struct seq_file *m, void *data)
+               map = r_list->map;
+               if (!map)
+                       continue;
+-              if (map->type < 0 || map->type > 5)
++              if (map->type >= ARRAY_SIZE(types))
+                       type = "??";
+               else
+                       type = types[map->type];
+@@ -265,10 +269,10 @@ int drm_gem_object_info(struct seq_file *m, void* data)
+       struct drm_device *dev = node->minor->dev;
+       seq_printf(m, "%d objects\n", atomic_read(&dev->object_count));
+-      seq_printf(m, "%d object bytes\n", atomic_read(&dev->object_memory));
++      seq_printf(m, "%d object bytes\n", atomic_read_unchecked(&dev->object_memory));
+       seq_printf(m, "%d pinned\n", atomic_read(&dev->pin_count));
+-      seq_printf(m, "%d pin bytes\n", atomic_read(&dev->pin_memory));
+-      seq_printf(m, "%d gtt bytes\n", atomic_read(&dev->gtt_memory));
++      seq_printf(m, "%d pin bytes\n", atomic_read_unchecked(&dev->pin_memory));
++      seq_printf(m, "%d gtt bytes\n", atomic_read_unchecked(&dev->gtt_memory));
+       seq_printf(m, "%d gtt total\n", dev->gtt_total);
+       return 0;
+ }
+@@ -288,7 +292,11 @@ int drm_vma_info(struct seq_file *m, void *data)
+       mutex_lock(&dev->struct_mutex);
+       seq_printf(m, "vma use count: %d, high_memory = %p, 0x%08llx\n",
+                  atomic_read(&dev->vma_count),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                 NULL, 0);
++#else
+                  high_memory, (u64)virt_to_phys(high_memory));
++#endif
+       list_for_each_entry(pt, &dev->vmalist, head) {
+               vma = pt->vma;
+@@ -296,14 +304,23 @@ int drm_vma_info(struct seq_file *m, void *data)
+                       continue;
+               seq_printf(m,
+                          "\n%5d 0x%08lx-0x%08lx %c%c%c%c%c%c 0x%08lx000",
+-                         pt->pid, vma->vm_start, vma->vm_end,
++                         pt->pid,
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         0, 0,
++#else
++                         vma->vm_start, vma->vm_end,
++#endif
+                          vma->vm_flags & VM_READ ? 'r' : '-',
+                          vma->vm_flags & VM_WRITE ? 'w' : '-',
+                          vma->vm_flags & VM_EXEC ? 'x' : '-',
+                          vma->vm_flags & VM_MAYSHARE ? 's' : 'p',
+                          vma->vm_flags & VM_LOCKED ? 'l' : '-',
+                          vma->vm_flags & VM_IO ? 'i' : '-',
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         0);
++#else
+                          vma->vm_pgoff);
++#endif
+ #if defined(__i386__)
+               pgprot = pgprot_val(vma->vm_page_prot);
+diff --git a/drivers/gpu/drm/drm_ioc32.c b/drivers/gpu/drm/drm_ioc32.c
+index 282d9fd..71e5f11 100644
+--- a/drivers/gpu/drm/drm_ioc32.c
++++ b/drivers/gpu/drm/drm_ioc32.c
+@@ -463,7 +463,7 @@ static int compat_drm_infobufs(struct file *file, unsigned int cmd,
+       request = compat_alloc_user_space(nbytes);
+       if (!access_ok(VERIFY_WRITE, request, nbytes))
+               return -EFAULT;
+-      list = (struct drm_buf_desc *) (request + 1);
++      list = (struct drm_buf_desc __user *) (request + 1);
+       if (__put_user(count, &request->count)
+           || __put_user(list, &request->list))
+@@ -525,7 +525,7 @@ static int compat_drm_mapbufs(struct file *file, unsigned int cmd,
+       request = compat_alloc_user_space(nbytes);
+       if (!access_ok(VERIFY_WRITE, request, nbytes))
+               return -EFAULT;
+-      list = (struct drm_buf_pub *) (request + 1);
++      list = (struct drm_buf_pub __user *) (request + 1);
+       if (__put_user(count, &request->count)
+           || __put_user(list, &request->list))
+diff --git a/drivers/gpu/drm/drm_ioctl.c b/drivers/gpu/drm/drm_ioctl.c
+index 9b9ff46..4ea724c 100644
+--- a/drivers/gpu/drm/drm_ioctl.c
++++ b/drivers/gpu/drm/drm_ioctl.c
+@@ -283,7 +283,7 @@ int drm_getstats(struct drm_device *dev, void *data,
+                       stats->data[i].value =
+                           (file_priv->master->lock.hw_lock ? file_priv->master->lock.hw_lock->lock : 0);
+               else
+-                      stats->data[i].value = atomic_read(&dev->counts[i]);
++                      stats->data[i].value = atomic_read_unchecked(&dev->counts[i]);
+               stats->data[i].type = dev->types[i];
+       }
+diff --git a/drivers/gpu/drm/drm_lock.c b/drivers/gpu/drm/drm_lock.c
+index e2f70a5..c703e86 100644
+--- a/drivers/gpu/drm/drm_lock.c
++++ b/drivers/gpu/drm/drm_lock.c
+@@ -87,7 +87,7 @@ int drm_lock(struct drm_device *dev, void *data, struct drm_file *file_priv)
+               if (drm_lock_take(&master->lock, lock->context)) {
+                       master->lock.file_priv = file_priv;
+                       master->lock.lock_time = jiffies;
+-                      atomic_inc(&dev->counts[_DRM_STAT_LOCKS]);
++                      atomic_inc_unchecked(&dev->counts[_DRM_STAT_LOCKS]);
+                       break;  /* Got lock */
+               }
+@@ -165,7 +165,7 @@ int drm_unlock(struct drm_device *dev, void *data, struct drm_file *file_priv)
+               return -EINVAL;
+       }
+-      atomic_inc(&dev->counts[_DRM_STAT_UNLOCKS]);
++      atomic_inc_unchecked(&dev->counts[_DRM_STAT_UNLOCKS]);
+       /* kernel_context_switch isn't used by any of the x86 drm
+        * modules but is required by the Sparc driver.
+diff --git a/drivers/gpu/drm/i810/i810_dma.c b/drivers/gpu/drm/i810/i810_dma.c
+index 7d1d88c..b9131b2 100644
+--- a/drivers/gpu/drm/i810/i810_dma.c
++++ b/drivers/gpu/drm/i810/i810_dma.c
+@@ -952,8 +952,8 @@ static int i810_dma_vertex(struct drm_device *dev, void *data,
+                                dma->buflist[vertex->idx],
+                                vertex->discard, vertex->used);
+-      atomic_add(vertex->used, &dev->counts[_DRM_STAT_SECONDARY]);
+-      atomic_inc(&dev->counts[_DRM_STAT_DMA]);
++      atomic_add_unchecked(vertex->used, &dev->counts[_DRM_STAT_SECONDARY]);
++      atomic_inc_unchecked(&dev->counts[_DRM_STAT_DMA]);
+       sarea_priv->last_enqueue = dev_priv->counter - 1;
+       sarea_priv->last_dispatch = (int)hw_status[5];
+@@ -1115,8 +1115,8 @@ static int i810_dma_mc(struct drm_device *dev, void *data,
+       i810_dma_dispatch_mc(dev, dma->buflist[mc->idx], mc->used,
+                            mc->last_render);
+-      atomic_add(mc->used, &dev->counts[_DRM_STAT_SECONDARY]);
+-      atomic_inc(&dev->counts[_DRM_STAT_DMA]);
++      atomic_add_unchecked(mc->used, &dev->counts[_DRM_STAT_SECONDARY]);
++      atomic_inc_unchecked(&dev->counts[_DRM_STAT_DMA]);
+       sarea_priv->last_enqueue = dev_priv->counter - 1;
+       sarea_priv->last_dispatch = (int)hw_status[5];
+diff --git a/drivers/gpu/drm/i810/i810_drv.h b/drivers/gpu/drm/i810/i810_drv.h
+index 21e2691..7321edd 100644
+--- a/drivers/gpu/drm/i810/i810_drv.h
++++ b/drivers/gpu/drm/i810/i810_drv.h
+@@ -108,8 +108,8 @@ typedef struct drm_i810_private {
+       int page_flipping;
+       wait_queue_head_t irq_queue;
+-      atomic_t irq_received;
+-      atomic_t irq_emitted;
++      atomic_unchecked_t irq_received;
++      atomic_unchecked_t irq_emitted;
+       int front_offset;
+ } drm_i810_private_t;
+diff --git a/drivers/gpu/drm/i830/i830_drv.h b/drivers/gpu/drm/i830/i830_drv.h
+index da82afe..48a45de 100644
+--- a/drivers/gpu/drm/i830/i830_drv.h
++++ b/drivers/gpu/drm/i830/i830_drv.h
+@@ -115,8 +115,8 @@ typedef struct drm_i830_private {
+       int page_flipping;
+       wait_queue_head_t irq_queue;
+-      atomic_t irq_received;
+-      atomic_t irq_emitted;
++      atomic_unchecked_t irq_received;
++      atomic_unchecked_t irq_emitted;
+       int use_mi_batchbuffer_start;
+diff --git a/drivers/gpu/drm/i830/i830_irq.c b/drivers/gpu/drm/i830/i830_irq.c
+index 91ec2bb..6f21fab 100644
+--- a/drivers/gpu/drm/i830/i830_irq.c
++++ b/drivers/gpu/drm/i830/i830_irq.c
+@@ -47,7 +47,7 @@ irqreturn_t i830_driver_irq_handler(DRM_IRQ_ARGS)
+       I830_WRITE16(I830REG_INT_IDENTITY_R, temp);
+-      atomic_inc(&dev_priv->irq_received);
++      atomic_inc_unchecked(&dev_priv->irq_received);
+       wake_up_interruptible(&dev_priv->irq_queue);
+       return IRQ_HANDLED;
+@@ -60,14 +60,14 @@ static int i830_emit_irq(struct drm_device * dev)
+       DRM_DEBUG("%s\n", __func__);
+-      atomic_inc(&dev_priv->irq_emitted);
++      atomic_inc_unchecked(&dev_priv->irq_emitted);
+       BEGIN_LP_RING(2);
+       OUT_RING(0);
+       OUT_RING(GFX_OP_USER_INTERRUPT);
+       ADVANCE_LP_RING();
+-      return atomic_read(&dev_priv->irq_emitted);
++      return atomic_read_unchecked(&dev_priv->irq_emitted);
+ }
+ static int i830_wait_irq(struct drm_device * dev, int irq_nr)
+@@ -79,7 +79,7 @@ static int i830_wait_irq(struct drm_device * dev, int irq_nr)
+       DRM_DEBUG("%s\n", __func__);
+-      if (atomic_read(&dev_priv->irq_received) >= irq_nr)
++      if (atomic_read_unchecked(&dev_priv->irq_received) >= irq_nr)
+               return 0;
+       dev_priv->sarea_priv->perf_boxes |= I830_BOX_WAIT;
+@@ -88,7 +88,7 @@ static int i830_wait_irq(struct drm_device * dev, int irq_nr)
+       for (;;) {
+               __set_current_state(TASK_INTERRUPTIBLE);
+-              if (atomic_read(&dev_priv->irq_received) >= irq_nr)
++              if (atomic_read_unchecked(&dev_priv->irq_received) >= irq_nr)
+                       break;
+               if ((signed)(end - jiffies) <= 0) {
+                       DRM_ERROR("timeout iir %x imr %x ier %x hwstam %x\n",
+@@ -163,8 +163,8 @@ void i830_driver_irq_preinstall(struct drm_device * dev)
+       I830_WRITE16(I830REG_HWSTAM, 0xffff);
+       I830_WRITE16(I830REG_INT_MASK_R, 0x0);
+       I830_WRITE16(I830REG_INT_ENABLE_R, 0x0);
+-      atomic_set(&dev_priv->irq_received, 0);
+-      atomic_set(&dev_priv->irq_emitted, 0);
++      atomic_set_unchecked(&dev_priv->irq_received, 0);
++      atomic_set_unchecked(&dev_priv->irq_emitted, 0);
+       init_waitqueue_head(&dev_priv->irq_queue);
+ }
+diff --git a/drivers/gpu/drm/i915/dvo.h b/drivers/gpu/drm/i915/dvo.h
+index 288fc50..c6092055 100644
+--- a/drivers/gpu/drm/i915/dvo.h
++++ b/drivers/gpu/drm/i915/dvo.h
+@@ -135,23 +135,23 @@ struct intel_dvo_dev_ops {
+        *
+        * \return singly-linked list of modes or NULL if no modes found.
+        */
+-      struct drm_display_mode *(*get_modes)(struct intel_dvo_device *dvo);
++      struct drm_display_mode *(* const get_modes)(struct intel_dvo_device *dvo);
+       /**
+        * Clean up driver-specific bits of the output
+        */
+-      void (*destroy) (struct intel_dvo_device *dvo);
++      void (* const destroy) (struct intel_dvo_device *dvo);
+       /**
+        * Debugging hook to dump device registers to log file
+        */
+-      void (*dump_regs)(struct intel_dvo_device *dvo);
++      void (* const dump_regs)(struct intel_dvo_device *dvo);
+ };
+-extern struct intel_dvo_dev_ops sil164_ops;
+-extern struct intel_dvo_dev_ops ch7xxx_ops;
+-extern struct intel_dvo_dev_ops ivch_ops;
+-extern struct intel_dvo_dev_ops tfp410_ops;
+-extern struct intel_dvo_dev_ops ch7017_ops;
++extern const struct intel_dvo_dev_ops sil164_ops;
++extern const struct intel_dvo_dev_ops ch7xxx_ops;
++extern const struct intel_dvo_dev_ops ivch_ops;
++extern const struct intel_dvo_dev_ops tfp410_ops;
++extern const struct intel_dvo_dev_ops ch7017_ops;
+ #endif /* _INTEL_DVO_H */
+diff --git a/drivers/gpu/drm/i915/dvo_ch7017.c b/drivers/gpu/drm/i915/dvo_ch7017.c
+index 621815b..499d82e 100644
+--- a/drivers/gpu/drm/i915/dvo_ch7017.c
++++ b/drivers/gpu/drm/i915/dvo_ch7017.c
+@@ -443,7 +443,7 @@ static void ch7017_destroy(struct intel_dvo_device *dvo)
+       }
+ }
+-struct intel_dvo_dev_ops ch7017_ops = {
++const struct intel_dvo_dev_ops ch7017_ops = {
+       .init = ch7017_init,
+       .detect = ch7017_detect,
+       .mode_valid = ch7017_mode_valid,
+diff --git a/drivers/gpu/drm/i915/dvo_ch7xxx.c b/drivers/gpu/drm/i915/dvo_ch7xxx.c
+index a9b8962..ac769ba 100644
+--- a/drivers/gpu/drm/i915/dvo_ch7xxx.c
++++ b/drivers/gpu/drm/i915/dvo_ch7xxx.c
+@@ -356,7 +356,7 @@ static void ch7xxx_destroy(struct intel_dvo_device *dvo)
+       }
+ }
+-struct intel_dvo_dev_ops ch7xxx_ops = {
++const struct intel_dvo_dev_ops ch7xxx_ops = {
+       .init = ch7xxx_init,
+       .detect = ch7xxx_detect,
+       .mode_valid = ch7xxx_mode_valid,
+diff --git a/drivers/gpu/drm/i915/dvo_ivch.c b/drivers/gpu/drm/i915/dvo_ivch.c
+index aa176f9..ed2930c 100644
+--- a/drivers/gpu/drm/i915/dvo_ivch.c
++++ b/drivers/gpu/drm/i915/dvo_ivch.c
+@@ -430,7 +430,7 @@ static void ivch_destroy(struct intel_dvo_device *dvo)
+       }
+ }
+-struct intel_dvo_dev_ops ivch_ops= {
++const struct intel_dvo_dev_ops ivch_ops= {
+       .init = ivch_init,
+       .dpms = ivch_dpms,
+       .save = ivch_save,
+diff --git a/drivers/gpu/drm/i915/dvo_sil164.c b/drivers/gpu/drm/i915/dvo_sil164.c
+index e1c1f73..7dbebcf 100644
+--- a/drivers/gpu/drm/i915/dvo_sil164.c
++++ b/drivers/gpu/drm/i915/dvo_sil164.c
+@@ -290,7 +290,7 @@ static void sil164_destroy(struct intel_dvo_device *dvo)
+       }
+ }
+-struct intel_dvo_dev_ops sil164_ops = {
++const struct intel_dvo_dev_ops sil164_ops = {
+       .init = sil164_init,
+       .detect = sil164_detect,
+       .mode_valid = sil164_mode_valid,
+diff --git a/drivers/gpu/drm/i915/dvo_tfp410.c b/drivers/gpu/drm/i915/dvo_tfp410.c
+index 16dce84..7e1b6f8 100644
+--- a/drivers/gpu/drm/i915/dvo_tfp410.c
++++ b/drivers/gpu/drm/i915/dvo_tfp410.c
+@@ -323,7 +323,7 @@ static void tfp410_destroy(struct intel_dvo_device *dvo)
+       }
+ }
+-struct intel_dvo_dev_ops tfp410_ops = {
++const struct intel_dvo_dev_ops tfp410_ops = {
+       .init = tfp410_init,
+       .detect = tfp410_detect,
+       .mode_valid = tfp410_mode_valid,
+diff --git a/drivers/gpu/drm/i915/i915_debugfs.c b/drivers/gpu/drm/i915/i915_debugfs.c
+index 7e859d6..7d1cf2b 100644
+--- a/drivers/gpu/drm/i915/i915_debugfs.c
++++ b/drivers/gpu/drm/i915/i915_debugfs.c
+@@ -192,7 +192,7 @@ static int i915_interrupt_info(struct seq_file *m, void *data)
+                          I915_READ(GTIMR));
+       }
+       seq_printf(m, "Interrupts received: %d\n",
+-                 atomic_read(&dev_priv->irq_received));
++                 atomic_read_unchecked(&dev_priv->irq_received));
+       if (dev_priv->hw_status_page != NULL) {
+               seq_printf(m, "Current sequence:    %d\n",
+                          i915_get_gem_seqno(dev));
+diff --git a/drivers/gpu/drm/i915/i915_drv.c b/drivers/gpu/drm/i915/i915_drv.c
+index 5449239..7e4f68d 100644
+--- a/drivers/gpu/drm/i915/i915_drv.c
++++ b/drivers/gpu/drm/i915/i915_drv.c
+@@ -285,7 +285,7 @@ i915_pci_resume(struct pci_dev *pdev)
+       return i915_resume(dev);
+ }
+-static struct vm_operations_struct i915_gem_vm_ops = {
++static const struct vm_operations_struct i915_gem_vm_ops = {
+       .fault = i915_gem_fault,
+       .open = drm_gem_vm_open,
+       .close = drm_gem_vm_close,
+diff --git a/drivers/gpu/drm/i915/i915_drv.h b/drivers/gpu/drm/i915/i915_drv.h
+index 97163f7..c24c7c7 100644
+--- a/drivers/gpu/drm/i915/i915_drv.h
++++ b/drivers/gpu/drm/i915/i915_drv.h
+@@ -168,7 +168,7 @@ struct drm_i915_display_funcs {
+       /* display clock increase/decrease */
+       /* pll clock increase/decrease */
+       /* clock gating init */
+-};
++} __no_const;
+ typedef struct drm_i915_private {
+       struct drm_device *dev;
+@@ -197,7 +197,7 @@ typedef struct drm_i915_private {
+       int page_flipping;
+       wait_queue_head_t irq_queue;
+-      atomic_t irq_received;
++      atomic_unchecked_t irq_received;
+       /** Protects user_irq_refcount and irq_mask_reg */
+       spinlock_t user_irq_lock;
+       /** Refcount for i915_user_irq_get() versus i915_user_irq_put(). */
+diff --git a/drivers/gpu/drm/i915/i915_gem.c b/drivers/gpu/drm/i915/i915_gem.c
+index 27a3074..eb3f959 100644
+--- a/drivers/gpu/drm/i915/i915_gem.c
++++ b/drivers/gpu/drm/i915/i915_gem.c
+@@ -102,7 +102,7 @@ i915_gem_get_aperture_ioctl(struct drm_device *dev, void *data,
+       args->aper_size = dev->gtt_total;
+       args->aper_available_size = (args->aper_size -
+-                                   atomic_read(&dev->pin_memory));
++                                   atomic_read_unchecked(&dev->pin_memory));
+       return 0;
+ }
+@@ -2058,7 +2058,7 @@ i915_gem_object_unbind(struct drm_gem_object *obj)
+       if (obj_priv->gtt_space) {
+               atomic_dec(&dev->gtt_count);
+-              atomic_sub(obj->size, &dev->gtt_memory);
++              atomic_sub_unchecked(obj->size, &dev->gtt_memory);
+               drm_mm_put_block(obj_priv->gtt_space);
+               obj_priv->gtt_space = NULL;
+@@ -2701,7 +2701,7 @@ i915_gem_object_bind_to_gtt(struct drm_gem_object *obj, unsigned alignment)
+               goto search_free;
+       }
+       atomic_inc(&dev->gtt_count);
+-      atomic_add(obj->size, &dev->gtt_memory);
++      atomic_add_unchecked(obj->size, &dev->gtt_memory);
+       /* Assert that the object is not currently in any GPU domain. As it
+        * wasn't in the GTT, there shouldn't be any way it could have been in
+@@ -3755,9 +3755,9 @@ i915_gem_execbuffer(struct drm_device *dev, void *data,
+                                         "%d/%d gtt bytes\n",
+                                         atomic_read(&dev->object_count),
+                                         atomic_read(&dev->pin_count),
+-                                        atomic_read(&dev->object_memory),
+-                                        atomic_read(&dev->pin_memory),
+-                                        atomic_read(&dev->gtt_memory),
++                                        atomic_read_unchecked(&dev->object_memory),
++                                        atomic_read_unchecked(&dev->pin_memory),
++                                        atomic_read_unchecked(&dev->gtt_memory),
+                                         dev->gtt_total);
+                       }
+                       goto err;
+@@ -3989,7 +3989,7 @@ i915_gem_object_pin(struct drm_gem_object *obj, uint32_t alignment)
+        */
+       if (obj_priv->pin_count == 1) {
+               atomic_inc(&dev->pin_count);
+-              atomic_add(obj->size, &dev->pin_memory);
++              atomic_add_unchecked(obj->size, &dev->pin_memory);
+               if (!obj_priv->active &&
+                   (obj->write_domain & I915_GEM_GPU_DOMAINS) == 0 &&
+                   !list_empty(&obj_priv->list))
+@@ -4022,7 +4022,7 @@ i915_gem_object_unpin(struct drm_gem_object *obj)
+                       list_move_tail(&obj_priv->list,
+                                      &dev_priv->mm.inactive_list);
+               atomic_dec(&dev->pin_count);
+-              atomic_sub(obj->size, &dev->pin_memory);
++              atomic_sub_unchecked(obj->size, &dev->pin_memory);
+       }
+       i915_verify_inactive(dev, __FILE__, __LINE__);
+ }
+diff --git a/drivers/gpu/drm/i915/i915_irq.c b/drivers/gpu/drm/i915/i915_irq.c
+index 63f28ad..f5469da 100644
+--- a/drivers/gpu/drm/i915/i915_irq.c
++++ b/drivers/gpu/drm/i915/i915_irq.c
+@@ -528,7 +528,7 @@ irqreturn_t i915_driver_irq_handler(DRM_IRQ_ARGS)
+       int irq_received;
+       int ret = IRQ_NONE;
+-      atomic_inc(&dev_priv->irq_received);
++      atomic_inc_unchecked(&dev_priv->irq_received);
+       if (IS_IGDNG(dev))
+               return igdng_irq_handler(dev);
+@@ -1021,7 +1021,7 @@ void i915_driver_irq_preinstall(struct drm_device * dev)
+ {
+       drm_i915_private_t *dev_priv = (drm_i915_private_t *) dev->dev_private;
+-      atomic_set(&dev_priv->irq_received, 0);
++      atomic_set_unchecked(&dev_priv->irq_received, 0);
+       INIT_WORK(&dev_priv->hotplug_work, i915_hotplug_work_func);
+       INIT_WORK(&dev_priv->error_work, i915_error_work_func);
+diff --git a/drivers/gpu/drm/i915/intel_sdvo.c b/drivers/gpu/drm/i915/intel_sdvo.c
+index 5d9c6a7..d1b0e29 100644
+--- a/drivers/gpu/drm/i915/intel_sdvo.c
++++ b/drivers/gpu/drm/i915/intel_sdvo.c
+@@ -2795,7 +2795,9 @@ bool intel_sdvo_init(struct drm_device *dev, int output_device)
+       sdvo_priv->slave_addr = intel_sdvo_get_slave_addr(dev, output_device);
+       /* Save the bit-banging i2c functionality for use by the DDC wrapper */
+-      intel_sdvo_i2c_bit_algo.functionality = intel_output->i2c_bus->algo->functionality;
++      pax_open_kernel();
++      *(void **)&intel_sdvo_i2c_bit_algo.functionality = intel_output->i2c_bus->algo->functionality;
++      pax_close_kernel();
+       /* Read the regs to test if we can talk to the device */
+       for (i = 0; i < 0x40; i++) {
+diff --git a/drivers/gpu/drm/mga/mga_drv.h b/drivers/gpu/drm/mga/mga_drv.h
+index be6c6b9..8615d9c 100644
+--- a/drivers/gpu/drm/mga/mga_drv.h
++++ b/drivers/gpu/drm/mga/mga_drv.h
+@@ -120,9 +120,9 @@ typedef struct drm_mga_private {
+       u32 clear_cmd;
+       u32 maccess;
+-      atomic_t vbl_received;          /**< Number of vblanks received. */
++      atomic_unchecked_t vbl_received;          /**< Number of vblanks received. */
+       wait_queue_head_t fence_queue;
+-      atomic_t last_fence_retired;
++      atomic_unchecked_t last_fence_retired;
+       u32 next_fence_to_post;
+       unsigned int fb_cpp;
+diff --git a/drivers/gpu/drm/mga/mga_irq.c b/drivers/gpu/drm/mga/mga_irq.c
+index daa6041..a28a5da 100644
+--- a/drivers/gpu/drm/mga/mga_irq.c
++++ b/drivers/gpu/drm/mga/mga_irq.c
+@@ -44,7 +44,7 @@ u32 mga_get_vblank_counter(struct drm_device *dev, int crtc)
+       if (crtc != 0)
+               return 0;
+-      return atomic_read(&dev_priv->vbl_received);
++      return atomic_read_unchecked(&dev_priv->vbl_received);
+ }
+@@ -60,7 +60,7 @@ irqreturn_t mga_driver_irq_handler(DRM_IRQ_ARGS)
+       /* VBLANK interrupt */
+       if (status & MGA_VLINEPEN) {
+               MGA_WRITE(MGA_ICLEAR, MGA_VLINEICLR);
+-              atomic_inc(&dev_priv->vbl_received);
++              atomic_inc_unchecked(&dev_priv->vbl_received);
+               drm_handle_vblank(dev, 0);
+               handled = 1;
+       }
+@@ -80,7 +80,7 @@ irqreturn_t mga_driver_irq_handler(DRM_IRQ_ARGS)
+                       MGA_WRITE(MGA_PRIMEND, prim_end);
+               }
+-              atomic_inc(&dev_priv->last_fence_retired);
++              atomic_inc_unchecked(&dev_priv->last_fence_retired);
+               DRM_WAKEUP(&dev_priv->fence_queue);
+               handled = 1;
+       }
+@@ -131,7 +131,7 @@ int mga_driver_fence_wait(struct drm_device * dev, unsigned int *sequence)
+        * using fences.
+        */
+       DRM_WAIT_ON(ret, dev_priv->fence_queue, 3 * DRM_HZ,
+-                  (((cur_fence = atomic_read(&dev_priv->last_fence_retired))
++                  (((cur_fence = atomic_read_unchecked(&dev_priv->last_fence_retired))
+                     - *sequence) <= (1 << 23)));
+       *sequence = cur_fence;
+diff --git a/drivers/gpu/drm/r128/r128_cce.c b/drivers/gpu/drm/r128/r128_cce.c
+index 4c39a40..b22a9ea 100644
+--- a/drivers/gpu/drm/r128/r128_cce.c
++++ b/drivers/gpu/drm/r128/r128_cce.c
+@@ -377,7 +377,7 @@ static int r128_do_init_cce(struct drm_device * dev, drm_r128_init_t * init)
+       /* GH: Simple idle check.
+        */
+-      atomic_set(&dev_priv->idle_count, 0);
++      atomic_set_unchecked(&dev_priv->idle_count, 0);
+       /* We don't support anything other than bus-mastering ring mode,
+        * but the ring can be in either AGP or PCI space for the ring
+diff --git a/drivers/gpu/drm/r128/r128_drv.h b/drivers/gpu/drm/r128/r128_drv.h
+index 3c60829..4faf484 100644
+--- a/drivers/gpu/drm/r128/r128_drv.h
++++ b/drivers/gpu/drm/r128/r128_drv.h
+@@ -90,14 +90,14 @@ typedef struct drm_r128_private {
+       int is_pci;
+       unsigned long cce_buffers_offset;
+-      atomic_t idle_count;
++      atomic_unchecked_t idle_count;
+       int page_flipping;
+       int current_page;
+       u32 crtc_offset;
+       u32 crtc_offset_cntl;
+-      atomic_t vbl_received;
++      atomic_unchecked_t vbl_received;
+       u32 color_fmt;
+       unsigned int front_offset;
+diff --git a/drivers/gpu/drm/r128/r128_irq.c b/drivers/gpu/drm/r128/r128_irq.c
+index 69810fb..97bf17a 100644
+--- a/drivers/gpu/drm/r128/r128_irq.c
++++ b/drivers/gpu/drm/r128/r128_irq.c
+@@ -42,7 +42,7 @@ u32 r128_get_vblank_counter(struct drm_device *dev, int crtc)
+       if (crtc != 0)
+               return 0;
+-      return atomic_read(&dev_priv->vbl_received);
++      return atomic_read_unchecked(&dev_priv->vbl_received);
+ }
+ irqreturn_t r128_driver_irq_handler(DRM_IRQ_ARGS)
+@@ -56,7 +56,7 @@ irqreturn_t r128_driver_irq_handler(DRM_IRQ_ARGS)
+       /* VBLANK interrupt */
+       if (status & R128_CRTC_VBLANK_INT) {
+               R128_WRITE(R128_GEN_INT_STATUS, R128_CRTC_VBLANK_INT_AK);
+-              atomic_inc(&dev_priv->vbl_received);
++              atomic_inc_unchecked(&dev_priv->vbl_received);
+               drm_handle_vblank(dev, 0);
+               return IRQ_HANDLED;
+       }
+diff --git a/drivers/gpu/drm/r128/r128_state.c b/drivers/gpu/drm/r128/r128_state.c
+index af2665c..51922d2 100644
+--- a/drivers/gpu/drm/r128/r128_state.c
++++ b/drivers/gpu/drm/r128/r128_state.c
+@@ -323,10 +323,10 @@ static void r128_clear_box(drm_r128_private_t * dev_priv,
+ static void r128_cce_performance_boxes(drm_r128_private_t * dev_priv)
+ {
+-      if (atomic_read(&dev_priv->idle_count) == 0) {
++      if (atomic_read_unchecked(&dev_priv->idle_count) == 0) {
+               r128_clear_box(dev_priv, 64, 4, 8, 8, 0, 255, 0);
+       } else {
+-              atomic_set(&dev_priv->idle_count, 0);
++              atomic_set_unchecked(&dev_priv->idle_count, 0);
+       }
+ }
+diff --git a/drivers/gpu/drm/radeon/atom.c b/drivers/gpu/drm/radeon/atom.c
+index dd72b91..8644b3c 100644
+--- a/drivers/gpu/drm/radeon/atom.c
++++ b/drivers/gpu/drm/radeon/atom.c
+@@ -1115,6 +1115,8 @@ struct atom_context *atom_parse(struct card_info *card, void *bios)
+       char name[512];
+       int i;
++      pax_track_stack();
++
+       ctx->card = card;
+       ctx->bios = bios;
+diff --git a/drivers/gpu/drm/radeon/mkregtable.c b/drivers/gpu/drm/radeon/mkregtable.c
+index 0d79577..efaa7a5 100644
+--- a/drivers/gpu/drm/radeon/mkregtable.c
++++ b/drivers/gpu/drm/radeon/mkregtable.c
+@@ -637,14 +637,14 @@ static int parser_auth(struct table *t, const char *filename)
+       regex_t mask_rex;
+       regmatch_t match[4];
+       char buf[1024];
+-      size_t end;
++      long end;
+       int len;
+       int done = 0;
+       int r;
+       unsigned o;
+       struct offset *offset;
+       char last_reg_s[10];
+-      int last_reg;
++      unsigned long last_reg;
+       if (regcomp
+           (&mask_rex, "(0x[0-9a-fA-F]*) *([_a-zA-Z0-9]*)", REG_EXTENDED)) {
+diff --git a/drivers/gpu/drm/radeon/radeon.h b/drivers/gpu/drm/radeon/radeon.h
+index 6735213..38c2c67 100644
+--- a/drivers/gpu/drm/radeon/radeon.h
++++ b/drivers/gpu/drm/radeon/radeon.h
+@@ -149,7 +149,7 @@ int radeon_pm_init(struct radeon_device *rdev);
+  */
+ struct radeon_fence_driver {
+       uint32_t                        scratch_reg;
+-      atomic_t                        seq;
++      atomic_unchecked_t              seq;
+       uint32_t                        last_seq;
+       unsigned long                   count_timeout;
+       wait_queue_head_t               queue;
+@@ -640,7 +640,7 @@ struct radeon_asic {
+                              uint32_t offset, uint32_t obj_size);
+       int (*clear_surface_reg)(struct radeon_device *rdev, int reg);
+       void (*bandwidth_update)(struct radeon_device *rdev);
+-};
++} __no_const;
+ /*
+  * Asic structures
+diff --git a/drivers/gpu/drm/radeon/radeon_atombios.c b/drivers/gpu/drm/radeon/radeon_atombios.c
+index 4e928b9..d8b6008 100644
+--- a/drivers/gpu/drm/radeon/radeon_atombios.c
++++ b/drivers/gpu/drm/radeon/radeon_atombios.c
+@@ -275,6 +275,8 @@ bool radeon_get_atom_connector_info_from_object_table(struct drm_device *dev)
+       bool linkb;
+       struct radeon_i2c_bus_rec ddc_bus;
++      pax_track_stack();
++
+       atom_parse_data_header(ctx, index, &size, &frev, &crev, &data_offset);
+       if (data_offset == 0)
+@@ -520,13 +522,13 @@ static uint16_t atombios_get_connector_object_id(struct drm_device *dev,
+       }
+ }
+-struct bios_connector {
++static struct bios_connector {
+       bool valid;
+       uint16_t line_mux;
+       uint16_t devices;
+       int connector_type;
+       struct radeon_i2c_bus_rec ddc_bus;
+-};
++} bios_connectors[ATOM_MAX_SUPPORTED_DEVICE];
+ bool radeon_get_atom_connector_info_from_supported_devices_table(struct
+                                                                drm_device
+@@ -542,7 +544,6 @@ bool radeon_get_atom_connector_info_from_supported_devices_table(struct
+       uint8_t dac;
+       union atom_supported_devices *supported_devices;
+       int i, j;
+-      struct bios_connector bios_connectors[ATOM_MAX_SUPPORTED_DEVICE];
+       atom_parse_data_header(ctx, index, &size, &frev, &crev, &data_offset);
+diff --git a/drivers/gpu/drm/radeon/radeon_display.c b/drivers/gpu/drm/radeon/radeon_display.c
+index 083a181..ccccae0 100644
+--- a/drivers/gpu/drm/radeon/radeon_display.c
++++ b/drivers/gpu/drm/radeon/radeon_display.c
+@@ -482,7 +482,7 @@ void radeon_compute_pll(struct radeon_pll *pll,
+                                       if (flags & RADEON_PLL_PREFER_CLOSEST_LOWER) {
+                                               error = freq - current_freq;
+-                                              error = error < 0 ? 0xffffffff : error;
++                                              error = (int32_t)error < 0 ? 0xffffffff : error;
+                                       } else
+                                               error = abs(current_freq - freq);
+                                       vco_diff = abs(vco - best_vco);
+diff --git a/drivers/gpu/drm/radeon/radeon_drv.h b/drivers/gpu/drm/radeon/radeon_drv.h
+index 76e4070..193fa7f 100644
+--- a/drivers/gpu/drm/radeon/radeon_drv.h
++++ b/drivers/gpu/drm/radeon/radeon_drv.h
+@@ -253,7 +253,7 @@ typedef struct drm_radeon_private {
+       /* SW interrupt */
+       wait_queue_head_t swi_queue;
+-      atomic_t swi_emitted;
++      atomic_unchecked_t swi_emitted;
+       int vblank_crtc;
+       uint32_t irq_enable_reg;
+       uint32_t r500_disp_irq_reg;
+diff --git a/drivers/gpu/drm/radeon/radeon_fence.c b/drivers/gpu/drm/radeon/radeon_fence.c
+index 3beb26d..6ce9c4a 100644
+--- a/drivers/gpu/drm/radeon/radeon_fence.c
++++ b/drivers/gpu/drm/radeon/radeon_fence.c
+@@ -47,7 +47,7 @@ int radeon_fence_emit(struct radeon_device *rdev, struct radeon_fence *fence)
+               write_unlock_irqrestore(&rdev->fence_drv.lock, irq_flags);
+               return 0;
+       }
+-      fence->seq = atomic_add_return(1, &rdev->fence_drv.seq);
++      fence->seq = atomic_add_return_unchecked(1, &rdev->fence_drv.seq);
+       if (!rdev->cp.ready) {
+               /* FIXME: cp is not running assume everythings is done right
+                * away
+@@ -364,7 +364,7 @@ int radeon_fence_driver_init(struct radeon_device *rdev)
+               return r;
+       }
+       WREG32(rdev->fence_drv.scratch_reg, 0);
+-      atomic_set(&rdev->fence_drv.seq, 0);
++      atomic_set_unchecked(&rdev->fence_drv.seq, 0);
+       INIT_LIST_HEAD(&rdev->fence_drv.created);
+       INIT_LIST_HEAD(&rdev->fence_drv.emited);
+       INIT_LIST_HEAD(&rdev->fence_drv.signaled);
+diff --git a/drivers/gpu/drm/radeon/radeon_ioc32.c b/drivers/gpu/drm/radeon/radeon_ioc32.c
+index a1bf11d..4a123c0 100644
+--- a/drivers/gpu/drm/radeon/radeon_ioc32.c
++++ b/drivers/gpu/drm/radeon/radeon_ioc32.c
+@@ -368,7 +368,7 @@ static int compat_radeon_cp_setparam(struct file *file, unsigned int cmd,
+       request = compat_alloc_user_space(sizeof(*request));
+       if (!access_ok(VERIFY_WRITE, request, sizeof(*request))
+           || __put_user(req32.param, &request->param)
+-          || __put_user((void __user *)(unsigned long)req32.value,
++          || __put_user((unsigned long)req32.value,
+                         &request->value))
+               return -EFAULT;
+diff --git a/drivers/gpu/drm/radeon/radeon_irq.c b/drivers/gpu/drm/radeon/radeon_irq.c
+index b79ecc4..8dab92d 100644
+--- a/drivers/gpu/drm/radeon/radeon_irq.c
++++ b/drivers/gpu/drm/radeon/radeon_irq.c
+@@ -225,8 +225,8 @@ static int radeon_emit_irq(struct drm_device * dev)
+       unsigned int ret;
+       RING_LOCALS;
+-      atomic_inc(&dev_priv->swi_emitted);
+-      ret = atomic_read(&dev_priv->swi_emitted);
++      atomic_inc_unchecked(&dev_priv->swi_emitted);
++      ret = atomic_read_unchecked(&dev_priv->swi_emitted);
+       BEGIN_RING(4);
+       OUT_RING_REG(RADEON_LAST_SWI_REG, ret);
+@@ -352,7 +352,7 @@ int radeon_driver_irq_postinstall(struct drm_device *dev)
+       drm_radeon_private_t *dev_priv =
+           (drm_radeon_private_t *) dev->dev_private;
+-      atomic_set(&dev_priv->swi_emitted, 0);
++      atomic_set_unchecked(&dev_priv->swi_emitted, 0);
+       DRM_INIT_WAITQUEUE(&dev_priv->swi_queue);
+       dev->max_vblank_count = 0x001fffff;
+diff --git a/drivers/gpu/drm/radeon/radeon_state.c b/drivers/gpu/drm/radeon/radeon_state.c
+index 4747910..48ca4b3 100644
+--- a/drivers/gpu/drm/radeon/radeon_state.c
++++ b/drivers/gpu/drm/radeon/radeon_state.c
+@@ -3021,7 +3021,7 @@ static int radeon_cp_getparam(struct drm_device *dev, void *data, struct drm_fil
+ {
+       drm_radeon_private_t *dev_priv = dev->dev_private;
+       drm_radeon_getparam_t *param = data;
+-      int value;
++      int value = 0;
+       DRM_DEBUG("pid=%d\n", DRM_CURRENTPID);
+diff --git a/drivers/gpu/drm/radeon/radeon_ttm.c b/drivers/gpu/drm/radeon/radeon_ttm.c
+index 1381e06..0e53b17 100644
+--- a/drivers/gpu/drm/radeon/radeon_ttm.c
++++ b/drivers/gpu/drm/radeon/radeon_ttm.c
+@@ -535,27 +535,10 @@ void radeon_ttm_fini(struct radeon_device *rdev)
+       DRM_INFO("radeon: ttm finalized\n");
+ }
+-static struct vm_operations_struct radeon_ttm_vm_ops;
+-static const struct vm_operations_struct *ttm_vm_ops = NULL;
+-
+-static int radeon_ttm_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
+-{
+-      struct ttm_buffer_object *bo;
+-      int r;
+-
+-      bo = (struct ttm_buffer_object *)vma->vm_private_data;
+-      if (bo == NULL) {
+-              return VM_FAULT_NOPAGE;
+-      }
+-      r = ttm_vm_ops->fault(vma, vmf);
+-      return r;
+-}
+-
+ int radeon_mmap(struct file *filp, struct vm_area_struct *vma)
+ {
+       struct drm_file *file_priv;
+       struct radeon_device *rdev;
+-      int r;
+       if (unlikely(vma->vm_pgoff < DRM_FILE_PAGE_OFFSET)) {
+               return drm_mmap(filp, vma);
+@@ -563,20 +546,9 @@ int radeon_mmap(struct file *filp, struct vm_area_struct *vma)
+       file_priv = (struct drm_file *)filp->private_data;
+       rdev = file_priv->minor->dev->dev_private;
+-      if (rdev == NULL) {
++      if (!rdev)
+               return -EINVAL;
+-      }
+-      r = ttm_bo_mmap(filp, vma, &rdev->mman.bdev);
+-      if (unlikely(r != 0)) {
+-              return r;
+-      }
+-      if (unlikely(ttm_vm_ops == NULL)) {
+-              ttm_vm_ops = vma->vm_ops;
+-              radeon_ttm_vm_ops = *ttm_vm_ops;
+-              radeon_ttm_vm_ops.fault = &radeon_ttm_fault;
+-      }
+-      vma->vm_ops = &radeon_ttm_vm_ops;
+-      return 0;
++      return ttm_bo_mmap(filp, vma, &rdev->mman.bdev);
+ }
+diff --git a/drivers/gpu/drm/radeon/rs690.c b/drivers/gpu/drm/radeon/rs690.c
+index b12ff76..0bd0c6e 100644
+--- a/drivers/gpu/drm/radeon/rs690.c
++++ b/drivers/gpu/drm/radeon/rs690.c
+@@ -302,9 +302,11 @@ void rs690_crtc_bandwidth_compute(struct radeon_device *rdev,
+               if (rdev->pm.max_bandwidth.full > rdev->pm.sideport_bandwidth.full &&
+                       rdev->pm.sideport_bandwidth.full)
+                       rdev->pm.max_bandwidth = rdev->pm.sideport_bandwidth;
+-              read_delay_latency.full = rfixed_const(370 * 800 * 1000);
++              read_delay_latency.full = rfixed_const(800 * 1000);
+               read_delay_latency.full = rfixed_div(read_delay_latency,
+                       rdev->pm.igp_sideport_mclk);
++              a.full = rfixed_const(370);
++              read_delay_latency.full = rfixed_mul(read_delay_latency, a);
+       } else {
+               if (rdev->pm.max_bandwidth.full > rdev->pm.k8_bandwidth.full &&
+                       rdev->pm.k8_bandwidth.full)
+diff --git a/drivers/gpu/drm/ttm/ttm_bo.c b/drivers/gpu/drm/ttm/ttm_bo.c
+index 0ed436e..e6e7ce3 100644
+--- a/drivers/gpu/drm/ttm/ttm_bo.c
++++ b/drivers/gpu/drm/ttm/ttm_bo.c
+@@ -67,7 +67,7 @@ static struct attribute *ttm_bo_global_attrs[] = {
+       NULL
+ };
+-static struct sysfs_ops ttm_bo_global_ops = {
++static const struct sysfs_ops ttm_bo_global_ops = {
+       .show = &ttm_bo_global_show
+ };
+diff --git a/drivers/gpu/drm/ttm/ttm_bo_vm.c b/drivers/gpu/drm/ttm/ttm_bo_vm.c
+index 1c040d0..f9e4af8 100644
+--- a/drivers/gpu/drm/ttm/ttm_bo_vm.c
++++ b/drivers/gpu/drm/ttm/ttm_bo_vm.c
+@@ -73,7 +73,7 @@ static int ttm_bo_vm_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
+ {
+       struct ttm_buffer_object *bo = (struct ttm_buffer_object *)
+           vma->vm_private_data;
+-      struct ttm_bo_device *bdev = bo->bdev;
++      struct ttm_bo_device *bdev;
+       unsigned long bus_base;
+       unsigned long bus_offset;
+       unsigned long bus_size;
+@@ -88,6 +88,10 @@ static int ttm_bo_vm_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
+       unsigned long address = (unsigned long)vmf->virtual_address;
+       int retval = VM_FAULT_NOPAGE;
++      if (!bo)
++              return VM_FAULT_NOPAGE;
++      bdev = bo->bdev;
++
+       /*
+        * Work around locking order reversal in fault / nopfn
+        * between mmap_sem and bo_reserve: Perform a trylock operation
+diff --git a/drivers/gpu/drm/ttm/ttm_global.c b/drivers/gpu/drm/ttm/ttm_global.c
+index b170071..28ae90e 100644
+--- a/drivers/gpu/drm/ttm/ttm_global.c
++++ b/drivers/gpu/drm/ttm/ttm_global.c
+@@ -36,7 +36,7 @@
+ struct ttm_global_item {
+       struct mutex mutex;
+       void *object;
+-      int refcount;
++      atomic_t refcount;
+ };
+ static struct ttm_global_item glob[TTM_GLOBAL_NUM];
+@@ -49,7 +49,7 @@ void ttm_global_init(void)
+               struct ttm_global_item *item = &glob[i];
+               mutex_init(&item->mutex);
+               item->object = NULL;
+-              item->refcount = 0;
++              atomic_set(&item->refcount, 0);
+       }
+ }
+@@ -59,7 +59,7 @@ void ttm_global_release(void)
+       for (i = 0; i < TTM_GLOBAL_NUM; ++i) {
+               struct ttm_global_item *item = &glob[i];
+               BUG_ON(item->object != NULL);
+-              BUG_ON(item->refcount != 0);
++              BUG_ON(atomic_read(&item->refcount) != 0);
+       }
+ }
+@@ -70,7 +70,7 @@ int ttm_global_item_ref(struct ttm_global_reference *ref)
+       void *object;
+       mutex_lock(&item->mutex);
+-      if (item->refcount == 0) {
++      if (atomic_read(&item->refcount) == 0) {
+               item->object = kzalloc(ref->size, GFP_KERNEL);
+               if (unlikely(item->object == NULL)) {
+                       ret = -ENOMEM;
+@@ -83,7 +83,7 @@ int ttm_global_item_ref(struct ttm_global_reference *ref)
+                       goto out_err;
+       }
+-      ++item->refcount;
++      atomic_inc(&item->refcount);
+       ref->object = item->object;
+       object = item->object;
+       mutex_unlock(&item->mutex);
+@@ -100,9 +100,9 @@ void ttm_global_item_unref(struct ttm_global_reference *ref)
+       struct ttm_global_item *item = &glob[ref->global_type];
+       mutex_lock(&item->mutex);
+-      BUG_ON(item->refcount == 0);
++      BUG_ON(atomic_read(&item->refcount) == 0);
+       BUG_ON(ref->object != item->object);
+-      if (--item->refcount == 0) {
++      if (atomic_dec_and_test(&item->refcount)) {
+               ref->release(ref);
+               item->object = NULL;
+       }
+diff --git a/drivers/gpu/drm/ttm/ttm_memory.c b/drivers/gpu/drm/ttm/ttm_memory.c
+index 072c281..d8ef483 100644
+--- a/drivers/gpu/drm/ttm/ttm_memory.c
++++ b/drivers/gpu/drm/ttm/ttm_memory.c
+@@ -152,7 +152,7 @@ static struct attribute *ttm_mem_zone_attrs[] = {
+       NULL
+ };
+-static struct sysfs_ops ttm_mem_zone_ops = {
++static const struct sysfs_ops ttm_mem_zone_ops = {
+       .show = &ttm_mem_zone_show,
+       .store = &ttm_mem_zone_store
+ };
+diff --git a/drivers/gpu/drm/via/via_drv.h b/drivers/gpu/drm/via/via_drv.h
+index cafcb84..b8e66cc 100644
+--- a/drivers/gpu/drm/via/via_drv.h
++++ b/drivers/gpu/drm/via/via_drv.h
+@@ -51,7 +51,7 @@ typedef struct drm_via_ring_buffer {
+ typedef uint32_t maskarray_t[5];
+ typedef struct drm_via_irq {
+-      atomic_t irq_received;
++      atomic_unchecked_t irq_received;
+       uint32_t pending_mask;
+       uint32_t enable_mask;
+       wait_queue_head_t irq_queue;
+@@ -75,7 +75,7 @@ typedef struct drm_via_private {
+       struct timeval last_vblank;
+       int last_vblank_valid;
+       unsigned usec_per_vblank;
+-      atomic_t vbl_received;
++      atomic_unchecked_t vbl_received;
+       drm_via_state_t hc_state;
+       char pci_buf[VIA_PCI_BUF_SIZE];
+       const uint32_t *fire_offsets[VIA_FIRE_BUF_SIZE];
+diff --git a/drivers/gpu/drm/via/via_irq.c b/drivers/gpu/drm/via/via_irq.c
+index 5935b88..127a8a6 100644
+--- a/drivers/gpu/drm/via/via_irq.c
++++ b/drivers/gpu/drm/via/via_irq.c
+@@ -102,7 +102,7 @@ u32 via_get_vblank_counter(struct drm_device *dev, int crtc)
+       if (crtc != 0)
+               return 0;
+-      return atomic_read(&dev_priv->vbl_received);
++      return atomic_read_unchecked(&dev_priv->vbl_received);
+ }
+ irqreturn_t via_driver_irq_handler(DRM_IRQ_ARGS)
+@@ -117,8 +117,8 @@ irqreturn_t via_driver_irq_handler(DRM_IRQ_ARGS)
+       status = VIA_READ(VIA_REG_INTERRUPT);
+       if (status & VIA_IRQ_VBLANK_PENDING) {
+-              atomic_inc(&dev_priv->vbl_received);
+-              if (!(atomic_read(&dev_priv->vbl_received) & 0x0F)) {
++              atomic_inc_unchecked(&dev_priv->vbl_received);
++              if (!(atomic_read_unchecked(&dev_priv->vbl_received) & 0x0F)) {
+                       do_gettimeofday(&cur_vblank);
+                       if (dev_priv->last_vblank_valid) {
+                               dev_priv->usec_per_vblank =
+@@ -128,7 +128,7 @@ irqreturn_t via_driver_irq_handler(DRM_IRQ_ARGS)
+                       dev_priv->last_vblank = cur_vblank;
+                       dev_priv->last_vblank_valid = 1;
+               }
+-              if (!(atomic_read(&dev_priv->vbl_received) & 0xFF)) {
++              if (!(atomic_read_unchecked(&dev_priv->vbl_received) & 0xFF)) {
+                       DRM_DEBUG("US per vblank is: %u\n",
+                                 dev_priv->usec_per_vblank);
+               }
+@@ -138,7 +138,7 @@ irqreturn_t via_driver_irq_handler(DRM_IRQ_ARGS)
+       for (i = 0; i < dev_priv->num_irqs; ++i) {
+               if (status & cur_irq->pending_mask) {
+-                      atomic_inc(&cur_irq->irq_received);
++                      atomic_inc_unchecked(&cur_irq->irq_received);
+                       DRM_WAKEUP(&cur_irq->irq_queue);
+                       handled = 1;
+                       if (dev_priv->irq_map[drm_via_irq_dma0_td] == i) {
+@@ -244,11 +244,11 @@ via_driver_irq_wait(struct drm_device * dev, unsigned int irq, int force_sequenc
+               DRM_WAIT_ON(ret, cur_irq->irq_queue, 3 * DRM_HZ,
+                           ((VIA_READ(masks[irq][2]) & masks[irq][3]) ==
+                            masks[irq][4]));
+-              cur_irq_sequence = atomic_read(&cur_irq->irq_received);
++              cur_irq_sequence = atomic_read_unchecked(&cur_irq->irq_received);
+       } else {
+               DRM_WAIT_ON(ret, cur_irq->irq_queue, 3 * DRM_HZ,
+                           (((cur_irq_sequence =
+-                             atomic_read(&cur_irq->irq_received)) -
++                             atomic_read_unchecked(&cur_irq->irq_received)) -
+                             *sequence) <= (1 << 23)));
+       }
+       *sequence = cur_irq_sequence;
+@@ -286,7 +286,7 @@ void via_driver_irq_preinstall(struct drm_device * dev)
+               }
+               for (i = 0; i < dev_priv->num_irqs; ++i) {
+-                      atomic_set(&cur_irq->irq_received, 0);
++                      atomic_set_unchecked(&cur_irq->irq_received, 0);
+                       cur_irq->enable_mask = dev_priv->irq_masks[i][0];
+                       cur_irq->pending_mask = dev_priv->irq_masks[i][1];
+                       DRM_INIT_WAITQUEUE(&cur_irq->irq_queue);
+@@ -368,7 +368,7 @@ int via_wait_irq(struct drm_device *dev, void *data, struct drm_file *file_priv)
+       switch (irqwait->request.type & ~VIA_IRQ_FLAGS_MASK) {
+       case VIA_IRQ_RELATIVE:
+               irqwait->request.sequence +=
+-                      atomic_read(&cur_irq->irq_received);
++                      atomic_read_unchecked(&cur_irq->irq_received);
+               irqwait->request.type &= ~_DRM_VBLANK_RELATIVE;
+       case VIA_IRQ_ABSOLUTE:
+               break;
+diff --git a/drivers/gpu/vga/vgaarb.c b/drivers/gpu/vga/vgaarb.c
+index aa8688d..6a0140c 100644
+--- a/drivers/gpu/vga/vgaarb.c
++++ b/drivers/gpu/vga/vgaarb.c
+@@ -894,14 +894,20 @@ static ssize_t vga_arb_write(struct file *file, const char __user * buf,
+                               uc = &priv->cards[i];
+               }
+-              if (!uc)
+-                      return -EINVAL;
++              if (!uc) {
++                      ret_val = -EINVAL;
++                      goto done;
++              }
+-              if (io_state & VGA_RSRC_LEGACY_IO && uc->io_cnt == 0)
+-                      return -EINVAL;
++              if (io_state & VGA_RSRC_LEGACY_IO && uc->io_cnt == 0) {
++                      ret_val = -EINVAL;
++                      goto done;
++              }
+-              if (io_state & VGA_RSRC_LEGACY_MEM && uc->mem_cnt == 0)
+-                      return -EINVAL;
++              if (io_state & VGA_RSRC_LEGACY_MEM && uc->mem_cnt == 0) {
++                      ret_val = -EINVAL;
++                      goto done;
++              }
+               vga_put(pdev, io_state);
+diff --git a/drivers/hid/hid-core.c b/drivers/hid/hid-core.c
+index 11f8069..4783396 100644
+--- a/drivers/hid/hid-core.c
++++ b/drivers/hid/hid-core.c
+@@ -1752,7 +1752,7 @@ static bool hid_ignore(struct hid_device *hdev)
+ int hid_add_device(struct hid_device *hdev)
+ {
+-      static atomic_t id = ATOMIC_INIT(0);
++      static atomic_unchecked_t id = ATOMIC_INIT(0);
+       int ret;
+       if (WARN_ON(hdev->status & HID_STAT_ADDED))
+@@ -1766,7 +1766,7 @@ int hid_add_device(struct hid_device *hdev)
+       /* XXX hack, any other cleaner solution after the driver core
+        * is converted to allow more than 20 bytes as the device name? */
+       dev_set_name(&hdev->dev, "%04X:%04X:%04X.%04X", hdev->bus,
+-                   hdev->vendor, hdev->product, atomic_inc_return(&id));
++                   hdev->vendor, hdev->product, atomic_inc_return_unchecked(&id));
+       ret = device_add(&hdev->dev);
+       if (!ret)
+diff --git a/drivers/hid/usbhid/hiddev.c b/drivers/hid/usbhid/hiddev.c
+index 8b6ee24..70f657d 100644
+--- a/drivers/hid/usbhid/hiddev.c
++++ b/drivers/hid/usbhid/hiddev.c
+@@ -617,7 +617,7 @@ static long hiddev_ioctl(struct file *file, unsigned int cmd, unsigned long arg)
+               return put_user(HID_VERSION, (int __user *)arg);
+       case HIDIOCAPPLICATION:
+-              if (arg < 0 || arg >= hid->maxapplication)
++              if (arg >= hid->maxapplication)
+                       return -EINVAL;
+               for (i = 0; i < hid->maxcollection; i++)
+diff --git a/drivers/hwmon/lis3lv02d.c b/drivers/hwmon/lis3lv02d.c
+index 5d5ed69..f40533e 100644
+--- a/drivers/hwmon/lis3lv02d.c
++++ b/drivers/hwmon/lis3lv02d.c
+@@ -146,7 +146,7 @@ static irqreturn_t lis302dl_interrupt(int irq, void *dummy)
+        * the lid is closed. This leads to interrupts as soon as a little move
+        * is done.
+        */
+-      atomic_inc(&lis3_dev.count);
++      atomic_inc_unchecked(&lis3_dev.count);
+       wake_up_interruptible(&lis3_dev.misc_wait);
+       kill_fasync(&lis3_dev.async_queue, SIGIO, POLL_IN);
+@@ -160,7 +160,7 @@ static int lis3lv02d_misc_open(struct inode *inode, struct file *file)
+       if (test_and_set_bit(0, &lis3_dev.misc_opened))
+               return -EBUSY; /* already open */
+-      atomic_set(&lis3_dev.count, 0);
++      atomic_set_unchecked(&lis3_dev.count, 0);
+       /*
+        * The sensor can generate interrupts for free-fall and direction
+@@ -206,7 +206,7 @@ static ssize_t lis3lv02d_misc_read(struct file *file, char __user *buf,
+       add_wait_queue(&lis3_dev.misc_wait, &wait);
+       while (true) {
+               set_current_state(TASK_INTERRUPTIBLE);
+-              data = atomic_xchg(&lis3_dev.count, 0);
++              data = atomic_xchg_unchecked(&lis3_dev.count, 0);
+               if (data)
+                       break;
+@@ -244,7 +244,7 @@ out:
+ static unsigned int lis3lv02d_misc_poll(struct file *file, poll_table *wait)
+ {
+       poll_wait(file, &lis3_dev.misc_wait, wait);
+-      if (atomic_read(&lis3_dev.count))
++      if (atomic_read_unchecked(&lis3_dev.count))
+               return POLLIN | POLLRDNORM;
+       return 0;
+ }
+diff --git a/drivers/hwmon/lis3lv02d.h b/drivers/hwmon/lis3lv02d.h
+index 7cdd76f..fe0efdf 100644
+--- a/drivers/hwmon/lis3lv02d.h
++++ b/drivers/hwmon/lis3lv02d.h
+@@ -201,7 +201,7 @@ struct lis3lv02d {
+       struct input_polled_dev *idev;     /* input device */
+       struct platform_device  *pdev;     /* platform device */
+-      atomic_t                count;     /* interrupt count after last read */
++      atomic_unchecked_t      count;     /* interrupt count after last read */
+       int                     xcalib;    /* calibrated null value for x */
+       int                     ycalib;    /* calibrated null value for y */
+       int                     zcalib;    /* calibrated null value for z */
+diff --git a/drivers/hwmon/sht15.c b/drivers/hwmon/sht15.c
+index 740785e..5a5c6c6 100644
+--- a/drivers/hwmon/sht15.c
++++ b/drivers/hwmon/sht15.c
+@@ -112,7 +112,7 @@ struct sht15_data {
+       int                             supply_uV;
+       int                             supply_uV_valid;
+       struct work_struct              update_supply_work;
+-      atomic_t                        interrupt_handled;
++      atomic_unchecked_t              interrupt_handled;
+ };
+ /**
+@@ -245,13 +245,13 @@ static inline int sht15_update_single_val(struct sht15_data *data,
+               return ret;
+       gpio_direction_input(data->pdata->gpio_data);
+-      atomic_set(&data->interrupt_handled, 0);
++      atomic_set_unchecked(&data->interrupt_handled, 0);
+       enable_irq(gpio_to_irq(data->pdata->gpio_data));
+       if (gpio_get_value(data->pdata->gpio_data) == 0) {
+               disable_irq_nosync(gpio_to_irq(data->pdata->gpio_data));
+               /* Only relevant if the interrupt hasn't occured. */
+-              if (!atomic_read(&data->interrupt_handled))
++              if (!atomic_read_unchecked(&data->interrupt_handled))
+                       schedule_work(&data->read_work);
+       }
+       ret = wait_event_timeout(data->wait_queue,
+@@ -398,7 +398,7 @@ static irqreturn_t sht15_interrupt_fired(int irq, void *d)
+       struct sht15_data *data = d;
+       /* First disable the interrupt */
+       disable_irq_nosync(irq);
+-      atomic_inc(&data->interrupt_handled);
++      atomic_inc_unchecked(&data->interrupt_handled);
+       /* Then schedule a reading work struct */
+       if (data->flag != SHT15_READING_NOTHING)
+               schedule_work(&data->read_work);
+@@ -449,11 +449,11 @@ static void sht15_bh_read_data(struct work_struct *work_s)
+                  here as could have gone low in meantime so verify
+                  it hasn't!
+               */
+-              atomic_set(&data->interrupt_handled, 0);
++              atomic_set_unchecked(&data->interrupt_handled, 0);
+               enable_irq(gpio_to_irq(data->pdata->gpio_data));
+               /* If still not occured or another handler has been scheduled */
+               if (gpio_get_value(data->pdata->gpio_data)
+-                  || atomic_read(&data->interrupt_handled))
++                  || atomic_read_unchecked(&data->interrupt_handled))
+                       return;
+       }
+       /* Read the data back from the device */
+diff --git a/drivers/hwmon/w83791d.c b/drivers/hwmon/w83791d.c
+index 97851c5..cb40626 100644
+--- a/drivers/hwmon/w83791d.c
++++ b/drivers/hwmon/w83791d.c
+@@ -330,8 +330,8 @@ static int w83791d_detect(struct i2c_client *client, int kind,
+                         struct i2c_board_info *info);
+ static int w83791d_remove(struct i2c_client *client);
+-static int w83791d_read(struct i2c_client *client, u8 register);
+-static int w83791d_write(struct i2c_client *client, u8 register, u8 value);
++static int w83791d_read(struct i2c_client *client, u8 reg);
++static int w83791d_write(struct i2c_client *client, u8 reg, u8 value);
+ static struct w83791d_data *w83791d_update_device(struct device *dev);
+ #ifdef DEBUG
+diff --git a/drivers/i2c/busses/i2c-amd756-s4882.c b/drivers/i2c/busses/i2c-amd756-s4882.c
+index 378fcb5..5e91fa8 100644
+--- a/drivers/i2c/busses/i2c-amd756-s4882.c
++++ b/drivers/i2c/busses/i2c-amd756-s4882.c
+@@ -43,7 +43,7 @@
+ extern struct i2c_adapter amd756_smbus;
+ static struct i2c_adapter *s4882_adapter;
+-static struct i2c_algorithm *s4882_algo;
++static i2c_algorithm_no_const *s4882_algo;
+ /* Wrapper access functions for multiplexed SMBus */
+ static DEFINE_MUTEX(amd756_lock);
+diff --git a/drivers/i2c/busses/i2c-nforce2-s4985.c b/drivers/i2c/busses/i2c-nforce2-s4985.c
+index 29015eb..af2d8e9 100644
+--- a/drivers/i2c/busses/i2c-nforce2-s4985.c
++++ b/drivers/i2c/busses/i2c-nforce2-s4985.c
+@@ -41,7 +41,7 @@
+ extern struct i2c_adapter *nforce2_smbus;
+ static struct i2c_adapter *s4985_adapter;
+-static struct i2c_algorithm *s4985_algo;
++static i2c_algorithm_no_const *s4985_algo;
+ /* Wrapper access functions for multiplexed SMBus */
+ static DEFINE_MUTEX(nforce2_lock);
+diff --git a/drivers/ide/aec62xx.c b/drivers/ide/aec62xx.c
+index 878f8ec..12376fc 100644
+--- a/drivers/ide/aec62xx.c
++++ b/drivers/ide/aec62xx.c
+@@ -180,7 +180,7 @@ static const struct ide_port_ops atp86x_port_ops = {
+       .cable_detect           = atp86x_cable_detect,
+ };
+-static const struct ide_port_info aec62xx_chipsets[] __devinitdata = {
++static const struct ide_port_info aec62xx_chipsets[] __devinitconst = {
+       {       /* 0: AEC6210 */
+               .name           = DRV_NAME,
+               .init_chipset   = init_chipset_aec62xx,
+diff --git a/drivers/ide/alim15x3.c b/drivers/ide/alim15x3.c
+index e59b6de..4b4fc65 100644
+--- a/drivers/ide/alim15x3.c
++++ b/drivers/ide/alim15x3.c
+@@ -509,7 +509,7 @@ static const struct ide_dma_ops ali_dma_ops = {
+       .dma_sff_read_status    = ide_dma_sff_read_status,
+ };
+-static const struct ide_port_info ali15x3_chipset __devinitdata = {
++static const struct ide_port_info ali15x3_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_chipset   = init_chipset_ali15x3,
+       .init_hwif      = init_hwif_ali15x3,
+diff --git a/drivers/ide/amd74xx.c b/drivers/ide/amd74xx.c
+index 628cd2e..087a414 100644
+--- a/drivers/ide/amd74xx.c
++++ b/drivers/ide/amd74xx.c
+@@ -221,7 +221,7 @@ static const struct ide_port_ops amd_port_ops = {
+               .udma_mask      = udma,                                 \
+       }
+-static const struct ide_port_info amd74xx_chipsets[] __devinitdata = {
++static const struct ide_port_info amd74xx_chipsets[] __devinitconst = {
+       /* 0: AMD7401 */        DECLARE_AMD_DEV(0x00, ATA_UDMA2),
+       /* 1: AMD7409 */        DECLARE_AMD_DEV(ATA_SWDMA2, ATA_UDMA4),
+       /* 2: AMD7411/7441 */   DECLARE_AMD_DEV(ATA_SWDMA2, ATA_UDMA5),
+diff --git a/drivers/ide/atiixp.c b/drivers/ide/atiixp.c
+index 837322b..837fd71 100644
+--- a/drivers/ide/atiixp.c
++++ b/drivers/ide/atiixp.c
+@@ -137,7 +137,7 @@ static const struct ide_port_ops atiixp_port_ops = {
+       .cable_detect           = atiixp_cable_detect,
+ };
+-static const struct ide_port_info atiixp_pci_info[] __devinitdata = {
++static const struct ide_port_info atiixp_pci_info[] __devinitconst = {
+       {       /* 0: IXP200/300/400/700 */
+               .name           = DRV_NAME,
+               .enablebits     = {{0x48,0x01,0x00}, {0x48,0x08,0x00}},
+diff --git a/drivers/ide/cmd64x.c b/drivers/ide/cmd64x.c
+index ca0c46f..d55318a 100644
+--- a/drivers/ide/cmd64x.c
++++ b/drivers/ide/cmd64x.c
+@@ -372,7 +372,7 @@ static const struct ide_dma_ops cmd646_rev1_dma_ops = {
+       .dma_sff_read_status    = ide_dma_sff_read_status,
+ };
+-static const struct ide_port_info cmd64x_chipsets[] __devinitdata = {
++static const struct ide_port_info cmd64x_chipsets[] __devinitconst = {
+       {       /* 0: CMD643 */
+               .name           = DRV_NAME,
+               .init_chipset   = init_chipset_cmd64x,
+diff --git a/drivers/ide/cs5520.c b/drivers/ide/cs5520.c
+index 09f98ed..cebc5bc 100644
+--- a/drivers/ide/cs5520.c
++++ b/drivers/ide/cs5520.c
+@@ -93,7 +93,7 @@ static const struct ide_port_ops cs5520_port_ops = {
+       .set_dma_mode           = cs5520_set_dma_mode,
+ };
+-static const struct ide_port_info cyrix_chipset __devinitdata = {
++static const struct ide_port_info cyrix_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .enablebits     = { { 0x60, 0x01, 0x01 }, { 0x60, 0x02, 0x02 } },
+       .port_ops       = &cs5520_port_ops,
+diff --git a/drivers/ide/cs5530.c b/drivers/ide/cs5530.c
+index 40bf05e..7d58ca0 100644
+--- a/drivers/ide/cs5530.c
++++ b/drivers/ide/cs5530.c
+@@ -244,7 +244,7 @@ static const struct ide_port_ops cs5530_port_ops = {
+       .udma_filter            = cs5530_udma_filter,
+ };
+-static const struct ide_port_info cs5530_chipset __devinitdata = {
++static const struct ide_port_info cs5530_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_chipset   = init_chipset_cs5530,
+       .init_hwif      = init_hwif_cs5530,
+diff --git a/drivers/ide/cs5535.c b/drivers/ide/cs5535.c
+index 983d957..53e6172 100644
+--- a/drivers/ide/cs5535.c
++++ b/drivers/ide/cs5535.c
+@@ -170,7 +170,7 @@ static const struct ide_port_ops cs5535_port_ops = {
+       .cable_detect           = cs5535_cable_detect,
+ };
+-static const struct ide_port_info cs5535_chipset __devinitdata = {
++static const struct ide_port_info cs5535_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .port_ops       = &cs5535_port_ops,
+       .host_flags     = IDE_HFLAG_SINGLE | IDE_HFLAG_POST_SET_MODE,
+diff --git a/drivers/ide/cy82c693.c b/drivers/ide/cy82c693.c
+index 74fc540..8e933d8 100644
+--- a/drivers/ide/cy82c693.c
++++ b/drivers/ide/cy82c693.c
+@@ -288,7 +288,7 @@ static const struct ide_port_ops cy82c693_port_ops = {
+       .set_dma_mode           = cy82c693_set_dma_mode,
+ };
+-static const struct ide_port_info cy82c693_chipset __devinitdata = {
++static const struct ide_port_info cy82c693_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_iops      = init_iops_cy82c693,
+       .port_ops       = &cy82c693_port_ops,
+diff --git a/drivers/ide/hpt366.c b/drivers/ide/hpt366.c
+index 7ce68ef..e78197d 100644
+--- a/drivers/ide/hpt366.c
++++ b/drivers/ide/hpt366.c
+@@ -507,7 +507,7 @@ static struct hpt_timings hpt37x_timings = {
+       }
+ };
+-static const struct hpt_info hpt36x __devinitdata = {
++static const struct hpt_info hpt36x __devinitconst = {
+       .chip_name      = "HPT36x",
+       .chip_type      = HPT36x,
+       .udma_mask      = HPT366_ALLOW_ATA66_3 ? (HPT366_ALLOW_ATA66_4 ? ATA_UDMA4 : ATA_UDMA3) : ATA_UDMA2,
+@@ -515,7 +515,7 @@ static const struct hpt_info hpt36x __devinitdata = {
+       .timings        = &hpt36x_timings
+ };
+-static const struct hpt_info hpt370 __devinitdata = {
++static const struct hpt_info hpt370 __devinitconst = {
+       .chip_name      = "HPT370",
+       .chip_type      = HPT370,
+       .udma_mask      = HPT370_ALLOW_ATA100_5 ? ATA_UDMA5 : ATA_UDMA4,
+@@ -523,7 +523,7 @@ static const struct hpt_info hpt370 __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt370a __devinitdata = {
++static const struct hpt_info hpt370a __devinitconst = {
+       .chip_name      = "HPT370A",
+       .chip_type      = HPT370A,
+       .udma_mask      = HPT370_ALLOW_ATA100_5 ? ATA_UDMA5 : ATA_UDMA4,
+@@ -531,7 +531,7 @@ static const struct hpt_info hpt370a __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt374 __devinitdata = {
++static const struct hpt_info hpt374 __devinitconst = {
+       .chip_name      = "HPT374",
+       .chip_type      = HPT374,
+       .udma_mask      = ATA_UDMA5,
+@@ -539,7 +539,7 @@ static const struct hpt_info hpt374 __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt372 __devinitdata = {
++static const struct hpt_info hpt372 __devinitconst = {
+       .chip_name      = "HPT372",
+       .chip_type      = HPT372,
+       .udma_mask      = HPT372_ALLOW_ATA133_6 ? ATA_UDMA6 : ATA_UDMA5,
+@@ -547,7 +547,7 @@ static const struct hpt_info hpt372 __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt372a __devinitdata = {
++static const struct hpt_info hpt372a __devinitconst = {
+       .chip_name      = "HPT372A",
+       .chip_type      = HPT372A,
+       .udma_mask      = HPT372_ALLOW_ATA133_6 ? ATA_UDMA6 : ATA_UDMA5,
+@@ -555,7 +555,7 @@ static const struct hpt_info hpt372a __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt302 __devinitdata = {
++static const struct hpt_info hpt302 __devinitconst = {
+       .chip_name      = "HPT302",
+       .chip_type      = HPT302,
+       .udma_mask      = HPT302_ALLOW_ATA133_6 ? ATA_UDMA6 : ATA_UDMA5,
+@@ -563,7 +563,7 @@ static const struct hpt_info hpt302 __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt371 __devinitdata = {
++static const struct hpt_info hpt371 __devinitconst = {
+       .chip_name      = "HPT371",
+       .chip_type      = HPT371,
+       .udma_mask      = HPT371_ALLOW_ATA133_6 ? ATA_UDMA6 : ATA_UDMA5,
+@@ -571,7 +571,7 @@ static const struct hpt_info hpt371 __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt372n __devinitdata = {
++static const struct hpt_info hpt372n __devinitconst = {
+       .chip_name      = "HPT372N",
+       .chip_type      = HPT372N,
+       .udma_mask      = HPT372_ALLOW_ATA133_6 ? ATA_UDMA6 : ATA_UDMA5,
+@@ -579,7 +579,7 @@ static const struct hpt_info hpt372n __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt302n __devinitdata = {
++static const struct hpt_info hpt302n __devinitconst = {
+       .chip_name      = "HPT302N",
+       .chip_type      = HPT302N,
+       .udma_mask      = HPT302_ALLOW_ATA133_6 ? ATA_UDMA6 : ATA_UDMA5,
+@@ -587,7 +587,7 @@ static const struct hpt_info hpt302n __devinitdata = {
+       .timings        = &hpt37x_timings
+ };
+-static const struct hpt_info hpt371n __devinitdata = {
++static const struct hpt_info hpt371n __devinitconst = {
+       .chip_name      = "HPT371N",
+       .chip_type      = HPT371N,
+       .udma_mask      = HPT371_ALLOW_ATA133_6 ? ATA_UDMA6 : ATA_UDMA5,
+@@ -1422,7 +1422,7 @@ static const struct ide_dma_ops hpt36x_dma_ops = {
+       .dma_sff_read_status    = ide_dma_sff_read_status,
+ };
+-static const struct ide_port_info hpt366_chipsets[] __devinitdata = {
++static const struct ide_port_info hpt366_chipsets[] __devinitconst = {
+       {       /* 0: HPT36x */
+               .name           = DRV_NAME,
+               .init_chipset   = init_chipset_hpt366,
+diff --git a/drivers/ide/ide-cd.c b/drivers/ide/ide-cd.c
+index 2de76cc..74186a1 100644
+--- a/drivers/ide/ide-cd.c
++++ b/drivers/ide/ide-cd.c
+@@ -774,7 +774,7 @@ static void cdrom_do_block_pc(ide_drive_t *drive, struct request *rq)
+               alignment = queue_dma_alignment(q) | q->dma_pad_mask;
+               if ((unsigned long)buf & alignment
+                   || blk_rq_bytes(rq) & q->dma_pad_mask
+-                  || object_is_on_stack(buf))
++                  || object_starts_on_stack(buf))
+                       drive->dma = 0;
+       }
+ }
+diff --git a/drivers/ide/ide-floppy.c b/drivers/ide/ide-floppy.c
+index fefbdfc..62ff465 100644
+--- a/drivers/ide/ide-floppy.c
++++ b/drivers/ide/ide-floppy.c
+@@ -373,6 +373,8 @@ static int ide_floppy_get_capacity(ide_drive_t *drive)
+       u8 pc_buf[256], header_len, desc_cnt;
+       int i, rc = 1, blocks, length;
++      pax_track_stack();
++
+       ide_debug_log(IDE_DBG_FUNC, "enter");
+       drive->bios_cyl = 0;
+diff --git a/drivers/ide/ide-pci-generic.c b/drivers/ide/ide-pci-generic.c
+index 39d4e01..11538ce 100644
+--- a/drivers/ide/ide-pci-generic.c
++++ b/drivers/ide/ide-pci-generic.c
+@@ -53,7 +53,7 @@ static const struct ide_port_ops netcell_port_ops = {
+               .udma_mask      = ATA_UDMA6, \
+       }
+-static const struct ide_port_info generic_chipsets[] __devinitdata = {
++static const struct ide_port_info generic_chipsets[] __devinitconst = {
+       /*  0: Unknown */
+       DECLARE_GENERIC_PCI_DEV(0),
+diff --git a/drivers/ide/it8172.c b/drivers/ide/it8172.c
+index 0d266a5..aaca790 100644
+--- a/drivers/ide/it8172.c
++++ b/drivers/ide/it8172.c
+@@ -115,7 +115,7 @@ static const struct ide_port_ops it8172_port_ops = {
+       .set_dma_mode   = it8172_set_dma_mode,
+ };
+-static const struct ide_port_info it8172_port_info __devinitdata = {
++static const struct ide_port_info it8172_port_info __devinitconst = {
+       .name           = DRV_NAME,
+       .port_ops       = &it8172_port_ops,
+       .enablebits     = { {0x41, 0x80, 0x80}, {0x00, 0x00, 0x00} },
+diff --git a/drivers/ide/it8213.c b/drivers/ide/it8213.c
+index 4797616..4be488a 100644
+--- a/drivers/ide/it8213.c
++++ b/drivers/ide/it8213.c
+@@ -156,7 +156,7 @@ static const struct ide_port_ops it8213_port_ops = {
+       .cable_detect           = it8213_cable_detect,
+ };
+-static const struct ide_port_info it8213_chipset __devinitdata = {
++static const struct ide_port_info it8213_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .enablebits     = { {0x41, 0x80, 0x80} },
+       .port_ops       = &it8213_port_ops,
+diff --git a/drivers/ide/it821x.c b/drivers/ide/it821x.c
+index 51aa745..146ee60 100644
+--- a/drivers/ide/it821x.c
++++ b/drivers/ide/it821x.c
+@@ -627,7 +627,7 @@ static const struct ide_port_ops it821x_port_ops = {
+       .cable_detect           = it821x_cable_detect,
+ };
+-static const struct ide_port_info it821x_chipset __devinitdata = {
++static const struct ide_port_info it821x_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_chipset   = init_chipset_it821x,
+       .init_hwif      = init_hwif_it821x,
+diff --git a/drivers/ide/jmicron.c b/drivers/ide/jmicron.c
+index bf2be64..9270098 100644
+--- a/drivers/ide/jmicron.c
++++ b/drivers/ide/jmicron.c
+@@ -102,7 +102,7 @@ static const struct ide_port_ops jmicron_port_ops = {
+       .cable_detect           = jmicron_cable_detect,
+ };
+-static const struct ide_port_info jmicron_chipset __devinitdata = {
++static const struct ide_port_info jmicron_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .enablebits     = { { 0x40, 0x01, 0x01 }, { 0x40, 0x10, 0x10 } },
+       .port_ops       = &jmicron_port_ops,
+diff --git a/drivers/ide/ns87415.c b/drivers/ide/ns87415.c
+index 95327a2..73f78d8 100644
+--- a/drivers/ide/ns87415.c
++++ b/drivers/ide/ns87415.c
+@@ -293,7 +293,7 @@ static const struct ide_dma_ops ns87415_dma_ops = {
+       .dma_sff_read_status    = superio_dma_sff_read_status,
+ };
+-static const struct ide_port_info ns87415_chipset __devinitdata = {
++static const struct ide_port_info ns87415_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_hwif      = init_hwif_ns87415,
+       .tp_ops         = &ns87415_tp_ops,
+diff --git a/drivers/ide/opti621.c b/drivers/ide/opti621.c
+index f1d70d6..e1de05b 100644
+--- a/drivers/ide/opti621.c
++++ b/drivers/ide/opti621.c
+@@ -202,7 +202,7 @@ static const struct ide_port_ops opti621_port_ops = {
+       .set_pio_mode           = opti621_set_pio_mode,
+ };
+-static const struct ide_port_info opti621_chipset __devinitdata = {
++static const struct ide_port_info opti621_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .enablebits     = { {0x45, 0x80, 0x00}, {0x40, 0x08, 0x00} },
+       .port_ops       = &opti621_port_ops,
+diff --git a/drivers/ide/pdc202xx_new.c b/drivers/ide/pdc202xx_new.c
+index 65ba823..7311f4d 100644
+--- a/drivers/ide/pdc202xx_new.c
++++ b/drivers/ide/pdc202xx_new.c
+@@ -465,7 +465,7 @@ static const struct ide_port_ops pdcnew_port_ops = {
+               .udma_mask      = udma, \
+       }
+-static const struct ide_port_info pdcnew_chipsets[] __devinitdata = {
++static const struct ide_port_info pdcnew_chipsets[] __devinitconst = {
+       /* 0: PDC202{68,70} */          DECLARE_PDCNEW_DEV(ATA_UDMA5),
+       /* 1: PDC202{69,71,75,76,77} */ DECLARE_PDCNEW_DEV(ATA_UDMA6),
+ };
+diff --git a/drivers/ide/pdc202xx_old.c b/drivers/ide/pdc202xx_old.c
+index cb812f3..af816ef 100644
+--- a/drivers/ide/pdc202xx_old.c
++++ b/drivers/ide/pdc202xx_old.c
+@@ -285,7 +285,7 @@ static const struct ide_dma_ops pdc2026x_dma_ops = {
+               .max_sectors    = sectors, \
+       }
+-static const struct ide_port_info pdc202xx_chipsets[] __devinitdata = {
++static const struct ide_port_info pdc202xx_chipsets[] __devinitconst = {
+       {       /* 0: PDC20246 */
+               .name           = DRV_NAME,
+               .init_chipset   = init_chipset_pdc202xx,
+diff --git a/drivers/ide/piix.c b/drivers/ide/piix.c
+index bf14f39..15c4b98 100644
+--- a/drivers/ide/piix.c
++++ b/drivers/ide/piix.c
+@@ -344,7 +344,7 @@ static const struct ide_port_ops ich_port_ops = {
+               .udma_mask      = udma, \
+       }
+-static const struct ide_port_info piix_pci_info[] __devinitdata = {
++static const struct ide_port_info piix_pci_info[] __devinitconst = {
+       /* 0: MPIIX */
+       {       /*
+                * MPIIX actually has only a single IDE channel mapped to
+diff --git a/drivers/ide/rz1000.c b/drivers/ide/rz1000.c
+index a6414a8..c04173e 100644
+--- a/drivers/ide/rz1000.c
++++ b/drivers/ide/rz1000.c
+@@ -38,7 +38,7 @@ static int __devinit rz1000_disable_readahead(struct pci_dev *dev)
+       }
+ }
+-static const struct ide_port_info rz1000_chipset __devinitdata = {
++static const struct ide_port_info rz1000_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .host_flags     = IDE_HFLAG_NO_DMA,
+ };
+diff --git a/drivers/ide/sc1200.c b/drivers/ide/sc1200.c
+index d467478..9203942 100644
+--- a/drivers/ide/sc1200.c
++++ b/drivers/ide/sc1200.c
+@@ -290,7 +290,7 @@ static const struct ide_dma_ops sc1200_dma_ops = {
+       .dma_sff_read_status    = ide_dma_sff_read_status,
+ };
+-static const struct ide_port_info sc1200_chipset __devinitdata = {
++static const struct ide_port_info sc1200_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .port_ops       = &sc1200_port_ops,
+       .dma_ops        = &sc1200_dma_ops,
+diff --git a/drivers/ide/scc_pata.c b/drivers/ide/scc_pata.c
+index 1104bb3..59c5194 100644
+--- a/drivers/ide/scc_pata.c
++++ b/drivers/ide/scc_pata.c
+@@ -811,7 +811,7 @@ static const struct ide_dma_ops scc_dma_ops = {
+       .dma_sff_read_status    = scc_dma_sff_read_status,
+ };
+-static const struct ide_port_info scc_chipset __devinitdata = {
++static const struct ide_port_info scc_chipset __devinitconst = {
+       .name           = "sccIDE",
+       .init_iops      = init_iops_scc,
+       .init_dma       = scc_init_dma,
+diff --git a/drivers/ide/serverworks.c b/drivers/ide/serverworks.c
+index b6554ef..6cc2cc3 100644
+--- a/drivers/ide/serverworks.c
++++ b/drivers/ide/serverworks.c
+@@ -353,7 +353,7 @@ static const struct ide_port_ops svwks_port_ops = {
+       .cable_detect           = svwks_cable_detect,
+ };
+-static const struct ide_port_info serverworks_chipsets[] __devinitdata = {
++static const struct ide_port_info serverworks_chipsets[] __devinitconst = {
+       {       /* 0: OSB4 */
+               .name           = DRV_NAME,
+               .init_chipset   = init_chipset_svwks,
+diff --git a/drivers/ide/setup-pci.c b/drivers/ide/setup-pci.c
+index ab3db61..afed580 100644
+--- a/drivers/ide/setup-pci.c
++++ b/drivers/ide/setup-pci.c
+@@ -542,6 +542,8 @@ int ide_pci_init_two(struct pci_dev *dev1, struct pci_dev *dev2,
+       int ret, i, n_ports = dev2 ? 4 : 2;
+       struct ide_hw hw[4], *hws[] = { NULL, NULL, NULL, NULL };
++      pax_track_stack();
++
+       for (i = 0; i < n_ports / 2; i++) {
+               ret = ide_setup_pci_controller(pdev[i], d, !i);
+               if (ret < 0)
+diff --git a/drivers/ide/siimage.c b/drivers/ide/siimage.c
+index d95df52..0b03a39 100644
+--- a/drivers/ide/siimage.c
++++ b/drivers/ide/siimage.c
+@@ -719,7 +719,7 @@ static const struct ide_dma_ops sil_dma_ops = {
+               .udma_mask      = ATA_UDMA6,            \
+       }
+-static const struct ide_port_info siimage_chipsets[] __devinitdata = {
++static const struct ide_port_info siimage_chipsets[] __devinitconst = {
+       /* 0: SiI680 */  DECLARE_SII_DEV(&sil_pata_port_ops),
+       /* 1: SiI3112 */ DECLARE_SII_DEV(&sil_sata_port_ops)
+ };
+diff --git a/drivers/ide/sis5513.c b/drivers/ide/sis5513.c
+index 3b88eba..ca8699d 100644
+--- a/drivers/ide/sis5513.c
++++ b/drivers/ide/sis5513.c
+@@ -561,7 +561,7 @@ static const struct ide_port_ops sis_ata133_port_ops = {
+       .cable_detect           = sis_cable_detect,
+ };
+-static const struct ide_port_info sis5513_chipset __devinitdata = {
++static const struct ide_port_info sis5513_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_chipset   = init_chipset_sis5513,
+       .enablebits     = { {0x4a, 0x02, 0x02}, {0x4a, 0x04, 0x04} },
+diff --git a/drivers/ide/sl82c105.c b/drivers/ide/sl82c105.c
+index d698da4..fca42a4 100644
+--- a/drivers/ide/sl82c105.c
++++ b/drivers/ide/sl82c105.c
+@@ -319,7 +319,7 @@ static const struct ide_dma_ops sl82c105_dma_ops = {
+       .dma_sff_read_status    = ide_dma_sff_read_status,
+ };
+-static const struct ide_port_info sl82c105_chipset __devinitdata = {
++static const struct ide_port_info sl82c105_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_chipset   = init_chipset_sl82c105,
+       .enablebits     = {{0x40,0x01,0x01}, {0x40,0x10,0x10}},
+diff --git a/drivers/ide/slc90e66.c b/drivers/ide/slc90e66.c
+index 1ccfb40..83d5779 100644
+--- a/drivers/ide/slc90e66.c
++++ b/drivers/ide/slc90e66.c
+@@ -131,7 +131,7 @@ static const struct ide_port_ops slc90e66_port_ops = {
+       .cable_detect           = slc90e66_cable_detect,
+ };
+-static const struct ide_port_info slc90e66_chipset __devinitdata = {
++static const struct ide_port_info slc90e66_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .enablebits     = { {0x41, 0x80, 0x80}, {0x43, 0x80, 0x80} },
+       .port_ops       = &slc90e66_port_ops,
+diff --git a/drivers/ide/tc86c001.c b/drivers/ide/tc86c001.c
+index 05a93d6..5f9e325 100644
+--- a/drivers/ide/tc86c001.c
++++ b/drivers/ide/tc86c001.c
+@@ -190,7 +190,7 @@ static const struct ide_dma_ops tc86c001_dma_ops = {
+       .dma_sff_read_status    = ide_dma_sff_read_status,
+ };
+-static const struct ide_port_info tc86c001_chipset __devinitdata = {
++static const struct ide_port_info tc86c001_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_hwif      = init_hwif_tc86c001,
+       .port_ops       = &tc86c001_port_ops,
+diff --git a/drivers/ide/triflex.c b/drivers/ide/triflex.c
+index 8773c3b..7907d6c 100644
+--- a/drivers/ide/triflex.c
++++ b/drivers/ide/triflex.c
+@@ -92,7 +92,7 @@ static const struct ide_port_ops triflex_port_ops = {
+       .set_dma_mode           = triflex_set_mode,
+ };
+-static const struct ide_port_info triflex_device __devinitdata = {
++static const struct ide_port_info triflex_device __devinitconst = {
+       .name           = DRV_NAME,
+       .enablebits     = {{0x80, 0x01, 0x01}, {0x80, 0x02, 0x02}},
+       .port_ops       = &triflex_port_ops,
+diff --git a/drivers/ide/trm290.c b/drivers/ide/trm290.c
+index 4b42ca0..e494a98 100644
+--- a/drivers/ide/trm290.c
++++ b/drivers/ide/trm290.c
+@@ -324,7 +324,7 @@ static struct ide_dma_ops trm290_dma_ops = {
+       .dma_check              = trm290_dma_check,
+ };
+-static const struct ide_port_info trm290_chipset __devinitdata = {
++static const struct ide_port_info trm290_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_hwif      = init_hwif_trm290,
+       .tp_ops         = &trm290_tp_ops,
+diff --git a/drivers/ide/via82cxxx.c b/drivers/ide/via82cxxx.c
+index 028de26..520d5d5 100644
+--- a/drivers/ide/via82cxxx.c
++++ b/drivers/ide/via82cxxx.c
+@@ -374,7 +374,7 @@ static const struct ide_port_ops via_port_ops = {
+       .cable_detect           = via82cxxx_cable_detect,
+ };
+-static const struct ide_port_info via82cxxx_chipset __devinitdata = {
++static const struct ide_port_info via82cxxx_chipset __devinitconst = {
+       .name           = DRV_NAME,
+       .init_chipset   = init_chipset_via82cxxx,
+       .enablebits     = { { 0x40, 0x02, 0x02 }, { 0x40, 0x01, 0x01 } },
+diff --git a/drivers/ieee1394/dv1394.c b/drivers/ieee1394/dv1394.c
+index 2cd00b5..14de699 100644
+--- a/drivers/ieee1394/dv1394.c
++++ b/drivers/ieee1394/dv1394.c
+@@ -739,7 +739,7 @@ static void frame_prepare(struct video_card *video, unsigned int this_frame)
+       based upon DIF section and sequence
+ */
+-static void inline
++static inline void
+ frame_put_packet (struct frame *f, struct packet *p)
+ {
+       int section_type = p->data[0] >> 5;           /* section type is in bits 5 - 7 */
+diff --git a/drivers/ieee1394/hosts.c b/drivers/ieee1394/hosts.c
+index e947d8f..6a966b9 100644
+--- a/drivers/ieee1394/hosts.c
++++ b/drivers/ieee1394/hosts.c
+@@ -78,6 +78,7 @@ static int dummy_isoctl(struct hpsb_iso *iso, enum isoctl_cmd command,
+ }
+ static struct hpsb_host_driver dummy_driver = {
++      .name =            "dummy",
+       .transmit_packet = dummy_transmit_packet,
+       .devctl =          dummy_devctl,
+       .isoctl =          dummy_isoctl
+diff --git a/drivers/ieee1394/init_ohci1394_dma.c b/drivers/ieee1394/init_ohci1394_dma.c
+index ddaab6e..8d37435 100644
+--- a/drivers/ieee1394/init_ohci1394_dma.c
++++ b/drivers/ieee1394/init_ohci1394_dma.c
+@@ -257,7 +257,7 @@ void __init init_ohci1394_dma_on_all_controllers(void)
+                       for (func = 0; func < 8; func++) {
+                               u32 class = read_pci_config(num,slot,func,
+                                                       PCI_CLASS_REVISION);
+-                              if ((class == 0xffffffff))
++                              if (class == 0xffffffff)
+                                       continue; /* No device at this func */
+                               if (class>>8 != PCI_CLASS_SERIAL_FIREWIRE_OHCI)
+diff --git a/drivers/ieee1394/ohci1394.c b/drivers/ieee1394/ohci1394.c
+index 65c1429..5d8c11f 100644
+--- a/drivers/ieee1394/ohci1394.c
++++ b/drivers/ieee1394/ohci1394.c
+@@ -147,9 +147,9 @@ printk(level "%s: " fmt "\n" , OHCI1394_DRIVER_NAME , ## args)
+ printk(level "%s: fw-host%d: " fmt "\n" , OHCI1394_DRIVER_NAME, ohci->host->id , ## args)
+ /* Module Parameters */
+-static int phys_dma = 1;
++static int phys_dma;
+ module_param(phys_dma, int, 0444);
+-MODULE_PARM_DESC(phys_dma, "Enable physical DMA (default = 1).");
++MODULE_PARM_DESC(phys_dma, "Enable physical DMA (default = 0).");
+ static void dma_trm_tasklet(unsigned long data);
+ static void dma_trm_reset(struct dma_trm_ctx *d);
+diff --git a/drivers/ieee1394/sbp2.c b/drivers/ieee1394/sbp2.c
+index f199896..78c9fc8 100644
+--- a/drivers/ieee1394/sbp2.c
++++ b/drivers/ieee1394/sbp2.c
+@@ -2111,7 +2111,7 @@ MODULE_DESCRIPTION("IEEE-1394 SBP-2 protocol driver");
+ MODULE_SUPPORTED_DEVICE(SBP2_DEVICE_NAME);
+ MODULE_LICENSE("GPL");
+-static int sbp2_module_init(void)
++static int __init sbp2_module_init(void)
+ {
+       int ret;
+diff --git a/drivers/infiniband/core/cm.c b/drivers/infiniband/core/cm.c
+index a5dea6b..0cefe8f 100644
+--- a/drivers/infiniband/core/cm.c
++++ b/drivers/infiniband/core/cm.c
+@@ -112,7 +112,7 @@ static char const counter_group_names[CM_COUNTER_GROUPS]
+ struct cm_counter_group {
+       struct kobject obj;
+-      atomic_long_t counter[CM_ATTR_COUNT];
++      atomic_long_unchecked_t counter[CM_ATTR_COUNT];
+ };
+ struct cm_counter_attribute {
+@@ -1386,7 +1386,7 @@ static void cm_dup_req_handler(struct cm_work *work,
+       struct ib_mad_send_buf *msg = NULL;
+       int ret;
+-      atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++      atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                       counter[CM_REQ_COUNTER]);
+       /* Quick state check to discard duplicate REQs. */
+@@ -1764,7 +1764,7 @@ static void cm_dup_rep_handler(struct cm_work *work)
+       if (!cm_id_priv)
+               return;
+-      atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++      atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                       counter[CM_REP_COUNTER]);
+       ret = cm_alloc_response_msg(work->port, work->mad_recv_wc, &msg);
+       if (ret)
+@@ -1931,7 +1931,7 @@ static int cm_rtu_handler(struct cm_work *work)
+       if (cm_id_priv->id.state != IB_CM_REP_SENT &&
+           cm_id_priv->id.state != IB_CM_MRA_REP_RCVD) {
+               spin_unlock_irq(&cm_id_priv->lock);
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_RTU_COUNTER]);
+               goto out;
+       }
+@@ -2110,7 +2110,7 @@ static int cm_dreq_handler(struct cm_work *work)
+       cm_id_priv = cm_acquire_id(dreq_msg->remote_comm_id,
+                                  dreq_msg->local_comm_id);
+       if (!cm_id_priv) {
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_DREQ_COUNTER]);
+               cm_issue_drep(work->port, work->mad_recv_wc);
+               return -EINVAL;
+@@ -2131,7 +2131,7 @@ static int cm_dreq_handler(struct cm_work *work)
+       case IB_CM_MRA_REP_RCVD:
+               break;
+       case IB_CM_TIMEWAIT:
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_DREQ_COUNTER]);
+               if (cm_alloc_response_msg(work->port, work->mad_recv_wc, &msg))
+                       goto unlock;
+@@ -2145,7 +2145,7 @@ static int cm_dreq_handler(struct cm_work *work)
+                       cm_free_msg(msg);
+               goto deref;
+       case IB_CM_DREQ_RCVD:
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_DREQ_COUNTER]);
+               goto unlock;
+       default:
+@@ -2501,7 +2501,7 @@ static int cm_mra_handler(struct cm_work *work)
+                   ib_modify_mad(cm_id_priv->av.port->mad_agent,
+                                 cm_id_priv->msg, timeout)) {
+                       if (cm_id_priv->id.lap_state == IB_CM_MRA_LAP_RCVD)
+-                              atomic_long_inc(&work->port->
++                              atomic_long_inc_unchecked(&work->port->
+                                               counter_group[CM_RECV_DUPLICATES].
+                                               counter[CM_MRA_COUNTER]);
+                       goto out;
+@@ -2510,7 +2510,7 @@ static int cm_mra_handler(struct cm_work *work)
+               break;
+       case IB_CM_MRA_REQ_RCVD:
+       case IB_CM_MRA_REP_RCVD:
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_MRA_COUNTER]);
+               /* fall through */
+       default:
+@@ -2672,7 +2672,7 @@ static int cm_lap_handler(struct cm_work *work)
+       case IB_CM_LAP_IDLE:
+               break;
+       case IB_CM_MRA_LAP_SENT:
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_LAP_COUNTER]);
+               if (cm_alloc_response_msg(work->port, work->mad_recv_wc, &msg))
+                       goto unlock;
+@@ -2688,7 +2688,7 @@ static int cm_lap_handler(struct cm_work *work)
+                       cm_free_msg(msg);
+               goto deref;
+       case IB_CM_LAP_RCVD:
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_LAP_COUNTER]);
+               goto unlock;
+       default:
+@@ -2972,7 +2972,7 @@ static int cm_sidr_req_handler(struct cm_work *work)
+       cur_cm_id_priv = cm_insert_remote_sidr(cm_id_priv);
+       if (cur_cm_id_priv) {
+               spin_unlock_irq(&cm.lock);
+-              atomic_long_inc(&work->port->counter_group[CM_RECV_DUPLICATES].
++              atomic_long_inc_unchecked(&work->port->counter_group[CM_RECV_DUPLICATES].
+                               counter[CM_SIDR_REQ_COUNTER]);
+               goto out; /* Duplicate message. */
+       }
+@@ -3184,10 +3184,10 @@ static void cm_send_handler(struct ib_mad_agent *mad_agent,
+       if (!msg->context[0] && (attr_index != CM_REJ_COUNTER))
+               msg->retries = 1;
+-      atomic_long_add(1 + msg->retries,
++      atomic_long_add_unchecked(1 + msg->retries,
+                       &port->counter_group[CM_XMIT].counter[attr_index]);
+       if (msg->retries)
+-              atomic_long_add(msg->retries,
++              atomic_long_add_unchecked(msg->retries,
+                               &port->counter_group[CM_XMIT_RETRIES].
+                               counter[attr_index]);
+@@ -3397,7 +3397,7 @@ static void cm_recv_handler(struct ib_mad_agent *mad_agent,
+       }
+       attr_id = be16_to_cpu(mad_recv_wc->recv_buf.mad->mad_hdr.attr_id);
+-      atomic_long_inc(&port->counter_group[CM_RECV].
++      atomic_long_inc_unchecked(&port->counter_group[CM_RECV].
+                       counter[attr_id - CM_ATTR_ID_OFFSET]);
+       work = kmalloc(sizeof *work + sizeof(struct ib_sa_path_rec) * paths,
+@@ -3595,10 +3595,10 @@ static ssize_t cm_show_counter(struct kobject *obj, struct attribute *attr,
+       cm_attr = container_of(attr, struct cm_counter_attribute, attr);
+       return sprintf(buf, "%ld\n",
+-                     atomic_long_read(&group->counter[cm_attr->index]));
++                     atomic_long_read_unchecked(&group->counter[cm_attr->index]));
+ }
+-static struct sysfs_ops cm_counter_ops = {
++static const struct sysfs_ops cm_counter_ops = {
+       .show = cm_show_counter
+ };
+diff --git a/drivers/infiniband/core/cma.c b/drivers/infiniband/core/cma.c
+index 8fd3a6f..61d8075 100644
+--- a/drivers/infiniband/core/cma.c
++++ b/drivers/infiniband/core/cma.c
+@@ -2267,6 +2267,9 @@ static int cma_resolve_ib_udp(struct rdma_id_private *id_priv,
+       req.private_data_len = sizeof(struct cma_hdr) +
+                              conn_param->private_data_len;
++      if (req.private_data_len < conn_param->private_data_len)
++              return -EINVAL;
++
+       req.private_data = kzalloc(req.private_data_len, GFP_ATOMIC);
+       if (!req.private_data)
+               return -ENOMEM;
+@@ -2314,6 +2317,9 @@ static int cma_connect_ib(struct rdma_id_private *id_priv,
+       memset(&req, 0, sizeof req);
+       offset = cma_user_data_offset(id_priv->id.ps);
+       req.private_data_len = offset + conn_param->private_data_len;
++      if (req.private_data_len < conn_param->private_data_len)
++              return -EINVAL;
++
+       private_data = kzalloc(req.private_data_len, GFP_ATOMIC);
+       if (!private_data)
+               return -ENOMEM;
+diff --git a/drivers/infiniband/core/fmr_pool.c b/drivers/infiniband/core/fmr_pool.c
+index 4507043..14ad522 100644
+--- a/drivers/infiniband/core/fmr_pool.c
++++ b/drivers/infiniband/core/fmr_pool.c
+@@ -97,8 +97,8 @@ struct ib_fmr_pool {
+       struct task_struct       *thread;
+-      atomic_t                  req_ser;
+-      atomic_t                  flush_ser;
++      atomic_unchecked_t        req_ser;
++      atomic_unchecked_t        flush_ser;
+       wait_queue_head_t         force_wait;
+ };
+@@ -179,10 +179,10 @@ static int ib_fmr_cleanup_thread(void *pool_ptr)
+       struct ib_fmr_pool *pool = pool_ptr;
+       do {
+-              if (atomic_read(&pool->flush_ser) - atomic_read(&pool->req_ser) < 0) {
++              if (atomic_read_unchecked(&pool->flush_ser) - atomic_read_unchecked(&pool->req_ser) < 0) {
+                       ib_fmr_batch_release(pool);
+-                      atomic_inc(&pool->flush_ser);
++                      atomic_inc_unchecked(&pool->flush_ser);
+                       wake_up_interruptible(&pool->force_wait);
+                       if (pool->flush_function)
+@@ -190,7 +190,7 @@ static int ib_fmr_cleanup_thread(void *pool_ptr)
+               }
+               set_current_state(TASK_INTERRUPTIBLE);
+-              if (atomic_read(&pool->flush_ser) - atomic_read(&pool->req_ser) >= 0 &&
++              if (atomic_read_unchecked(&pool->flush_ser) - atomic_read_unchecked(&pool->req_ser) >= 0 &&
+                   !kthread_should_stop())
+                       schedule();
+               __set_current_state(TASK_RUNNING);
+@@ -282,8 +282,8 @@ struct ib_fmr_pool *ib_create_fmr_pool(struct ib_pd             *pd,
+       pool->dirty_watermark = params->dirty_watermark;
+       pool->dirty_len       = 0;
+       spin_lock_init(&pool->pool_lock);
+-      atomic_set(&pool->req_ser,   0);
+-      atomic_set(&pool->flush_ser, 0);
++      atomic_set_unchecked(&pool->req_ser,   0);
++      atomic_set_unchecked(&pool->flush_ser, 0);
+       init_waitqueue_head(&pool->force_wait);
+       pool->thread = kthread_run(ib_fmr_cleanup_thread,
+@@ -411,11 +411,11 @@ int ib_flush_fmr_pool(struct ib_fmr_pool *pool)
+       }
+       spin_unlock_irq(&pool->pool_lock);
+-      serial = atomic_inc_return(&pool->req_ser);
++      serial = atomic_inc_return_unchecked(&pool->req_ser);
+       wake_up_process(pool->thread);
+       if (wait_event_interruptible(pool->force_wait,
+-                                   atomic_read(&pool->flush_ser) - serial >= 0))
++                                   atomic_read_unchecked(&pool->flush_ser) - serial >= 0))
+               return -EINTR;
+       return 0;
+@@ -525,7 +525,7 @@ int ib_fmr_pool_unmap(struct ib_pool_fmr *fmr)
+               } else {
+                       list_add_tail(&fmr->list, &pool->dirty_list);
+                       if (++pool->dirty_len >= pool->dirty_watermark) {
+-                              atomic_inc(&pool->req_ser);
++                              atomic_inc_unchecked(&pool->req_ser);
+                               wake_up_process(pool->thread);
+                       }
+               }
+diff --git a/drivers/infiniband/core/sysfs.c b/drivers/infiniband/core/sysfs.c
+index 158a214..1558bb7 100644
+--- a/drivers/infiniband/core/sysfs.c
++++ b/drivers/infiniband/core/sysfs.c
+@@ -79,7 +79,7 @@ static ssize_t port_attr_show(struct kobject *kobj,
+       return port_attr->show(p, port_attr, buf);
+ }
+-static struct sysfs_ops port_sysfs_ops = {
++static const struct sysfs_ops port_sysfs_ops = {
+       .show = port_attr_show
+ };
+diff --git a/drivers/infiniband/core/uverbs_marshall.c b/drivers/infiniband/core/uverbs_marshall.c
+index 5440da0..1194ecb 100644
+--- a/drivers/infiniband/core/uverbs_marshall.c
++++ b/drivers/infiniband/core/uverbs_marshall.c
+@@ -40,18 +40,21 @@ void ib_copy_ah_attr_to_user(struct ib_uverbs_ah_attr *dst,
+       dst->grh.sgid_index        = src->grh.sgid_index;
+       dst->grh.hop_limit         = src->grh.hop_limit;
+       dst->grh.traffic_class     = src->grh.traffic_class;
++      memset(&dst->grh.reserved, 0, sizeof(dst->grh.reserved));
+       dst->dlid                  = src->dlid;
+       dst->sl                    = src->sl;
+       dst->src_path_bits         = src->src_path_bits;
+       dst->static_rate           = src->static_rate;
+       dst->is_global             = src->ah_flags & IB_AH_GRH ? 1 : 0;
+       dst->port_num              = src->port_num;
++      dst->reserved              = 0;
+ }
+ EXPORT_SYMBOL(ib_copy_ah_attr_to_user);
+ void ib_copy_qp_attr_to_user(struct ib_uverbs_qp_attr *dst,
+                            struct ib_qp_attr *src)
+ {
++      dst->qp_state           = src->qp_state;
+       dst->cur_qp_state       = src->cur_qp_state;
+       dst->path_mtu           = src->path_mtu;
+       dst->path_mig_state     = src->path_mig_state;
+@@ -83,6 +86,7 @@ void ib_copy_qp_attr_to_user(struct ib_uverbs_qp_attr *dst,
+       dst->rnr_retry          = src->rnr_retry;
+       dst->alt_port_num       = src->alt_port_num;
+       dst->alt_timeout        = src->alt_timeout;
++      memset(dst->reserved, 0, sizeof(dst->reserved));
+ }
+ EXPORT_SYMBOL(ib_copy_qp_attr_to_user);
+diff --git a/drivers/infiniband/hw/ipath/ipath_fs.c b/drivers/infiniband/hw/ipath/ipath_fs.c
+index 100da85..62e6b88 100644
+--- a/drivers/infiniband/hw/ipath/ipath_fs.c
++++ b/drivers/infiniband/hw/ipath/ipath_fs.c
+@@ -110,6 +110,8 @@ static ssize_t atomic_counters_read(struct file *file, char __user *buf,
+       struct infinipath_counters counters;
+       struct ipath_devdata *dd;
++      pax_track_stack();
++
+       dd = file->f_path.dentry->d_inode->i_private;
+       dd->ipath_f_read_counters(dd, &counters);
+diff --git a/drivers/infiniband/hw/nes/nes.c b/drivers/infiniband/hw/nes/nes.c
+index cbde0cf..afaf55c 100644
+--- a/drivers/infiniband/hw/nes/nes.c
++++ b/drivers/infiniband/hw/nes/nes.c
+@@ -102,7 +102,7 @@ MODULE_PARM_DESC(limit_maxrdreqsz, "Limit max read request size to 256 Bytes");
+ LIST_HEAD(nes_adapter_list);
+ static LIST_HEAD(nes_dev_list);
+-atomic_t qps_destroyed;
++atomic_unchecked_t qps_destroyed;
+ static unsigned int ee_flsh_adapter;
+ static unsigned int sysfs_nonidx_addr;
+@@ -259,7 +259,7 @@ static void nes_cqp_rem_ref_callback(struct nes_device *nesdev, struct nes_cqp_r
+       struct nes_adapter *nesadapter = nesdev->nesadapter;
+       u32 qp_id;
+-      atomic_inc(&qps_destroyed);
++      atomic_inc_unchecked(&qps_destroyed);
+       /* Free the control structures */
+diff --git a/drivers/infiniband/hw/nes/nes.h b/drivers/infiniband/hw/nes/nes.h
+index bcc6abc..9c76b2f 100644
+--- a/drivers/infiniband/hw/nes/nes.h
++++ b/drivers/infiniband/hw/nes/nes.h
+@@ -174,17 +174,17 @@ extern unsigned int nes_debug_level;
+ extern unsigned int wqm_quanta;
+ extern struct list_head nes_adapter_list;
+-extern atomic_t cm_connects;
+-extern atomic_t cm_accepts;
+-extern atomic_t cm_disconnects;
+-extern atomic_t cm_closes;
+-extern atomic_t cm_connecteds;
+-extern atomic_t cm_connect_reqs;
+-extern atomic_t cm_rejects;
+-extern atomic_t mod_qp_timouts;
+-extern atomic_t qps_created;
+-extern atomic_t qps_destroyed;
+-extern atomic_t sw_qps_destroyed;
++extern atomic_unchecked_t cm_connects;
++extern atomic_unchecked_t cm_accepts;
++extern atomic_unchecked_t cm_disconnects;
++extern atomic_unchecked_t cm_closes;
++extern atomic_unchecked_t cm_connecteds;
++extern atomic_unchecked_t cm_connect_reqs;
++extern atomic_unchecked_t cm_rejects;
++extern atomic_unchecked_t mod_qp_timouts;
++extern atomic_unchecked_t qps_created;
++extern atomic_unchecked_t qps_destroyed;
++extern atomic_unchecked_t sw_qps_destroyed;
+ extern u32 mh_detected;
+ extern u32 mh_pauses_sent;
+ extern u32 cm_packets_sent;
+@@ -196,11 +196,11 @@ extern u32 cm_packets_retrans;
+ extern u32 cm_listens_created;
+ extern u32 cm_listens_destroyed;
+ extern u32 cm_backlog_drops;
+-extern atomic_t cm_loopbacks;
+-extern atomic_t cm_nodes_created;
+-extern atomic_t cm_nodes_destroyed;
+-extern atomic_t cm_accel_dropped_pkts;
+-extern atomic_t cm_resets_recvd;
++extern atomic_unchecked_t cm_loopbacks;
++extern atomic_unchecked_t cm_nodes_created;
++extern atomic_unchecked_t cm_nodes_destroyed;
++extern atomic_unchecked_t cm_accel_dropped_pkts;
++extern atomic_unchecked_t cm_resets_recvd;
+ extern u32 int_mod_timer_init;
+ extern u32 int_mod_cq_depth_256;
+diff --git a/drivers/infiniband/hw/nes/nes_cm.c b/drivers/infiniband/hw/nes/nes_cm.c
+index 73473db..5ed06e8 100644
+--- a/drivers/infiniband/hw/nes/nes_cm.c
++++ b/drivers/infiniband/hw/nes/nes_cm.c
+@@ -69,11 +69,11 @@ u32 cm_packets_received;
+ u32 cm_listens_created;
+ u32 cm_listens_destroyed;
+ u32 cm_backlog_drops;
+-atomic_t cm_loopbacks;
+-atomic_t cm_nodes_created;
+-atomic_t cm_nodes_destroyed;
+-atomic_t cm_accel_dropped_pkts;
+-atomic_t cm_resets_recvd;
++atomic_unchecked_t cm_loopbacks;
++atomic_unchecked_t cm_nodes_created;
++atomic_unchecked_t cm_nodes_destroyed;
++atomic_unchecked_t cm_accel_dropped_pkts;
++atomic_unchecked_t cm_resets_recvd;
+ static inline int mini_cm_accelerated(struct nes_cm_core *,
+       struct nes_cm_node *);
+@@ -149,13 +149,13 @@ static struct nes_cm_ops nes_cm_api = {
+ static struct nes_cm_core *g_cm_core;
+-atomic_t cm_connects;
+-atomic_t cm_accepts;
+-atomic_t cm_disconnects;
+-atomic_t cm_closes;
+-atomic_t cm_connecteds;
+-atomic_t cm_connect_reqs;
+-atomic_t cm_rejects;
++atomic_unchecked_t cm_connects;
++atomic_unchecked_t cm_accepts;
++atomic_unchecked_t cm_disconnects;
++atomic_unchecked_t cm_closes;
++atomic_unchecked_t cm_connecteds;
++atomic_unchecked_t cm_connect_reqs;
++atomic_unchecked_t cm_rejects;
+ /**
+@@ -1195,7 +1195,7 @@ static struct nes_cm_node *make_cm_node(struct nes_cm_core *cm_core,
+                 cm_node->rem_mac);
+       add_hte_node(cm_core, cm_node);
+-      atomic_inc(&cm_nodes_created);
++      atomic_inc_unchecked(&cm_nodes_created);
+       return cm_node;
+ }
+@@ -1253,7 +1253,7 @@ static int rem_ref_cm_node(struct nes_cm_core *cm_core,
+       }
+       atomic_dec(&cm_core->node_cnt);
+-      atomic_inc(&cm_nodes_destroyed);
++      atomic_inc_unchecked(&cm_nodes_destroyed);
+       nesqp = cm_node->nesqp;
+       if (nesqp) {
+               nesqp->cm_node = NULL;
+@@ -1320,7 +1320,7 @@ static int process_options(struct nes_cm_node *cm_node, u8 *optionsloc,
+ static void drop_packet(struct sk_buff *skb)
+ {
+-      atomic_inc(&cm_accel_dropped_pkts);
++      atomic_inc_unchecked(&cm_accel_dropped_pkts);
+       dev_kfree_skb_any(skb);
+ }
+@@ -1377,7 +1377,7 @@ static void handle_rst_pkt(struct nes_cm_node *cm_node, struct sk_buff *skb,
+       int     reset = 0;      /* whether to send reset in case of err.. */
+       int     passive_state;
+-      atomic_inc(&cm_resets_recvd);
++      atomic_inc_unchecked(&cm_resets_recvd);
+       nes_debug(NES_DBG_CM, "Received Reset, cm_node = %p, state = %u."
+                       " refcnt=%d\n", cm_node, cm_node->state,
+                       atomic_read(&cm_node->ref_count));
+@@ -2000,7 +2000,7 @@ static struct nes_cm_node *mini_cm_connect(struct nes_cm_core *cm_core,
+                               rem_ref_cm_node(cm_node->cm_core, cm_node);
+                               return NULL;
+                       }
+-                      atomic_inc(&cm_loopbacks);
++                      atomic_inc_unchecked(&cm_loopbacks);
+                       loopbackremotenode->loopbackpartner = cm_node;
+                       loopbackremotenode->tcp_cntxt.rcv_wscale =
+                               NES_CM_DEFAULT_RCV_WND_SCALE;
+@@ -2262,7 +2262,7 @@ static int mini_cm_recv_pkt(struct nes_cm_core *cm_core,
+                       add_ref_cm_node(cm_node);
+               } else if (cm_node->state == NES_CM_STATE_TSA) {
+                       rem_ref_cm_node(cm_core, cm_node);
+-                      atomic_inc(&cm_accel_dropped_pkts);
++                      atomic_inc_unchecked(&cm_accel_dropped_pkts);
+                       dev_kfree_skb_any(skb);
+                       break;
+               }
+@@ -2568,7 +2568,7 @@ static int nes_cm_disconn_true(struct nes_qp *nesqp)
+       if ((cm_id) && (cm_id->event_handler)) {
+               if (issue_disconn) {
+-                      atomic_inc(&cm_disconnects);
++                      atomic_inc_unchecked(&cm_disconnects);
+                       cm_event.event = IW_CM_EVENT_DISCONNECT;
+                       cm_event.status = disconn_status;
+                       cm_event.local_addr = cm_id->local_addr;
+@@ -2590,7 +2590,7 @@ static int nes_cm_disconn_true(struct nes_qp *nesqp)
+               }
+               if (issue_close) {
+-                      atomic_inc(&cm_closes);
++                      atomic_inc_unchecked(&cm_closes);
+                       nes_disconnect(nesqp, 1);
+                       cm_id->provider_data = nesqp;
+@@ -2710,7 +2710,7 @@ int nes_accept(struct iw_cm_id *cm_id, struct iw_cm_conn_param *conn_param)
+       nes_debug(NES_DBG_CM, "QP%u, cm_node=%p, jiffies = %lu listener = %p\n",
+               nesqp->hwqp.qp_id, cm_node, jiffies, cm_node->listener);
+-      atomic_inc(&cm_accepts);
++      atomic_inc_unchecked(&cm_accepts);
+       nes_debug(NES_DBG_CM, "netdev refcnt = %u.\n",
+                       atomic_read(&nesvnic->netdev->refcnt));
+@@ -2919,7 +2919,7 @@ int nes_reject(struct iw_cm_id *cm_id, const void *pdata, u8 pdata_len)
+       struct nes_cm_core *cm_core;
+-      atomic_inc(&cm_rejects);
++      atomic_inc_unchecked(&cm_rejects);
+       cm_node = (struct nes_cm_node *) cm_id->provider_data;
+       loopback = cm_node->loopbackpartner;
+       cm_core = cm_node->cm_core;
+@@ -2982,7 +2982,7 @@ int nes_connect(struct iw_cm_id *cm_id, struct iw_cm_conn_param *conn_param)
+               ntohl(cm_id->local_addr.sin_addr.s_addr),
+               ntohs(cm_id->local_addr.sin_port));
+-      atomic_inc(&cm_connects);
++      atomic_inc_unchecked(&cm_connects);
+       nesqp->active_conn = 1;
+       /* cache the cm_id in the qp */
+@@ -3195,7 +3195,7 @@ static void cm_event_connected(struct nes_cm_event *event)
+       if (nesqp->destroyed) {
+               return;
+       }
+-      atomic_inc(&cm_connecteds);
++      atomic_inc_unchecked(&cm_connecteds);
+       nes_debug(NES_DBG_CM, "QP%u attempting to connect to  0x%08X:0x%04X on"
+                       " local port 0x%04X. jiffies = %lu.\n",
+                       nesqp->hwqp.qp_id,
+@@ -3403,7 +3403,7 @@ static void cm_event_reset(struct nes_cm_event *event)
+       ret = cm_id->event_handler(cm_id, &cm_event);
+       cm_id->add_ref(cm_id);
+-      atomic_inc(&cm_closes);
++      atomic_inc_unchecked(&cm_closes);
+       cm_event.event = IW_CM_EVENT_CLOSE;
+       cm_event.status = IW_CM_EVENT_STATUS_OK;
+       cm_event.provider_data = cm_id->provider_data;
+@@ -3439,7 +3439,7 @@ static void cm_event_mpa_req(struct nes_cm_event *event)
+               return;
+       cm_id = cm_node->cm_id;
+-      atomic_inc(&cm_connect_reqs);
++      atomic_inc_unchecked(&cm_connect_reqs);
+       nes_debug(NES_DBG_CM, "cm_node = %p - cm_id = %p, jiffies = %lu\n",
+                       cm_node, cm_id, jiffies);
+@@ -3477,7 +3477,7 @@ static void cm_event_mpa_reject(struct nes_cm_event *event)
+               return;
+       cm_id = cm_node->cm_id;
+-      atomic_inc(&cm_connect_reqs);
++      atomic_inc_unchecked(&cm_connect_reqs);
+       nes_debug(NES_DBG_CM, "cm_node = %p - cm_id = %p, jiffies = %lu\n",
+                       cm_node, cm_id, jiffies);
+diff --git a/drivers/infiniband/hw/nes/nes_nic.c b/drivers/infiniband/hw/nes/nes_nic.c
+index e593af3..870694a 100644
+--- a/drivers/infiniband/hw/nes/nes_nic.c
++++ b/drivers/infiniband/hw/nes/nes_nic.c
+@@ -1210,17 +1210,17 @@ static void nes_netdev_get_ethtool_stats(struct net_device *netdev,
+       target_stat_values[++index] = mh_detected;
+       target_stat_values[++index] = mh_pauses_sent;
+       target_stat_values[++index] = nesvnic->endnode_ipv4_tcp_retransmits;
+-      target_stat_values[++index] = atomic_read(&cm_connects);
+-      target_stat_values[++index] = atomic_read(&cm_accepts);
+-      target_stat_values[++index] = atomic_read(&cm_disconnects);
+-      target_stat_values[++index] = atomic_read(&cm_connecteds);
+-      target_stat_values[++index] = atomic_read(&cm_connect_reqs);
+-      target_stat_values[++index] = atomic_read(&cm_rejects);
+-      target_stat_values[++index] = atomic_read(&mod_qp_timouts);
+-      target_stat_values[++index] = atomic_read(&qps_created);
+-      target_stat_values[++index] = atomic_read(&sw_qps_destroyed);
+-      target_stat_values[++index] = atomic_read(&qps_destroyed);
+-      target_stat_values[++index] = atomic_read(&cm_closes);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_connects);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_accepts);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_disconnects);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_connecteds);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_connect_reqs);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_rejects);
++      target_stat_values[++index] = atomic_read_unchecked(&mod_qp_timouts);
++      target_stat_values[++index] = atomic_read_unchecked(&qps_created);
++      target_stat_values[++index] = atomic_read_unchecked(&sw_qps_destroyed);
++      target_stat_values[++index] = atomic_read_unchecked(&qps_destroyed);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_closes);
+       target_stat_values[++index] = cm_packets_sent;
+       target_stat_values[++index] = cm_packets_bounced;
+       target_stat_values[++index] = cm_packets_created;
+@@ -1230,11 +1230,11 @@ static void nes_netdev_get_ethtool_stats(struct net_device *netdev,
+       target_stat_values[++index] = cm_listens_created;
+       target_stat_values[++index] = cm_listens_destroyed;
+       target_stat_values[++index] = cm_backlog_drops;
+-      target_stat_values[++index] = atomic_read(&cm_loopbacks);
+-      target_stat_values[++index] = atomic_read(&cm_nodes_created);
+-      target_stat_values[++index] = atomic_read(&cm_nodes_destroyed);
+-      target_stat_values[++index] = atomic_read(&cm_accel_dropped_pkts);
+-      target_stat_values[++index] = atomic_read(&cm_resets_recvd);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_loopbacks);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_nodes_created);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_nodes_destroyed);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_accel_dropped_pkts);
++      target_stat_values[++index] = atomic_read_unchecked(&cm_resets_recvd);
+       target_stat_values[++index] = int_mod_timer_init;
+       target_stat_values[++index] = int_mod_cq_depth_1;
+       target_stat_values[++index] = int_mod_cq_depth_4;
+diff --git a/drivers/infiniband/hw/nes/nes_verbs.c b/drivers/infiniband/hw/nes/nes_verbs.c
+index a680c42..f914deb 100644
+--- a/drivers/infiniband/hw/nes/nes_verbs.c
++++ b/drivers/infiniband/hw/nes/nes_verbs.c
+@@ -45,9 +45,9 @@
+ #include <rdma/ib_umem.h>
+-atomic_t mod_qp_timouts;
+-atomic_t qps_created;
+-atomic_t sw_qps_destroyed;
++atomic_unchecked_t mod_qp_timouts;
++atomic_unchecked_t qps_created;
++atomic_unchecked_t sw_qps_destroyed;
+ static void nes_unregister_ofa_device(struct nes_ib_device *nesibdev);
+@@ -1240,7 +1240,7 @@ static struct ib_qp *nes_create_qp(struct ib_pd *ibpd,
+       if (init_attr->create_flags)
+               return ERR_PTR(-EINVAL);
+-      atomic_inc(&qps_created);
++      atomic_inc_unchecked(&qps_created);
+       switch (init_attr->qp_type) {
+               case IB_QPT_RC:
+                       if (nes_drv_opt & NES_DRV_OPT_NO_INLINE_DATA) {
+@@ -1568,7 +1568,7 @@ static int nes_destroy_qp(struct ib_qp *ibqp)
+       struct iw_cm_event cm_event;
+       int ret;
+-      atomic_inc(&sw_qps_destroyed);
++      atomic_inc_unchecked(&sw_qps_destroyed);
+       nesqp->destroyed = 1;
+       /* Blow away the connection if it exists. */
+diff --git a/drivers/input/gameport/gameport.c b/drivers/input/gameport/gameport.c
+index ac11be0..3883c04 100644
+--- a/drivers/input/gameport/gameport.c
++++ b/drivers/input/gameport/gameport.c
+@@ -515,13 +515,13 @@ EXPORT_SYMBOL(gameport_set_phys);
+  */
+ static void gameport_init_port(struct gameport *gameport)
+ {
+-      static atomic_t gameport_no = ATOMIC_INIT(0);
++      static atomic_unchecked_t gameport_no = ATOMIC_INIT(0);
+       __module_get(THIS_MODULE);
+       mutex_init(&gameport->drv_mutex);
+       device_initialize(&gameport->dev);
+-      dev_set_name(&gameport->dev, "gameport%lu", (unsigned long)atomic_inc_return(&gameport_no) - 1);
++      dev_set_name(&gameport->dev, "gameport%lu", (unsigned long)atomic_inc_return_unchecked(&gameport_no) - 1);
+       gameport->dev.bus = &gameport_bus;
+       gameport->dev.release = gameport_release_port;
+       if (gameport->parent)
+diff --git a/drivers/input/input.c b/drivers/input/input.c
+index c82ae82..8cfb9cb 100644
+--- a/drivers/input/input.c
++++ b/drivers/input/input.c
+@@ -1558,7 +1558,7 @@ EXPORT_SYMBOL(input_set_capability);
+  */
+ int input_register_device(struct input_dev *dev)
+ {
+-      static atomic_t input_no = ATOMIC_INIT(0);
++      static atomic_unchecked_t input_no = ATOMIC_INIT(0);
+       struct input_handler *handler;
+       const char *path;
+       int error;
+@@ -1585,7 +1585,7 @@ int input_register_device(struct input_dev *dev)
+               dev->setkeycode = input_default_setkeycode;
+       dev_set_name(&dev->dev, "input%ld",
+-                   (unsigned long) atomic_inc_return(&input_no) - 1);
++                   (unsigned long) atomic_inc_return_unchecked(&input_no) - 1);
+       error = device_add(&dev->dev);
+       if (error)
+diff --git a/drivers/input/joystick/sidewinder.c b/drivers/input/joystick/sidewinder.c
+index ca13a6b..b032b0c 100644
+--- a/drivers/input/joystick/sidewinder.c
++++ b/drivers/input/joystick/sidewinder.c
+@@ -30,6 +30,7 @@
+ #include <linux/kernel.h>
+ #include <linux/module.h>
+ #include <linux/slab.h>
++#include <linux/sched.h>
+ #include <linux/init.h>
+ #include <linux/input.h>
+ #include <linux/gameport.h>
+@@ -428,6 +429,8 @@ static int sw_read(struct sw *sw)
+       unsigned char buf[SW_LENGTH];
+       int i;
++      pax_track_stack();
++
+       i = sw_read_packet(sw->gameport, buf, sw->length, 0);
+       if (sw->type == SW_ID_3DP && sw->length == 66 && i != 66) {             /* Broken packet, try to fix */
+diff --git a/drivers/input/joystick/xpad.c b/drivers/input/joystick/xpad.c
+index 79e3edc..01412b9 100644
+--- a/drivers/input/joystick/xpad.c
++++ b/drivers/input/joystick/xpad.c
+@@ -621,7 +621,7 @@ static void xpad_led_set(struct led_classdev *led_cdev,
+ static int xpad_led_probe(struct usb_xpad *xpad)
+ {
+-      static atomic_t led_seq = ATOMIC_INIT(0);
++      static atomic_unchecked_t led_seq       = ATOMIC_INIT(0);
+       long led_no;
+       struct xpad_led *led;
+       struct led_classdev *led_cdev;
+@@ -634,7 +634,7 @@ static int xpad_led_probe(struct usb_xpad *xpad)
+       if (!led)
+               return -ENOMEM;
+-      led_no = (long)atomic_inc_return(&led_seq) - 1;
++      led_no = (long)atomic_inc_return_unchecked(&led_seq) - 1;
+       snprintf(led->name, sizeof(led->name), "xpad%ld", led_no);
+       led->xpad = xpad;
+diff --git a/drivers/input/serio/serio.c b/drivers/input/serio/serio.c
+index 0236f0d..c7327f1 100644
+--- a/drivers/input/serio/serio.c
++++ b/drivers/input/serio/serio.c
+@@ -527,7 +527,7 @@ static void serio_release_port(struct device *dev)
+  */
+ static void serio_init_port(struct serio *serio)
+ {
+-      static atomic_t serio_no = ATOMIC_INIT(0);
++      static atomic_unchecked_t serio_no = ATOMIC_INIT(0);
+       __module_get(THIS_MODULE);
+@@ -536,7 +536,7 @@ static void serio_init_port(struct serio *serio)
+       mutex_init(&serio->drv_mutex);
+       device_initialize(&serio->dev);
+       dev_set_name(&serio->dev, "serio%ld",
+-                      (long)atomic_inc_return(&serio_no) - 1);
++                      (long)atomic_inc_return_unchecked(&serio_no) - 1);
+       serio->dev.bus = &serio_bus;
+       serio->dev.release = serio_release_port;
+       if (serio->parent) {
+diff --git a/drivers/isdn/gigaset/common.c b/drivers/isdn/gigaset/common.c
+index 33dcd8d..2783d25 100644
+--- a/drivers/isdn/gigaset/common.c
++++ b/drivers/isdn/gigaset/common.c
+@@ -712,7 +712,7 @@ struct cardstate *gigaset_initcs(struct gigaset_driver *drv, int channels,
+       cs->commands_pending = 0;
+       cs->cur_at_seq = 0;
+       cs->gotfwver = -1;
+-      cs->open_count = 0;
++      local_set(&cs->open_count, 0);
+       cs->dev = NULL;
+       cs->tty = NULL;
+       cs->tty_dev = NULL;
+diff --git a/drivers/isdn/gigaset/gigaset.h b/drivers/isdn/gigaset/gigaset.h
+index a2f6125..6a70677 100644
+--- a/drivers/isdn/gigaset/gigaset.h
++++ b/drivers/isdn/gigaset/gigaset.h
+@@ -34,6 +34,7 @@
+ #include <linux/tty_driver.h>
+ #include <linux/list.h>
+ #include <asm/atomic.h>
++#include <asm/local.h>
+ #define GIG_VERSION {0,5,0,0}
+ #define GIG_COMPAT  {0,4,0,0}
+@@ -446,7 +447,7 @@ struct cardstate {
+       spinlock_t cmdlock;
+       unsigned curlen, cmdbytes;
+-      unsigned open_count;
++      local_t open_count;
+       struct tty_struct *tty;
+       struct tasklet_struct if_wake_tasklet;
+       unsigned control_state;
+diff --git a/drivers/isdn/gigaset/interface.c b/drivers/isdn/gigaset/interface.c
+index b3065b8..c7e8cc9 100644
+--- a/drivers/isdn/gigaset/interface.c
++++ b/drivers/isdn/gigaset/interface.c
+@@ -165,9 +165,7 @@ static int if_open(struct tty_struct *tty, struct file *filp)
+               return -ERESTARTSYS; // FIXME -EINTR?
+       tty->driver_data = cs;
+-      ++cs->open_count;
+-
+-      if (cs->open_count == 1) {
++      if (local_inc_return(&cs->open_count) == 1) {
+               spin_lock_irqsave(&cs->lock, flags);
+               cs->tty = tty;
+               spin_unlock_irqrestore(&cs->lock, flags);
+@@ -195,10 +193,10 @@ static void if_close(struct tty_struct *tty, struct file *filp)
+       if (!cs->connected)
+               gig_dbg(DEBUG_IF, "not connected");     /* nothing to do */
+-      else if (!cs->open_count)
++      else if (!local_read(&cs->open_count))
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+       else {
+-              if (!--cs->open_count) {
++              if (!local_dec_return(&cs->open_count)) {
+                       spin_lock_irqsave(&cs->lock, flags);
+                       cs->tty = NULL;
+                       spin_unlock_irqrestore(&cs->lock, flags);
+@@ -233,7 +231,7 @@ static int if_ioctl(struct tty_struct *tty, struct file *file,
+       if (!cs->connected) {
+               gig_dbg(DEBUG_IF, "not connected");
+               retval = -ENODEV;
+-      } else if (!cs->open_count)
++      } else if (!local_read(&cs->open_count))
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+       else {
+               retval = 0;
+@@ -361,7 +359,7 @@ static int if_write(struct tty_struct *tty, const unsigned char *buf, int count)
+       if (!cs->connected) {
+               gig_dbg(DEBUG_IF, "not connected");
+               retval = -ENODEV;
+-      } else if (!cs->open_count)
++      } else if (!local_read(&cs->open_count))
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+       else if (cs->mstate != MS_LOCKED) {
+               dev_warn(cs->dev, "can't write to unlocked device\n");
+@@ -395,7 +393,7 @@ static int if_write_room(struct tty_struct *tty)
+       if (!cs->connected) {
+               gig_dbg(DEBUG_IF, "not connected");
+               retval = -ENODEV;
+-      } else if (!cs->open_count)
++      } else if (!local_read(&cs->open_count))
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+       else if (cs->mstate != MS_LOCKED) {
+               dev_warn(cs->dev, "can't write to unlocked device\n");
+@@ -425,7 +423,7 @@ static int if_chars_in_buffer(struct tty_struct *tty)
+       if (!cs->connected)
+               gig_dbg(DEBUG_IF, "not connected");
+-      else if (!cs->open_count)
++      else if (!local_read(&cs->open_count))
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+       else if (cs->mstate != MS_LOCKED)
+               dev_warn(cs->dev, "can't write to unlocked device\n");
+@@ -453,7 +451,7 @@ static void if_throttle(struct tty_struct *tty)
+       if (!cs->connected)
+               gig_dbg(DEBUG_IF, "not connected");     /* nothing to do */
+-      else if (!cs->open_count)
++      else if (!local_read(&cs->open_count))
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+       else {
+               //FIXME
+@@ -478,7 +476,7 @@ static void if_unthrottle(struct tty_struct *tty)
+       if (!cs->connected)
+               gig_dbg(DEBUG_IF, "not connected");     /* nothing to do */
+-      else if (!cs->open_count)
++      else if (!local_read(&cs->open_count))
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+       else {
+               //FIXME
+@@ -510,7 +508,7 @@ static void if_set_termios(struct tty_struct *tty, struct ktermios *old)
+               goto out;
+       }
+-      if (!cs->open_count) {
++      if (!local_read(&cs->open_count)) {
+               dev_warn(cs->dev, "%s: device not opened\n", __func__);
+               goto out;
+       }
+diff --git a/drivers/isdn/hardware/avm/b1.c b/drivers/isdn/hardware/avm/b1.c
+index a7c0083..62a7cb6 100644
+--- a/drivers/isdn/hardware/avm/b1.c
++++ b/drivers/isdn/hardware/avm/b1.c
+@@ -173,7 +173,7 @@ int b1_load_t4file(avmcard *card, capiloaddatapart * t4file)
+       }
+       if (left) {
+               if (t4file->user) {
+-                      if (copy_from_user(buf, dp, left))
++                      if (left > sizeof buf || copy_from_user(buf, dp, left))
+                               return -EFAULT;
+               } else {
+                       memcpy(buf, dp, left);
+@@ -221,7 +221,7 @@ int b1_load_config(avmcard *card, capiloaddatapart * config)
+       }
+       if (left) {
+               if (config->user) {
+-                      if (copy_from_user(buf, dp, left))
++                      if (left > sizeof buf || copy_from_user(buf, dp, left))
+                               return -EFAULT;
+               } else {
+                       memcpy(buf, dp, left);
+diff --git a/drivers/isdn/hardware/eicon/capidtmf.c b/drivers/isdn/hardware/eicon/capidtmf.c
+index f130724..c373c68 100644
+--- a/drivers/isdn/hardware/eicon/capidtmf.c
++++ b/drivers/isdn/hardware/eicon/capidtmf.c
+@@ -498,6 +498,7 @@ void capidtmf_recv_block (t_capidtmf_state   *p_state, byte   *buffer, word leng
+   byte goertzel_result_buffer[CAPIDTMF_RECV_TOTAL_FREQUENCY_COUNT];
+     short windowed_sample_buffer[CAPIDTMF_RECV_WINDOWED_SAMPLES];
++  pax_track_stack();
+   if (p_state->recv.state & CAPIDTMF_RECV_STATE_DTMF_ACTIVE)
+   {
+diff --git a/drivers/isdn/hardware/eicon/capifunc.c b/drivers/isdn/hardware/eicon/capifunc.c
+index 4d425c6..a9be6c4 100644
+--- a/drivers/isdn/hardware/eicon/capifunc.c
++++ b/drivers/isdn/hardware/eicon/capifunc.c
+@@ -1055,6 +1055,8 @@ static int divacapi_connect_didd(void)
+       IDI_SYNC_REQ req;
+       DESCRIPTOR DIDD_Table[MAX_DESCRIPTORS];
++      pax_track_stack();
++
+       DIVA_DIDD_Read(DIDD_Table, sizeof(DIDD_Table));
+       for (x = 0; x < MAX_DESCRIPTORS; x++) {
+diff --git a/drivers/isdn/hardware/eicon/diddfunc.c b/drivers/isdn/hardware/eicon/diddfunc.c
+index 3029234..ef0d9e2 100644
+--- a/drivers/isdn/hardware/eicon/diddfunc.c
++++ b/drivers/isdn/hardware/eicon/diddfunc.c
+@@ -54,6 +54,8 @@ static int DIVA_INIT_FUNCTION connect_didd(void)
+       IDI_SYNC_REQ req;
+       DESCRIPTOR DIDD_Table[MAX_DESCRIPTORS];
++      pax_track_stack();
++
+       DIVA_DIDD_Read(DIDD_Table, sizeof(DIDD_Table));
+       for (x = 0; x < MAX_DESCRIPTORS; x++) {
+diff --git a/drivers/isdn/hardware/eicon/divasfunc.c b/drivers/isdn/hardware/eicon/divasfunc.c
+index d36a4c0..11e7d1a 100644
+--- a/drivers/isdn/hardware/eicon/divasfunc.c
++++ b/drivers/isdn/hardware/eicon/divasfunc.c
+@@ -161,6 +161,8 @@ static int DIVA_INIT_FUNCTION connect_didd(void)
+       IDI_SYNC_REQ req;
+       DESCRIPTOR DIDD_Table[MAX_DESCRIPTORS];
++      pax_track_stack();
++
+       DIVA_DIDD_Read(DIDD_Table, sizeof(DIDD_Table));
+       for (x = 0; x < MAX_DESCRIPTORS; x++) {
+diff --git a/drivers/isdn/hardware/eicon/divasync.h b/drivers/isdn/hardware/eicon/divasync.h
+index 85784a7..a19ca98 100644
+--- a/drivers/isdn/hardware/eicon/divasync.h
++++ b/drivers/isdn/hardware/eicon/divasync.h
+@@ -146,7 +146,7 @@ typedef struct _diva_didd_add_adapter {
+ } diva_didd_add_adapter_t;
+ typedef struct _diva_didd_remove_adapter {
+  IDI_CALL p_request;
+-} diva_didd_remove_adapter_t;
++} __no_const diva_didd_remove_adapter_t;
+ typedef struct _diva_didd_read_adapter_array {
+  void   * buffer;
+  dword length;
+diff --git a/drivers/isdn/hardware/eicon/idifunc.c b/drivers/isdn/hardware/eicon/idifunc.c
+index db87d51..7d09acf 100644
+--- a/drivers/isdn/hardware/eicon/idifunc.c
++++ b/drivers/isdn/hardware/eicon/idifunc.c
+@@ -188,6 +188,8 @@ static int DIVA_INIT_FUNCTION connect_didd(void)
+       IDI_SYNC_REQ req;
+       DESCRIPTOR DIDD_Table[MAX_DESCRIPTORS];
++      pax_track_stack();
++
+       DIVA_DIDD_Read(DIDD_Table, sizeof(DIDD_Table));
+       for (x = 0; x < MAX_DESCRIPTORS; x++) {
+diff --git a/drivers/isdn/hardware/eicon/message.c b/drivers/isdn/hardware/eicon/message.c
+index ae89fb8..0fab299 100644
+--- a/drivers/isdn/hardware/eicon/message.c
++++ b/drivers/isdn/hardware/eicon/message.c
+@@ -4889,6 +4889,8 @@ static void sig_ind(PLCI *plci)
+   dword d;
+   word w;
++  pax_track_stack();
++
+   a = plci->adapter;
+   Id = ((word)plci->Id<<8)|a->Id;
+   PUT_WORD(&SS_Ind[4],0x0000);
+@@ -7484,6 +7486,8 @@ static word add_b1(PLCI *plci, API_PARSE *bp, word b_channel_info,
+   word j, n, w;
+   dword d;
++  pax_track_stack();
++
+   for(i=0;i<8;i++) bp_parms[i].length = 0;
+   for(i=0;i<2;i++) global_config[i].length = 0;
+@@ -7958,6 +7962,8 @@ static word add_b23(PLCI *plci, API_PARSE *bp)
+   const byte llc3[] = {4,3,2,2,6,6,0};
+   const byte header[] = {0,2,3,3,0,0,0};
++  pax_track_stack();
++
+   for(i=0;i<8;i++) bp_parms[i].length = 0;
+   for(i=0;i<6;i++) b2_config_parms[i].length = 0;
+   for(i=0;i<5;i++) b3_config_parms[i].length = 0;
+@@ -14761,6 +14767,8 @@ static void group_optimization(DIVA_CAPI_ADAPTER   * a, PLCI   * plci)
+   word appl_number_group_type[MAX_APPL];
+   PLCI   *auxplci;
++  pax_track_stack();
++
+   set_group_ind_mask (plci); /* all APPLs within this inc. call are allowed to dial in */
+   if(!a->group_optimization_enabled)
+diff --git a/drivers/isdn/hardware/eicon/mntfunc.c b/drivers/isdn/hardware/eicon/mntfunc.c
+index a564b75..f3cf8b5 100644
+--- a/drivers/isdn/hardware/eicon/mntfunc.c
++++ b/drivers/isdn/hardware/eicon/mntfunc.c
+@@ -79,6 +79,8 @@ static int DIVA_INIT_FUNCTION connect_didd(void)
+       IDI_SYNC_REQ req;
+       DESCRIPTOR DIDD_Table[MAX_DESCRIPTORS];
++      pax_track_stack();
++
+       DIVA_DIDD_Read(DIDD_Table, sizeof(DIDD_Table));
+       for (x = 0; x < MAX_DESCRIPTORS; x++) {
+diff --git a/drivers/isdn/hardware/eicon/xdi_adapter.h b/drivers/isdn/hardware/eicon/xdi_adapter.h
+index a3bd163..8956575 100644
+--- a/drivers/isdn/hardware/eicon/xdi_adapter.h
++++ b/drivers/isdn/hardware/eicon/xdi_adapter.h
+@@ -44,7 +44,7 @@ typedef struct _xdi_mbox_t {
+ typedef struct _diva_os_idi_adapter_interface {
+       diva_init_card_proc_t cleanup_adapter_proc;
+       diva_cmd_card_proc_t cmd_proc;
+-} diva_os_idi_adapter_interface_t;
++} __no_const diva_os_idi_adapter_interface_t;
+ typedef struct _diva_os_xdi_adapter {
+       struct list_head link;
+diff --git a/drivers/isdn/i4l/isdn_common.c b/drivers/isdn/i4l/isdn_common.c
+index adb1e8c..21b590b 100644
+--- a/drivers/isdn/i4l/isdn_common.c
++++ b/drivers/isdn/i4l/isdn_common.c
+@@ -1290,6 +1290,8 @@ isdn_ioctl(struct inode *inode, struct file *file, uint cmd, ulong arg)
+       } iocpar;
+       void __user *argp = (void __user *)arg;
++      pax_track_stack();
++
+ #define name  iocpar.name
+ #define bname iocpar.bname
+ #define iocts iocpar.iocts
+diff --git a/drivers/isdn/icn/icn.c b/drivers/isdn/icn/icn.c
+index bf7997a..cf091db 100644
+--- a/drivers/isdn/icn/icn.c
++++ b/drivers/isdn/icn/icn.c
+@@ -1044,7 +1044,7 @@ icn_writecmd(const u_char * buf, int len, int user, icn_card * card)
+               if (count > len)
+                       count = len;
+               if (user) {
+-                      if (copy_from_user(msg, buf, count))
++                      if (count > sizeof msg || copy_from_user(msg, buf, count))
+                               return -EFAULT;
+               } else
+                       memcpy(msg, buf, count);
+diff --git a/drivers/isdn/mISDN/socket.c b/drivers/isdn/mISDN/socket.c
+index feb0fa4..f76f830 100644
+--- a/drivers/isdn/mISDN/socket.c
++++ b/drivers/isdn/mISDN/socket.c
+@@ -391,6 +391,7 @@ data_sock_ioctl(struct socket *sock, unsigned int cmd, unsigned long arg)
+               if (dev) {
+                       struct mISDN_devinfo di;
++                      memset(&di, 0, sizeof(di));
+                       di.id = dev->id;
+                       di.Dprotocols = dev->Dprotocols;
+                       di.Bprotocols = dev->Bprotocols | get_all_Bprotocols();
+@@ -671,6 +672,7 @@ base_sock_ioctl(struct socket *sock, unsigned int cmd, unsigned long arg)
+               if (dev) {
+                       struct mISDN_devinfo di;
++                      memset(&di, 0, sizeof(di));
+                       di.id = dev->id;
+                       di.Dprotocols = dev->Dprotocols;
+                       di.Bprotocols = dev->Bprotocols | get_all_Bprotocols();
+diff --git a/drivers/isdn/sc/interrupt.c b/drivers/isdn/sc/interrupt.c
+index 485be8b..f0225bc 100644
+--- a/drivers/isdn/sc/interrupt.c
++++ b/drivers/isdn/sc/interrupt.c
+@@ -112,11 +112,19 @@ irqreturn_t interrupt_handler(int dummy, void *card_inst)
+                       }
+                       else if(callid>=0x0000 && callid<=0x7FFF)
+                       {
++                              int len;
++
+                               pr_debug("%s: Got Incoming Call\n",
+                                               sc_adapter[card]->devicename);
+-                              strcpy(setup.phone,&(rcvmsg.msg_data.byte_array[4]));
+-                              strcpy(setup.eazmsn,
+-                                      sc_adapter[card]->channel[rcvmsg.phy_link_no-1].dn);
++                              len = strlcpy(setup.phone, &(rcvmsg.msg_data.byte_array[4]),
++                                              sizeof(setup.phone));
++                              if (len >= sizeof(setup.phone))
++                                      continue;
++                              len = strlcpy(setup.eazmsn,
++                                              sc_adapter[card]->channel[rcvmsg.phy_link_no - 1].dn,
++                                              sizeof(setup.eazmsn));
++                              if (len >= sizeof(setup.eazmsn))
++                                      continue;
+                               setup.si1 = 7;
+                               setup.si2 = 0;
+                               setup.plan = 0;
+@@ -176,7 +184,9 @@ irqreturn_t interrupt_handler(int dummy, void *card_inst)
+                * Handle a GetMyNumber Rsp
+                */
+               if (IS_CE_MESSAGE(rcvmsg,Call,0,GetMyNumber)){
+-                      strcpy(sc_adapter[card]->channel[rcvmsg.phy_link_no-1].dn,rcvmsg.msg_data.byte_array);
++                      strlcpy(sc_adapter[card]->channel[rcvmsg.phy_link_no - 1].dn,
++                              rcvmsg.msg_data.byte_array,
++                              sizeof(rcvmsg.msg_data.byte_array));
+                       continue;
+               }
+                       
+diff --git a/drivers/lguest/core.c b/drivers/lguest/core.c
+index 8744d24..d1f9a9a 100644
+--- a/drivers/lguest/core.c
++++ b/drivers/lguest/core.c
+@@ -91,9 +91,17 @@ static __init int map_switcher(void)
+        * it's worked so far.  The end address needs +1 because __get_vm_area
+        * allocates an extra guard page, so we need space for that.
+        */
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++      switcher_vma = __get_vm_area(TOTAL_SWITCHER_PAGES * PAGE_SIZE,
++                                   VM_ALLOC | VM_KERNEXEC, SWITCHER_ADDR, SWITCHER_ADDR
++                                   + (TOTAL_SWITCHER_PAGES+1) * PAGE_SIZE);
++#else
+       switcher_vma = __get_vm_area(TOTAL_SWITCHER_PAGES * PAGE_SIZE,
+                                    VM_ALLOC, SWITCHER_ADDR, SWITCHER_ADDR
+                                    + (TOTAL_SWITCHER_PAGES+1) * PAGE_SIZE);
++#endif
++
+       if (!switcher_vma) {
+               err = -ENOMEM;
+               printk("lguest: could not map switcher pages high\n");
+@@ -118,7 +126,7 @@ static __init int map_switcher(void)
+        * Now the Switcher is mapped at the right address, we can't fail!
+        * Copy in the compiled-in Switcher code (from <arch>_switcher.S).
+        */
+-      memcpy(switcher_vma->addr, start_switcher_text,
++      memcpy(switcher_vma->addr, ktla_ktva(start_switcher_text),
+              end_switcher_text - start_switcher_text);
+       printk(KERN_INFO "lguest: mapped switcher at %p\n",
+diff --git a/drivers/lguest/x86/core.c b/drivers/lguest/x86/core.c
+index 6ae3888..8b38145 100644
+--- a/drivers/lguest/x86/core.c
++++ b/drivers/lguest/x86/core.c
+@@ -59,7 +59,7 @@ static struct {
+ /* Offset from where switcher.S was compiled to where we've copied it */
+ static unsigned long switcher_offset(void)
+ {
+-      return SWITCHER_ADDR - (unsigned long)start_switcher_text;
++      return SWITCHER_ADDR - (unsigned long)ktla_ktva(start_switcher_text);
+ }
+ /* This cpu's struct lguest_pages. */
+@@ -100,7 +100,13 @@ static void copy_in_guest_info(struct lg_cpu *cpu, struct lguest_pages *pages)
+        * These copies are pretty cheap, so we do them unconditionally: */
+       /* Save the current Host top-level page directory.
+        */
++
++#ifdef CONFIG_PAX_PER_CPU_PGD
++      pages->state.host_cr3 = read_cr3();
++#else
+       pages->state.host_cr3 = __pa(current->mm->pgd);
++#endif
++
+       /*
+        * Set up the Guest's page tables to see this CPU's pages (and no
+        * other CPU's pages).
+@@ -535,7 +541,7 @@ void __init lguest_arch_host_init(void)
+        * compiled-in switcher code and the high-mapped copy we just made.
+        */
+       for (i = 0; i < IDT_ENTRIES; i++)
+-              default_idt_entries[i] += switcher_offset();
++              default_idt_entries[i] = ktla_ktva(default_idt_entries[i]) + switcher_offset();
+       /*
+        * Set up the Switcher's per-cpu areas.
+@@ -618,7 +624,7 @@ void __init lguest_arch_host_init(void)
+        * it will be undisturbed when we switch.  To change %cs and jump we
+        * need this structure to feed to Intel's "lcall" instruction.
+        */
+-      lguest_entry.offset = (long)switch_to_guest + switcher_offset();
++      lguest_entry.offset = (long)ktla_ktva(switch_to_guest) + switcher_offset();
+       lguest_entry.segment = LGUEST_CS;
+       /*
+diff --git a/drivers/lguest/x86/switcher_32.S b/drivers/lguest/x86/switcher_32.S
+index 40634b0..4f5855e 100644
+--- a/drivers/lguest/x86/switcher_32.S
++++ b/drivers/lguest/x86/switcher_32.S
+@@ -87,6 +87,7 @@
+ #include <asm/page.h>
+ #include <asm/segment.h>
+ #include <asm/lguest.h>
++#include <asm/processor-flags.h>
+ // We mark the start of the code to copy
+ // It's placed in .text tho it's never run here
+@@ -149,6 +150,13 @@ ENTRY(switch_to_guest)
+       // Changes type when we load it: damn Intel!
+       // For after we switch over our page tables
+       // That entry will be read-only: we'd crash.
++
++#ifdef CONFIG_PAX_KERNEXEC
++      mov     %cr0, %edx
++      xor     $X86_CR0_WP, %edx
++      mov     %edx, %cr0
++#endif
++
+       movl    $(GDT_ENTRY_TSS*8), %edx
+       ltr     %dx
+@@ -157,9 +165,15 @@ ENTRY(switch_to_guest)
+       // Let's clear it again for our return.
+       // The GDT descriptor of the Host
+       // Points to the table after two "size" bytes
+-      movl    (LGUEST_PAGES_host_gdt_desc+2)(%eax), %edx
++      movl    (LGUEST_PAGES_host_gdt_desc+2)(%eax), %eax
+       // Clear "used" from type field (byte 5, bit 2)
+-      andb    $0xFD, (GDT_ENTRY_TSS*8 + 5)(%edx)
++      andb    $0xFD, (GDT_ENTRY_TSS*8 + 5)(%eax)
++
++#ifdef CONFIG_PAX_KERNEXEC
++      mov     %cr0, %eax
++      xor     $X86_CR0_WP, %eax
++      mov     %eax, %cr0
++#endif
+       // Once our page table's switched, the Guest is live!
+       // The Host fades as we run this final step.
+@@ -295,13 +309,12 @@ deliver_to_host:
+       // I consulted gcc, and it gave
+       // These instructions, which I gladly credit:
+       leal    (%edx,%ebx,8), %eax
+-      movzwl  (%eax),%edx
+-      movl    4(%eax), %eax
+-      xorw    %ax, %ax
+-      orl     %eax, %edx
++      movl    4(%eax), %edx
++      movw    (%eax), %dx
+       // Now the address of the handler's in %edx
+       // We call it now: its "iret" drops us home.
+-      jmp     *%edx
++      ljmp    $__KERNEL_CS, $1f
++1:    jmp     *%edx
+ // Every interrupt can come to us here
+ // But we must truly tell each apart.
+diff --git a/drivers/macintosh/macio_asic.c b/drivers/macintosh/macio_asic.c
+index 588a5b0..b71db89 100644
+--- a/drivers/macintosh/macio_asic.c
++++ b/drivers/macintosh/macio_asic.c
+@@ -701,7 +701,7 @@ static void __devexit macio_pci_remove(struct pci_dev* pdev)
+  * MacIO is matched against any Apple ID, it's probe() function
+  * will then decide wether it applies or not
+  */
+-static const struct pci_device_id __devinitdata pci_ids [] = { {
++static const struct pci_device_id __devinitconst pci_ids [] = { {
+       .vendor         = PCI_VENDOR_ID_APPLE,
+       .device         = PCI_ANY_ID,
+       .subvendor      = PCI_ANY_ID,
+diff --git a/drivers/macintosh/via-pmu-backlight.c b/drivers/macintosh/via-pmu-backlight.c
+index a348bb0..ecd9b3f 100644
+--- a/drivers/macintosh/via-pmu-backlight.c
++++ b/drivers/macintosh/via-pmu-backlight.c
+@@ -15,7 +15,7 @@
+ #define MAX_PMU_LEVEL 0xFF
+-static struct backlight_ops pmu_backlight_data;
++static const struct backlight_ops pmu_backlight_data;
+ static DEFINE_SPINLOCK(pmu_backlight_lock);
+ static int sleeping, uses_pmu_bl;
+ static u8 bl_curve[FB_BACKLIGHT_LEVELS];
+@@ -115,7 +115,7 @@ static int pmu_backlight_get_brightness(struct backlight_device *bd)
+       return bd->props.brightness;
+ }
+-static struct backlight_ops pmu_backlight_data = {
++static const struct backlight_ops pmu_backlight_data = {
+       .get_brightness = pmu_backlight_get_brightness,
+       .update_status  = pmu_backlight_update_status,
+diff --git a/drivers/macintosh/via-pmu.c b/drivers/macintosh/via-pmu.c
+index 6f308a4..b5f7ff7 100644
+--- a/drivers/macintosh/via-pmu.c
++++ b/drivers/macintosh/via-pmu.c
+@@ -2232,7 +2232,7 @@ static int pmu_sleep_valid(suspend_state_t state)
+               && (pmac_call_feature(PMAC_FTR_SLEEP_STATE, NULL, 0, -1) >= 0);
+ }
+-static struct platform_suspend_ops pmu_pm_ops = {
++static const struct platform_suspend_ops pmu_pm_ops = {
+       .enter = powerbook_sleep,
+       .valid = pmu_sleep_valid,
+ };
+diff --git a/drivers/md/dm-ioctl.c b/drivers/md/dm-ioctl.c
+index 818b617..4656e38 100644
+--- a/drivers/md/dm-ioctl.c
++++ b/drivers/md/dm-ioctl.c
+@@ -1437,7 +1437,7 @@ static int validate_params(uint cmd, struct dm_ioctl *param)
+           cmd == DM_LIST_VERSIONS_CMD)
+               return 0;
+-      if ((cmd == DM_DEV_CREATE_CMD)) {
++      if (cmd == DM_DEV_CREATE_CMD) {
+               if (!*param->name) {
+                       DMWARN("name not supplied when creating device");
+                       return -EINVAL;
+diff --git a/drivers/md/dm-raid1.c b/drivers/md/dm-raid1.c
+index 6021d0a..a878643 100644
+--- a/drivers/md/dm-raid1.c
++++ b/drivers/md/dm-raid1.c
+@@ -41,7 +41,7 @@ enum dm_raid1_error {
+ struct mirror {
+       struct mirror_set *ms;
+-      atomic_t error_count;
++      atomic_unchecked_t error_count;
+       unsigned long error_type;
+       struct dm_dev *dev;
+       sector_t offset;
+@@ -203,7 +203,7 @@ static void fail_mirror(struct mirror *m, enum dm_raid1_error error_type)
+        * simple way to tell if a device has encountered
+        * errors.
+        */
+-      atomic_inc(&m->error_count);
++      atomic_inc_unchecked(&m->error_count);
+       if (test_and_set_bit(error_type, &m->error_type))
+               return;
+@@ -225,7 +225,7 @@ static void fail_mirror(struct mirror *m, enum dm_raid1_error error_type)
+       }
+       for (new = ms->mirror; new < ms->mirror + ms->nr_mirrors; new++)
+-              if (!atomic_read(&new->error_count)) {
++              if (!atomic_read_unchecked(&new->error_count)) {
+                       set_default_mirror(new);
+                       break;
+               }
+@@ -363,7 +363,7 @@ static struct mirror *choose_mirror(struct mirror_set *ms, sector_t sector)
+       struct mirror *m = get_default_mirror(ms);
+       do {
+-              if (likely(!atomic_read(&m->error_count)))
++              if (likely(!atomic_read_unchecked(&m->error_count)))
+                       return m;
+               if (m-- == ms->mirror)
+@@ -377,7 +377,7 @@ static int default_ok(struct mirror *m)
+ {
+       struct mirror *default_mirror = get_default_mirror(m->ms);
+-      return !atomic_read(&default_mirror->error_count);
++      return !atomic_read_unchecked(&default_mirror->error_count);
+ }
+ static int mirror_available(struct mirror_set *ms, struct bio *bio)
+@@ -484,7 +484,7 @@ static void do_reads(struct mirror_set *ms, struct bio_list *reads)
+                */
+               if (likely(region_in_sync(ms, region, 1)))
+                       m = choose_mirror(ms, bio->bi_sector);
+-              else if (m && atomic_read(&m->error_count))
++              else if (m && atomic_read_unchecked(&m->error_count))
+                       m = NULL;
+               if (likely(m))
+@@ -855,7 +855,7 @@ static int get_mirror(struct mirror_set *ms, struct dm_target *ti,
+       }
+       ms->mirror[mirror].ms = ms;
+-      atomic_set(&(ms->mirror[mirror].error_count), 0);
++      atomic_set_unchecked(&(ms->mirror[mirror].error_count), 0);
+       ms->mirror[mirror].error_type = 0;
+       ms->mirror[mirror].offset = offset;
+@@ -1241,7 +1241,7 @@ static void mirror_resume(struct dm_target *ti)
+  */
+ static char device_status_char(struct mirror *m)
+ {
+-      if (!atomic_read(&(m->error_count)))
++      if (!atomic_read_unchecked(&(m->error_count)))
+               return 'A';
+       return (test_bit(DM_RAID1_WRITE_ERROR, &(m->error_type))) ? 'D' :
+diff --git a/drivers/md/dm-stripe.c b/drivers/md/dm-stripe.c
+index bd58703..9f26571 100644
+--- a/drivers/md/dm-stripe.c
++++ b/drivers/md/dm-stripe.c
+@@ -20,7 +20,7 @@ struct stripe {
+       struct dm_dev *dev;
+       sector_t physical_start;
+-      atomic_t error_count;
++      atomic_unchecked_t error_count;
+ };
+ struct stripe_c {
+@@ -188,7 +188,7 @@ static int stripe_ctr(struct dm_target *ti, unsigned int argc, char **argv)
+                       kfree(sc);
+                       return r;
+               }
+-              atomic_set(&(sc->stripe[i].error_count), 0);
++              atomic_set_unchecked(&(sc->stripe[i].error_count), 0);
+       }
+       ti->private = sc;
+@@ -257,7 +257,7 @@ static int stripe_status(struct dm_target *ti,
+               DMEMIT("%d ", sc->stripes);
+               for (i = 0; i < sc->stripes; i++)  {
+                       DMEMIT("%s ", sc->stripe[i].dev->name);
+-                      buffer[i] = atomic_read(&(sc->stripe[i].error_count)) ?
++                      buffer[i] = atomic_read_unchecked(&(sc->stripe[i].error_count)) ?
+                               'D' : 'A';
+               }
+               buffer[i] = '\0';
+@@ -304,8 +304,8 @@ static int stripe_end_io(struct dm_target *ti, struct bio *bio,
+        */
+       for (i = 0; i < sc->stripes; i++)
+               if (!strcmp(sc->stripe[i].dev->name, major_minor)) {
+-                      atomic_inc(&(sc->stripe[i].error_count));
+-                      if (atomic_read(&(sc->stripe[i].error_count)) <
++                      atomic_inc_unchecked(&(sc->stripe[i].error_count));
++                      if (atomic_read_unchecked(&(sc->stripe[i].error_count)) <
+                           DM_IO_ERROR_THRESHOLD)
+                               queue_work(kstriped, &sc->kstriped_ws);
+               }
+diff --git a/drivers/md/dm-sysfs.c b/drivers/md/dm-sysfs.c
+index 4b04590..13a77b2 100644
+--- a/drivers/md/dm-sysfs.c
++++ b/drivers/md/dm-sysfs.c
+@@ -75,7 +75,7 @@ static struct attribute *dm_attrs[] = {
+       NULL,
+ };
+-static struct sysfs_ops dm_sysfs_ops = {
++static const struct sysfs_ops dm_sysfs_ops = {
+       .show   = dm_attr_show,
+ };
+diff --git a/drivers/md/dm-table.c b/drivers/md/dm-table.c
+index 03345bb..332250d 100644
+--- a/drivers/md/dm-table.c
++++ b/drivers/md/dm-table.c
+@@ -376,7 +376,7 @@ static int device_area_is_invalid(struct dm_target *ti, struct dm_dev *dev,
+       if (!dev_size)
+               return 0;
+-      if ((start >= dev_size) || (start + len > dev_size)) {
++      if ((start >= dev_size) || (len > dev_size - start)) {
+               DMWARN("%s: %s too small for target: "
+                      "start=%llu, len=%llu, dev_size=%llu",
+                      dm_device_name(ti->table->md), bdevname(bdev, b),
+diff --git a/drivers/md/dm.c b/drivers/md/dm.c
+index c988ac2..c418141 100644
+--- a/drivers/md/dm.c
++++ b/drivers/md/dm.c
+@@ -165,9 +165,9 @@ struct mapped_device {
+       /*
+        * Event handling.
+        */
+-      atomic_t event_nr;
++      atomic_unchecked_t event_nr;
+       wait_queue_head_t eventq;
+-      atomic_t uevent_seq;
++      atomic_unchecked_t uevent_seq;
+       struct list_head uevent_list;
+       spinlock_t uevent_lock; /* Protect access to uevent_list */
+@@ -1776,8 +1776,8 @@ static struct mapped_device *alloc_dev(int minor)
+       rwlock_init(&md->map_lock);
+       atomic_set(&md->holders, 1);
+       atomic_set(&md->open_count, 0);
+-      atomic_set(&md->event_nr, 0);
+-      atomic_set(&md->uevent_seq, 0);
++      atomic_set_unchecked(&md->event_nr, 0);
++      atomic_set_unchecked(&md->uevent_seq, 0);
+       INIT_LIST_HEAD(&md->uevent_list);
+       spin_lock_init(&md->uevent_lock);
+@@ -1927,7 +1927,7 @@ static void event_callback(void *context)
+       dm_send_uevents(&uevents, &disk_to_dev(md->disk)->kobj);
+-      atomic_inc(&md->event_nr);
++      atomic_inc_unchecked(&md->event_nr);
+       wake_up(&md->eventq);
+ }
+@@ -2562,18 +2562,18 @@ void dm_kobject_uevent(struct mapped_device *md, enum kobject_action action,
+ uint32_t dm_next_uevent_seq(struct mapped_device *md)
+ {
+-      return atomic_add_return(1, &md->uevent_seq);
++      return atomic_add_return_unchecked(1, &md->uevent_seq);
+ }
+ uint32_t dm_get_event_nr(struct mapped_device *md)
+ {
+-      return atomic_read(&md->event_nr);
++      return atomic_read_unchecked(&md->event_nr);
+ }
+ int dm_wait_event(struct mapped_device *md, int event_nr)
+ {
+       return wait_event_interruptible(md->eventq,
+-                      (event_nr != atomic_read(&md->event_nr)));
++                      (event_nr != atomic_read_unchecked(&md->event_nr)));
+ }
+ void dm_uevent_add(struct mapped_device *md, struct list_head *elist)
+diff --git a/drivers/md/md.c b/drivers/md/md.c
+index 4ce6e2f..7a9530a 100644
+--- a/drivers/md/md.c
++++ b/drivers/md/md.c
+@@ -153,10 +153,10 @@ static int start_readonly;
+  *  start build, activate spare
+  */
+ static DECLARE_WAIT_QUEUE_HEAD(md_event_waiters);
+-static atomic_t md_event_count;
++static atomic_unchecked_t md_event_count;
+ void md_new_event(mddev_t *mddev)
+ {
+-      atomic_inc(&md_event_count);
++      atomic_inc_unchecked(&md_event_count);
+       wake_up(&md_event_waiters);
+ }
+ EXPORT_SYMBOL_GPL(md_new_event);
+@@ -166,7 +166,7 @@ EXPORT_SYMBOL_GPL(md_new_event);
+  */
+ static void md_new_event_inintr(mddev_t *mddev)
+ {
+-      atomic_inc(&md_event_count);
++      atomic_inc_unchecked(&md_event_count);
+       wake_up(&md_event_waiters);
+ }
+@@ -1226,7 +1226,7 @@ static int super_1_load(mdk_rdev_t *rdev, mdk_rdev_t *refdev, int minor_version)
+       rdev->preferred_minor = 0xffff;
+       rdev->data_offset = le64_to_cpu(sb->data_offset);
+-      atomic_set(&rdev->corrected_errors, le32_to_cpu(sb->cnt_corrected_read));
++      atomic_set_unchecked(&rdev->corrected_errors, le32_to_cpu(sb->cnt_corrected_read));
+       rdev->sb_size = le32_to_cpu(sb->max_dev) * 2 + 256;
+       bmask = queue_logical_block_size(rdev->bdev->bd_disk->queue)-1;
+@@ -1400,7 +1400,7 @@ static void super_1_sync(mddev_t *mddev, mdk_rdev_t *rdev)
+       else
+               sb->resync_offset = cpu_to_le64(0);
+-      sb->cnt_corrected_read = cpu_to_le32(atomic_read(&rdev->corrected_errors));
++      sb->cnt_corrected_read = cpu_to_le32(atomic_read_unchecked(&rdev->corrected_errors));
+       sb->raid_disks = cpu_to_le32(mddev->raid_disks);
+       sb->size = cpu_to_le64(mddev->dev_sectors);
+@@ -2222,7 +2222,7 @@ __ATTR(state, S_IRUGO|S_IWUSR, state_show, state_store);
+ static ssize_t
+ errors_show(mdk_rdev_t *rdev, char *page)
+ {
+-      return sprintf(page, "%d\n", atomic_read(&rdev->corrected_errors));
++      return sprintf(page, "%d\n", atomic_read_unchecked(&rdev->corrected_errors));
+ }
+ static ssize_t
+@@ -2231,7 +2231,7 @@ errors_store(mdk_rdev_t *rdev, const char *buf, size_t len)
+       char *e;
+       unsigned long n = simple_strtoul(buf, &e, 10);
+       if (*buf && (*e == 0 || *e == '\n')) {
+-              atomic_set(&rdev->corrected_errors, n);
++              atomic_set_unchecked(&rdev->corrected_errors, n);
+               return len;
+       }
+       return -EINVAL;
+@@ -2525,7 +2525,7 @@ static void rdev_free(struct kobject *ko)
+       mdk_rdev_t *rdev = container_of(ko, mdk_rdev_t, kobj);
+       kfree(rdev);
+ }
+-static struct sysfs_ops rdev_sysfs_ops = {
++static const struct sysfs_ops rdev_sysfs_ops = {
+       .show           = rdev_attr_show,
+       .store          = rdev_attr_store,
+ };
+@@ -2574,8 +2574,8 @@ static mdk_rdev_t *md_import_device(dev_t newdev, int super_format, int super_mi
+       rdev->data_offset = 0;
+       rdev->sb_events = 0;
+       atomic_set(&rdev->nr_pending, 0);
+-      atomic_set(&rdev->read_errors, 0);
+-      atomic_set(&rdev->corrected_errors, 0);
++      atomic_set_unchecked(&rdev->read_errors, 0);
++      atomic_set_unchecked(&rdev->corrected_errors, 0);
+       size = rdev->bdev->bd_inode->i_size >> BLOCK_SIZE_BITS;
+       if (!size) {
+@@ -3895,7 +3895,7 @@ static void md_free(struct kobject *ko)
+       kfree(mddev);
+ }
+-static struct sysfs_ops md_sysfs_ops = {
++static const struct sysfs_ops md_sysfs_ops = {
+       .show   = md_attr_show,
+       .store  = md_attr_store,
+ };
+@@ -4482,7 +4482,8 @@ out:
+       err = 0;
+       blk_integrity_unregister(disk);
+       md_new_event(mddev);
+-      sysfs_notify_dirent(mddev->sysfs_state);
++      if (mddev->sysfs_state)
++              sysfs_notify_dirent(mddev->sysfs_state);
+       return err;
+ }
+@@ -5962,7 +5963,7 @@ static int md_seq_show(struct seq_file *seq, void *v)
+               spin_unlock(&pers_lock);
+               seq_printf(seq, "\n");
+-              mi->event = atomic_read(&md_event_count);
++              mi->event = atomic_read_unchecked(&md_event_count);
+               return 0;
+       }
+       if (v == (void*)2) {
+@@ -6051,7 +6052,7 @@ static int md_seq_show(struct seq_file *seq, void *v)
+                               chunk_kb ? "KB" : "B");
+                       if (bitmap->file) {
+                               seq_printf(seq, ", file: ");
+-                              seq_path(seq, &bitmap->file->f_path, " \t\n");
++                              seq_path(seq, &bitmap->file->f_path, " \t\n\\");
+                       }
+                       seq_printf(seq, "\n");
+@@ -6085,7 +6086,7 @@ static int md_seq_open(struct inode *inode, struct file *file)
+       else {
+               struct seq_file *p = file->private_data;
+               p->private = mi;
+-              mi->event = atomic_read(&md_event_count);
++              mi->event = atomic_read_unchecked(&md_event_count);
+       }
+       return error;
+ }
+@@ -6101,7 +6102,7 @@ static unsigned int mdstat_poll(struct file *filp, poll_table *wait)
+       /* always allow read */
+       mask = POLLIN | POLLRDNORM;
+-      if (mi->event != atomic_read(&md_event_count))
++      if (mi->event != atomic_read_unchecked(&md_event_count))
+               mask |= POLLERR | POLLPRI;
+       return mask;
+ }
+@@ -6145,7 +6146,7 @@ static int is_mddev_idle(mddev_t *mddev, int init)
+               struct gendisk *disk = rdev->bdev->bd_contains->bd_disk;
+               curr_events = (int)part_stat_read(&disk->part0, sectors[0]) +
+                             (int)part_stat_read(&disk->part0, sectors[1]) -
+-                            atomic_read(&disk->sync_io);
++                            atomic_read_unchecked(&disk->sync_io);
+               /* sync IO will cause sync_io to increase before the disk_stats
+                * as sync_io is counted when a request starts, and
+                * disk_stats is counted when it completes.
+diff --git a/drivers/md/md.h b/drivers/md/md.h
+index 87430fe..0024a4c 100644
+--- a/drivers/md/md.h
++++ b/drivers/md/md.h
+@@ -94,10 +94,10 @@ struct mdk_rdev_s
+                                        * only maintained for arrays that
+                                        * support hot removal
+                                        */
+-      atomic_t        read_errors;    /* number of consecutive read errors that
++      atomic_unchecked_t      read_errors;    /* number of consecutive read errors that
+                                        * we have tried to ignore.
+                                        */
+-      atomic_t        corrected_errors; /* number of corrected read errors,
++      atomic_unchecked_t      corrected_errors; /* number of corrected read errors,
+                                          * for reporting to userspace and storing
+                                          * in superblock.
+                                          */
+@@ -304,7 +304,7 @@ static inline void rdev_dec_pending(mdk_rdev_t *rdev, mddev_t *mddev)
+ static inline void md_sync_acct(struct block_device *bdev, unsigned long nr_sectors)
+ {
+-        atomic_add(nr_sectors, &bdev->bd_contains->bd_disk->sync_io);
++      atomic_add_unchecked(nr_sectors, &bdev->bd_contains->bd_disk->sync_io);
+ }
+ struct mdk_personality
+diff --git a/drivers/md/raid1.c b/drivers/md/raid1.c
+index 968cb14..f0ad2e4 100644
+--- a/drivers/md/raid1.c
++++ b/drivers/md/raid1.c
+@@ -1415,7 +1415,7 @@ static void sync_request_write(mddev_t *mddev, r1bio_t *r1_bio)
+                                       if (r1_bio->bios[d]->bi_end_io != end_sync_read)
+                                               continue;
+                                       rdev = conf->mirrors[d].rdev;
+-                                      atomic_add(s, &rdev->corrected_errors);
++                                      atomic_add_unchecked(s, &rdev->corrected_errors);
+                                       if (sync_page_io(rdev->bdev,
+                                                        sect + rdev->data_offset,
+                                                        s<<9,
+@@ -1564,7 +1564,7 @@ static void fix_read_error(conf_t *conf, int read_disk,
+                                       /* Well, this device is dead */
+                                       md_error(mddev, rdev);
+                               else {
+-                                      atomic_add(s, &rdev->corrected_errors);
++                                      atomic_add_unchecked(s, &rdev->corrected_errors);
+                                       printk(KERN_INFO
+                                              "raid1:%s: read error corrected "
+                                              "(%d sectors at %llu on %s)\n",
+diff --git a/drivers/md/raid10.c b/drivers/md/raid10.c
+index 1b4e232..cf0f534 100644
+--- a/drivers/md/raid10.c
++++ b/drivers/md/raid10.c
+@@ -1255,7 +1255,7 @@ static void end_sync_read(struct bio *bio, int error)
+       if (test_bit(BIO_UPTODATE, &bio->bi_flags))
+               set_bit(R10BIO_Uptodate, &r10_bio->state);
+       else {
+-              atomic_add(r10_bio->sectors,
++              atomic_add_unchecked(r10_bio->sectors,
+                          &conf->mirrors[d].rdev->corrected_errors);
+               if (!test_bit(MD_RECOVERY_SYNC, &conf->mddev->recovery))
+                       md_error(r10_bio->mddev,
+@@ -1520,7 +1520,7 @@ static void fix_read_error(conf_t *conf, mddev_t *mddev, r10bio_t *r10_bio)
+                           test_bit(In_sync, &rdev->flags)) {
+                               atomic_inc(&rdev->nr_pending);
+                               rcu_read_unlock();
+-                              atomic_add(s, &rdev->corrected_errors);
++                              atomic_add_unchecked(s, &rdev->corrected_errors);
+                               if (sync_page_io(rdev->bdev,
+                                                r10_bio->devs[sl].addr +
+                                                sect + rdev->data_offset,
+diff --git a/drivers/md/raid5.c b/drivers/md/raid5.c
+index 883215d..675bf47 100644
+--- a/drivers/md/raid5.c
++++ b/drivers/md/raid5.c
+@@ -482,7 +482,7 @@ static void ops_run_io(struct stripe_head *sh, struct stripe_head_state *s)
+                       bi->bi_next = NULL;
+                       if ((rw & WRITE) &&
+                           test_bit(R5_ReWrite, &sh->dev[i].flags))
+-                              atomic_add(STRIPE_SECTORS,
++                              atomic_add_unchecked(STRIPE_SECTORS,
+                                       &rdev->corrected_errors);
+                       generic_make_request(bi);
+               } else {
+@@ -1517,15 +1517,15 @@ static void raid5_end_read_request(struct bio * bi, int error)
+                       clear_bit(R5_ReadError, &sh->dev[i].flags);
+                       clear_bit(R5_ReWrite, &sh->dev[i].flags);
+               }
+-              if (atomic_read(&conf->disks[i].rdev->read_errors))
+-                      atomic_set(&conf->disks[i].rdev->read_errors, 0);
++              if (atomic_read_unchecked(&conf->disks[i].rdev->read_errors))
++                      atomic_set_unchecked(&conf->disks[i].rdev->read_errors, 0);
+       } else {
+               const char *bdn = bdevname(conf->disks[i].rdev->bdev, b);
+               int retry = 0;
+               rdev = conf->disks[i].rdev;
+               clear_bit(R5_UPTODATE, &sh->dev[i].flags);
+-              atomic_inc(&rdev->read_errors);
++              atomic_inc_unchecked(&rdev->read_errors);
+               if (conf->mddev->degraded >= conf->max_degraded)
+                       printk_rl(KERN_WARNING
+                                 "raid5:%s: read error not correctable "
+@@ -1543,7 +1543,7 @@ static void raid5_end_read_request(struct bio * bi, int error)
+                                 (unsigned long long)(sh->sector
+                                                      + rdev->data_offset),
+                                 bdn);
+-              else if (atomic_read(&rdev->read_errors)
++              else if (atomic_read_unchecked(&rdev->read_errors)
+                        > conf->max_nr_stripes)
+                       printk(KERN_WARNING
+                              "raid5:%s: Too many read errors, failing device %s.\n",
+@@ -1870,6 +1870,7 @@ static sector_t compute_blocknr(struct stripe_head *sh, int i, int previous)
+       sector_t r_sector;
+       struct stripe_head sh2;
++      pax_track_stack();
+       chunk_offset = sector_div(new_sector, sectors_per_chunk);
+       stripe = new_sector;
+diff --git a/drivers/media/common/saa7146_hlp.c b/drivers/media/common/saa7146_hlp.c
+index 05bde9c..2f31d40 100644
+--- a/drivers/media/common/saa7146_hlp.c
++++ b/drivers/media/common/saa7146_hlp.c
+@@ -353,6 +353,8 @@ static void calculate_clipping_registers_rect(struct saa7146_dev *dev, struct sa
+       int x[32], y[32], w[32], h[32];
++      pax_track_stack();
++
+       /* clear out memory */
+       memset(&line_list[0],  0x00, sizeof(u32)*32);
+       memset(&pixel_list[0], 0x00, sizeof(u32)*32);
+diff --git a/drivers/media/dvb/dvb-core/dvb_ca_en50221.c b/drivers/media/dvb/dvb-core/dvb_ca_en50221.c
+index cb22da5..82b686e 100644
+--- a/drivers/media/dvb/dvb-core/dvb_ca_en50221.c
++++ b/drivers/media/dvb/dvb-core/dvb_ca_en50221.c
+@@ -590,6 +590,8 @@ static int dvb_ca_en50221_read_data(struct dvb_ca_private *ca, int slot, u8 * eb
+       u8 buf[HOST_LINK_BUF_SIZE];
+       int i;
++      pax_track_stack();
++
+       dprintk("%s\n", __func__);
+       /* check if we have space for a link buf in the rx_buffer */
+@@ -1285,6 +1287,8 @@ static ssize_t dvb_ca_en50221_io_write(struct file *file,
+       unsigned long timeout;
+       int written;
++      pax_track_stack();
++
+       dprintk("%s\n", __func__);
+       /* Incoming packet has a 2 byte header. hdr[0] = slot_id, hdr[1] = connection_id */
+diff --git a/drivers/media/dvb/dvb-core/dvb_demux.h b/drivers/media/dvb/dvb-core/dvb_demux.h
+index 2fe05d0..a3289c4 100644
+--- a/drivers/media/dvb/dvb-core/dvb_demux.h
++++ b/drivers/media/dvb/dvb-core/dvb_demux.h
+@@ -71,7 +71,7 @@ struct dvb_demux_feed {
+       union {
+               dmx_ts_cb ts;
+               dmx_section_cb sec;
+-      } cb;
++      } __no_const cb;
+       struct dvb_demux *demux;
+       void *priv;
+diff --git a/drivers/media/dvb/dvb-core/dvbdev.c b/drivers/media/dvb/dvb-core/dvbdev.c
+index 94159b9..376bd8e 100644
+--- a/drivers/media/dvb/dvb-core/dvbdev.c
++++ b/drivers/media/dvb/dvb-core/dvbdev.c
+@@ -191,7 +191,7 @@ int dvb_register_device(struct dvb_adapter *adap, struct dvb_device **pdvbdev,
+                       const struct dvb_device *template, void *priv, int type)
+ {
+       struct dvb_device *dvbdev;
+-      struct file_operations *dvbdevfops;
++      file_operations_no_const *dvbdevfops;
+       struct device *clsdev;
+       int minor;
+       int id;
+diff --git a/drivers/media/dvb/dvb-usb/cxusb.c b/drivers/media/dvb/dvb-usb/cxusb.c
+index 2a53dd0..db8c07a 100644
+--- a/drivers/media/dvb/dvb-usb/cxusb.c
++++ b/drivers/media/dvb/dvb-usb/cxusb.c
+@@ -1040,7 +1040,7 @@ static struct dib0070_config dib7070p_dib0070_config = {
+ struct dib0700_adapter_state {
+       int (*set_param_save) (struct dvb_frontend *,
+                              struct dvb_frontend_parameters *);
+-};
++} __no_const;
+ static int dib7070_set_param_override(struct dvb_frontend *fe,
+                                     struct dvb_frontend_parameters *fep)
+diff --git a/drivers/media/dvb/dvb-usb/dib0700_core.c b/drivers/media/dvb/dvb-usb/dib0700_core.c
+index db7f7f7..f55e96f 100644
+--- a/drivers/media/dvb/dvb-usb/dib0700_core.c
++++ b/drivers/media/dvb/dvb-usb/dib0700_core.c
+@@ -332,6 +332,8 @@ int dib0700_download_firmware(struct usb_device *udev, const struct firmware *fw
+       u8 buf[260];
++      pax_track_stack();
++
+       while ((ret = dvb_usb_get_hexline(fw, &hx, &pos)) > 0) {
+               deb_fwdata("writing to address 0x%08x (buffer: 0x%02x %02x)\n",hx.addr, hx.len, hx.chk);
+diff --git a/drivers/media/dvb/dvb-usb/dib0700_devices.c b/drivers/media/dvb/dvb-usb/dib0700_devices.c
+index 524acf5..5ffc403 100644
+--- a/drivers/media/dvb/dvb-usb/dib0700_devices.c
++++ b/drivers/media/dvb/dvb-usb/dib0700_devices.c
+@@ -28,7 +28,7 @@ MODULE_PARM_DESC(force_lna_activation, "force the activation of Low-Noise-Amplif
+ struct dib0700_adapter_state {
+       int (*set_param_save) (struct dvb_frontend *, struct dvb_frontend_parameters *);
+-};
++} __no_const;
+ /* Hauppauge Nova-T 500 (aka Bristol)
+  *  has a LNA on GPIO0 which is enabled by setting 1 */
+diff --git a/drivers/media/dvb/frontends/dib3000.h b/drivers/media/dvb/frontends/dib3000.h
+index ba91735..4261d84 100644
+--- a/drivers/media/dvb/frontends/dib3000.h
++++ b/drivers/media/dvb/frontends/dib3000.h
+@@ -39,7 +39,7 @@ struct dib_fe_xfer_ops
+       int (*fifo_ctrl)(struct dvb_frontend *fe, int onoff);
+       int (*pid_ctrl)(struct dvb_frontend *fe, int index, int pid, int onoff);
+       int (*tuner_pass_ctrl)(struct dvb_frontend *fe, int onoff, u8 pll_ctrl);
+-};
++} __no_const;
+ #if defined(CONFIG_DVB_DIB3000MB) || (defined(CONFIG_DVB_DIB3000MB_MODULE) && defined(MODULE))
+ extern struct dvb_frontend* dib3000mb_attach(const struct dib3000_config* config,
+diff --git a/drivers/media/dvb/frontends/or51211.c b/drivers/media/dvb/frontends/or51211.c
+index c709ce6..b3fe620 100644
+--- a/drivers/media/dvb/frontends/or51211.c
++++ b/drivers/media/dvb/frontends/or51211.c
+@@ -113,6 +113,8 @@ static int or51211_load_firmware (struct dvb_frontend* fe,
+       u8 tudata[585];
+       int i;
++      pax_track_stack();
++
+       dprintk("Firmware is %zd bytes\n",fw->size);
+       /* Get eprom data */
+diff --git a/drivers/media/radio/radio-cadet.c b/drivers/media/radio/radio-cadet.c
+index 482d0f3..ee1e202 100644
+--- a/drivers/media/radio/radio-cadet.c
++++ b/drivers/media/radio/radio-cadet.c
+@@ -347,7 +347,7 @@ static ssize_t cadet_read(struct file *file, char __user *data, size_t count, lo
+       while (i < count && dev->rdsin != dev->rdsout)
+               readbuf[i++] = dev->rdsbuf[dev->rdsout++];
+-      if (copy_to_user(data, readbuf, i))
++      if (i > sizeof readbuf || copy_to_user(data, readbuf, i))
+               return -EFAULT;
+       return i;
+ }
+diff --git a/drivers/media/video/cx18/cx18-driver.c b/drivers/media/video/cx18/cx18-driver.c
+index 6dd51e2..0359b92 100644
+--- a/drivers/media/video/cx18/cx18-driver.c
++++ b/drivers/media/video/cx18/cx18-driver.c
+@@ -56,7 +56,7 @@ static struct pci_device_id cx18_pci_tbl[] __devinitdata = {
+ MODULE_DEVICE_TABLE(pci, cx18_pci_tbl);
+-static atomic_t cx18_instance = ATOMIC_INIT(0);
++static atomic_unchecked_t cx18_instance = ATOMIC_INIT(0);
+ /* Parameter declarations */
+ static int cardtype[CX18_MAX_CARDS];
+@@ -288,6 +288,8 @@ void cx18_read_eeprom(struct cx18 *cx, struct tveeprom *tv)
+       struct i2c_client c;
+       u8 eedata[256];
++      pax_track_stack();
++
+       memset(&c, 0, sizeof(c));
+       strlcpy(c.name, "cx18 tveeprom tmp", sizeof(c.name));
+       c.adapter = &cx->i2c_adap[0];
+@@ -800,7 +802,7 @@ static int __devinit cx18_probe(struct pci_dev *pci_dev,
+       struct cx18 *cx;
+       /* FIXME - module parameter arrays constrain max instances */
+-      i = atomic_inc_return(&cx18_instance) - 1;
++      i = atomic_inc_return_unchecked(&cx18_instance) - 1;
+       if (i >= CX18_MAX_CARDS) {
+               printk(KERN_ERR "cx18: cannot manage card %d, driver has a "
+                      "limit of 0 - %d\n", i, CX18_MAX_CARDS - 1);
+diff --git a/drivers/media/video/ivtv/ivtv-driver.c b/drivers/media/video/ivtv/ivtv-driver.c
+index 463ec34..2f4625a 100644
+--- a/drivers/media/video/ivtv/ivtv-driver.c
++++ b/drivers/media/video/ivtv/ivtv-driver.c
+@@ -79,7 +79,7 @@ static struct pci_device_id ivtv_pci_tbl[] __devinitdata = {
+ MODULE_DEVICE_TABLE(pci,ivtv_pci_tbl);
+ /* ivtv instance counter */
+-static atomic_t ivtv_instance = ATOMIC_INIT(0);
++static atomic_unchecked_t ivtv_instance = ATOMIC_INIT(0);
+ /* Parameter declarations */
+ static int cardtype[IVTV_MAX_CARDS];
+diff --git a/drivers/media/video/omap24xxcam.c b/drivers/media/video/omap24xxcam.c
+index 5fc4ac0..652a54a 100644
+--- a/drivers/media/video/omap24xxcam.c
++++ b/drivers/media/video/omap24xxcam.c
+@@ -401,7 +401,7 @@ static void omap24xxcam_vbq_complete(struct omap24xxcam_sgdma *sgdma,
+       spin_unlock_irqrestore(&cam->core_enable_disable_lock, flags);
+       do_gettimeofday(&vb->ts);
+-      vb->field_count = atomic_add_return(2, &fh->field_count);
++      vb->field_count = atomic_add_return_unchecked(2, &fh->field_count);
+       if (csr & csr_error) {
+               vb->state = VIDEOBUF_ERROR;
+               if (!atomic_read(&fh->cam->in_reset)) {
+diff --git a/drivers/media/video/omap24xxcam.h b/drivers/media/video/omap24xxcam.h
+index 2ce67f5..cf26a5b 100644
+--- a/drivers/media/video/omap24xxcam.h
++++ b/drivers/media/video/omap24xxcam.h
+@@ -533,7 +533,7 @@ struct omap24xxcam_fh {
+       spinlock_t vbq_lock; /* spinlock for the videobuf queue */
+       struct videobuf_queue vbq;
+       struct v4l2_pix_format pix; /* serialise pix by vbq->lock */
+-      atomic_t field_count; /* field counter for videobuf_buffer */
++      atomic_unchecked_t field_count; /* field counter for videobuf_buffer */
+       /* accessing cam here doesn't need serialisation: it's constant */
+       struct omap24xxcam_device *cam;
+ };
+diff --git a/drivers/media/video/pvrusb2/pvrusb2-eeprom.c b/drivers/media/video/pvrusb2/pvrusb2-eeprom.c
+index 299afa4..eb47459 100644
+--- a/drivers/media/video/pvrusb2/pvrusb2-eeprom.c
++++ b/drivers/media/video/pvrusb2/pvrusb2-eeprom.c
+@@ -119,6 +119,8 @@ int pvr2_eeprom_analyze(struct pvr2_hdw *hdw)
+       u8 *eeprom;
+       struct tveeprom tvdata;
++      pax_track_stack();
++
+       memset(&tvdata,0,sizeof(tvdata));
+       eeprom = pvr2_eeprom_fetch(hdw);
+diff --git a/drivers/media/video/pvrusb2/pvrusb2-hdw-internal.h b/drivers/media/video/pvrusb2/pvrusb2-hdw-internal.h
+index 5b152ff..3320638 100644
+--- a/drivers/media/video/pvrusb2/pvrusb2-hdw-internal.h
++++ b/drivers/media/video/pvrusb2/pvrusb2-hdw-internal.h
+@@ -195,7 +195,7 @@ struct pvr2_hdw {
+       /* I2C stuff */
+       struct i2c_adapter i2c_adap;
+-      struct i2c_algorithm i2c_algo;
++      i2c_algorithm_no_const i2c_algo;
+       pvr2_i2c_func i2c_func[PVR2_I2C_FUNC_CNT];
+       int i2c_cx25840_hack_state;
+       int i2c_linked;
+diff --git a/drivers/media/video/saa7134/saa6752hs.c b/drivers/media/video/saa7134/saa6752hs.c
+index 1eabff6..8e2313a 100644
+--- a/drivers/media/video/saa7134/saa6752hs.c
++++ b/drivers/media/video/saa7134/saa6752hs.c
+@@ -683,6 +683,8 @@ static int saa6752hs_init(struct v4l2_subdev *sd, u32 leading_null_bytes)
+       unsigned char localPAT[256];
+       unsigned char localPMT[256];
++      pax_track_stack();
++
+       /* Set video format - must be done first as it resets other settings */
+       set_reg8(client, 0x41, h->video_format);
+diff --git a/drivers/media/video/saa7164/saa7164-cmd.c b/drivers/media/video/saa7164/saa7164-cmd.c
+index 9c1d3ac..b1b49e9 100644
+--- a/drivers/media/video/saa7164/saa7164-cmd.c
++++ b/drivers/media/video/saa7164/saa7164-cmd.c
+@@ -87,6 +87,8 @@ int saa7164_irq_dequeue(struct saa7164_dev *dev)
+       wait_queue_head_t *q = 0;
+       dprintk(DBGLVL_CMD, "%s()\n", __func__);
++      pax_track_stack();
++
+       /* While any outstand message on the bus exists... */
+       do {
+@@ -126,6 +128,8 @@ int saa7164_cmd_dequeue(struct saa7164_dev *dev)
+       u8 tmp[512];
+       dprintk(DBGLVL_CMD, "%s()\n", __func__);
++      pax_track_stack();
++
+       while (loop) {
+               tmComResInfo_t tRsp = { 0, 0, 0, 0, 0, 0 };
+diff --git a/drivers/media/video/usbvideo/ibmcam.c b/drivers/media/video/usbvideo/ibmcam.c
+index b085496..cde0270 100644
+--- a/drivers/media/video/usbvideo/ibmcam.c
++++ b/drivers/media/video/usbvideo/ibmcam.c
+@@ -3947,15 +3947,15 @@ static struct usb_device_id id_table[] = {
+ static int __init ibmcam_init(void)
+ {
+       struct usbvideo_cb cbTbl;
+-      memset(&cbTbl, 0, sizeof(cbTbl));
+-      cbTbl.probe = ibmcam_probe;
+-      cbTbl.setupOnOpen = ibmcam_setup_on_open;
+-      cbTbl.videoStart = ibmcam_video_start;
+-      cbTbl.videoStop = ibmcam_video_stop;
+-      cbTbl.processData = ibmcam_ProcessIsocData;
+-      cbTbl.postProcess = usbvideo_DeinterlaceFrame;
+-      cbTbl.adjustPicture = ibmcam_adjust_picture;
+-      cbTbl.getFPS = ibmcam_calculate_fps;
++      memset((void *)&cbTbl, 0, sizeof(cbTbl));
++      *(void **)&cbTbl.probe = ibmcam_probe;
++      *(void **)&cbTbl.setupOnOpen = ibmcam_setup_on_open;
++      *(void **)&cbTbl.videoStart = ibmcam_video_start;
++      *(void **)&cbTbl.videoStop = ibmcam_video_stop;
++      *(void **)&cbTbl.processData = ibmcam_ProcessIsocData;
++      *(void **)&cbTbl.postProcess = usbvideo_DeinterlaceFrame;
++      *(void **)&cbTbl.adjustPicture = ibmcam_adjust_picture;
++      *(void **)&cbTbl.getFPS = ibmcam_calculate_fps;
+       return usbvideo_register(
+               &cams,
+               MAX_IBMCAM,
+diff --git a/drivers/media/video/usbvideo/konicawc.c b/drivers/media/video/usbvideo/konicawc.c
+index 31d57f2..600b735 100644
+--- a/drivers/media/video/usbvideo/konicawc.c
++++ b/drivers/media/video/usbvideo/konicawc.c
+@@ -225,7 +225,7 @@ static void konicawc_register_input(struct konicawc *cam, struct usb_device *dev
+       int error;
+       usb_make_path(dev, cam->input_physname, sizeof(cam->input_physname));
+-      strncat(cam->input_physname, "/input0", sizeof(cam->input_physname));
++      strlcat(cam->input_physname, "/input0", sizeof(cam->input_physname));
+       cam->input = input_dev = input_allocate_device();
+       if (!input_dev) {
+@@ -935,16 +935,16 @@ static int __init konicawc_init(void)
+       struct usbvideo_cb cbTbl;
+       printk(KERN_INFO KBUILD_MODNAME ": " DRIVER_VERSION ":"
+              DRIVER_DESC "\n");
+-      memset(&cbTbl, 0, sizeof(cbTbl));
+-      cbTbl.probe = konicawc_probe;
+-      cbTbl.setupOnOpen = konicawc_setup_on_open;
+-      cbTbl.processData = konicawc_process_isoc;
+-      cbTbl.getFPS = konicawc_calculate_fps;
+-      cbTbl.setVideoMode = konicawc_set_video_mode;
+-      cbTbl.startDataPump = konicawc_start_data;
+-      cbTbl.stopDataPump = konicawc_stop_data;
+-      cbTbl.adjustPicture = konicawc_adjust_picture;
+-      cbTbl.userFree = konicawc_free_uvd;
++      memset((void * )&cbTbl, 0, sizeof(cbTbl));
++      *(void **)&cbTbl.probe = konicawc_probe;
++      *(void **)&cbTbl.setupOnOpen = konicawc_setup_on_open;
++      *(void **)&cbTbl.processData = konicawc_process_isoc;
++      *(void **)&cbTbl.getFPS = konicawc_calculate_fps;
++      *(void **)&cbTbl.setVideoMode = konicawc_set_video_mode;
++      *(void **)&cbTbl.startDataPump = konicawc_start_data;
++      *(void **)&cbTbl.stopDataPump = konicawc_stop_data;
++      *(void **)&cbTbl.adjustPicture = konicawc_adjust_picture;
++      *(void **)&cbTbl.userFree = konicawc_free_uvd;
+       return usbvideo_register(
+               &cams,
+               MAX_CAMERAS,
+diff --git a/drivers/media/video/usbvideo/quickcam_messenger.c b/drivers/media/video/usbvideo/quickcam_messenger.c
+index 803d3e4..c4d1b96 100644
+--- a/drivers/media/video/usbvideo/quickcam_messenger.c
++++ b/drivers/media/video/usbvideo/quickcam_messenger.c
+@@ -89,7 +89,7 @@ static void qcm_register_input(struct qcm *cam, struct usb_device *dev)
+       int error;
+       usb_make_path(dev, cam->input_physname, sizeof(cam->input_physname));
+-      strncat(cam->input_physname, "/input0", sizeof(cam->input_physname));
++      strlcat(cam->input_physname, "/input0", sizeof(cam->input_physname));
+       cam->input = input_dev = input_allocate_device();
+       if (!input_dev) {
+diff --git a/drivers/media/video/usbvideo/ultracam.c b/drivers/media/video/usbvideo/ultracam.c
+index fbd1b63..292f9f0 100644
+--- a/drivers/media/video/usbvideo/ultracam.c
++++ b/drivers/media/video/usbvideo/ultracam.c
+@@ -655,14 +655,14 @@ static int __init ultracam_init(void)
+ {
+       struct usbvideo_cb cbTbl;
+       memset(&cbTbl, 0, sizeof(cbTbl));
+-      cbTbl.probe = ultracam_probe;
+-      cbTbl.setupOnOpen = ultracam_setup_on_open;
+-      cbTbl.videoStart = ultracam_video_start;
+-      cbTbl.videoStop = ultracam_video_stop;
+-      cbTbl.processData = ultracam_ProcessIsocData;
+-      cbTbl.postProcess = usbvideo_DeinterlaceFrame;
+-      cbTbl.adjustPicture = ultracam_adjust_picture;
+-      cbTbl.getFPS = ultracam_calculate_fps;
++      *(void **)&cbTbl.probe = ultracam_probe;
++      *(void **)&cbTbl.setupOnOpen = ultracam_setup_on_open;
++      *(void **)&cbTbl.videoStart = ultracam_video_start;
++      *(void **)&cbTbl.videoStop = ultracam_video_stop;
++      *(void **)&cbTbl.processData = ultracam_ProcessIsocData;
++      *(void **)&cbTbl.postProcess = usbvideo_DeinterlaceFrame;
++      *(void **)&cbTbl.adjustPicture = ultracam_adjust_picture;
++      *(void **)&cbTbl.getFPS = ultracam_calculate_fps;
+       return usbvideo_register(
+               &cams,
+               MAX_CAMERAS,
+diff --git a/drivers/media/video/usbvideo/usbvideo.c b/drivers/media/video/usbvideo/usbvideo.c
+index dea8b32..34f6878 100644
+--- a/drivers/media/video/usbvideo/usbvideo.c
++++ b/drivers/media/video/usbvideo/usbvideo.c
+@@ -697,15 +697,15 @@ int usbvideo_register(
+           __func__, cams, base_size, num_cams);
+       /* Copy callbacks, apply defaults for those that are not set */
+-      memmove(&cams->cb, cbTbl, sizeof(cams->cb));
++      memmove((void *)&cams->cb, cbTbl, sizeof(cams->cb));
+       if (cams->cb.getFrame == NULL)
+-              cams->cb.getFrame = usbvideo_GetFrame;
++              *(void **)&cams->cb.getFrame = usbvideo_GetFrame;
+       if (cams->cb.disconnect == NULL)
+-              cams->cb.disconnect = usbvideo_Disconnect;
++              *(void **)&cams->cb.disconnect = usbvideo_Disconnect;
+       if (cams->cb.startDataPump == NULL)
+-              cams->cb.startDataPump = usbvideo_StartDataPump;
++              *(void **)&cams->cb.startDataPump = usbvideo_StartDataPump;
+       if (cams->cb.stopDataPump == NULL)
+-              cams->cb.stopDataPump = usbvideo_StopDataPump;
++              *(void **)&cams->cb.stopDataPump = usbvideo_StopDataPump;
+       cams->num_cameras = num_cams;
+       cams->cam = (struct uvd *) &cams[1];
+diff --git a/drivers/media/video/usbvideo/usbvideo.h b/drivers/media/video/usbvideo/usbvideo.h
+index c66985b..7fa143a 100644
+--- a/drivers/media/video/usbvideo/usbvideo.h
++++ b/drivers/media/video/usbvideo/usbvideo.h
+@@ -268,7 +268,7 @@ struct usbvideo_cb {
+       int (*startDataPump)(struct uvd *uvd);
+       void (*stopDataPump)(struct uvd *uvd);
+       int (*setVideoMode)(struct uvd *uvd, struct video_window *vw);
+-};
++} __no_const;
+ struct usbvideo {
+       int num_cameras;                /* As allocated */
+diff --git a/drivers/media/video/usbvision/usbvision-core.c b/drivers/media/video/usbvision/usbvision-core.c
+index e0f91e4..37554ea 100644
+--- a/drivers/media/video/usbvision/usbvision-core.c
++++ b/drivers/media/video/usbvision/usbvision-core.c
+@@ -820,6 +820,8 @@ static enum ParseState usbvision_parse_compress(struct usb_usbvision *usbvision,
+       unsigned char rv, gv, bv;
+       static unsigned char *Y, *U, *V;
++      pax_track_stack();
++
+       frame  = usbvision->curFrame;
+       imageSize = frame->frmwidth * frame->frmheight;
+       if ( (frame->v4l2_format.format == V4L2_PIX_FMT_YUV422P) ||
+diff --git a/drivers/media/video/v4l2-device.c b/drivers/media/video/v4l2-device.c
+index 0d06e7c..3d17d24 100644
+--- a/drivers/media/video/v4l2-device.c
++++ b/drivers/media/video/v4l2-device.c
+@@ -50,9 +50,9 @@ int v4l2_device_register(struct device *dev, struct v4l2_device *v4l2_dev)
+ EXPORT_SYMBOL_GPL(v4l2_device_register);
+ int v4l2_device_set_name(struct v4l2_device *v4l2_dev, const char *basename,
+-                                              atomic_t *instance)
++                                              atomic_unchecked_t *instance)
+ {
+-      int num = atomic_inc_return(instance) - 1;
++      int num = atomic_inc_return_unchecked(instance) - 1;
+       int len = strlen(basename);
+       if (basename[len - 1] >= '0' && basename[len - 1] <= '9')
+diff --git a/drivers/media/video/videobuf-dma-sg.c b/drivers/media/video/videobuf-dma-sg.c
+index 032ebae..6a3532c 100644
+--- a/drivers/media/video/videobuf-dma-sg.c
++++ b/drivers/media/video/videobuf-dma-sg.c
+@@ -693,6 +693,8 @@ void *videobuf_sg_alloc(size_t size)
+ {
+       struct videobuf_queue q;
++      pax_track_stack();
++
+       /* Required to make generic handler to call __videobuf_alloc */
+       q.int_ops = &sg_ops;
+diff --git a/drivers/message/fusion/mptbase.c b/drivers/message/fusion/mptbase.c
+index b6992b7..9fa7547 100644
+--- a/drivers/message/fusion/mptbase.c
++++ b/drivers/message/fusion/mptbase.c
+@@ -6709,8 +6709,14 @@ procmpt_iocinfo_read(char *buf, char **start, off_t offset, int request, int *eo
+       len += sprintf(buf+len, "  MaxChainDepth = 0x%02x frames\n", ioc->facts.MaxChainDepth);
+       len += sprintf(buf+len, "  MinBlockSize = 0x%02x bytes\n", 4*ioc->facts.BlockSize);
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      len += sprintf(buf+len, "  RequestFrames @ 0x%p (Dma @ 0x%p)\n",
++                                      NULL, NULL);
++#else
+       len += sprintf(buf+len, "  RequestFrames @ 0x%p (Dma @ 0x%p)\n",
+                                       (void *)ioc->req_frames, (void *)(ulong)ioc->req_frames_dma);
++#endif
++
+       /*
+        *  Rounding UP to nearest 4-kB boundary here...
+        */
+diff --git a/drivers/message/fusion/mptsas.c b/drivers/message/fusion/mptsas.c
+index 83873e3..e360e9a 100644
+--- a/drivers/message/fusion/mptsas.c
++++ b/drivers/message/fusion/mptsas.c
+@@ -436,6 +436,23 @@ mptsas_is_end_device(struct mptsas_devinfo * attached)
+               return 0;
+ }
++static inline void
++mptsas_set_rphy(MPT_ADAPTER *ioc, struct mptsas_phyinfo *phy_info, struct sas_rphy *rphy)
++{
++      if (phy_info->port_details) {
++              phy_info->port_details->rphy = rphy;
++              dsaswideprintk(ioc, printk(MYIOC_s_DEBUG_FMT "sas_rphy_add: rphy=%p\n",
++                  ioc->name, rphy));
++      }
++
++      if (rphy) {
++              dsaswideprintk(ioc, dev_printk(KERN_DEBUG,
++                  &rphy->dev, MYIOC_s_FMT "add:", ioc->name));
++              dsaswideprintk(ioc, printk(MYIOC_s_DEBUG_FMT "rphy=%p release=%p\n",
++                  ioc->name, rphy, rphy->dev.release));
++      }
++}
++
+ /* no mutex */
+ static void
+ mptsas_port_delete(MPT_ADAPTER *ioc, struct mptsas_portinfo_details * port_details)
+@@ -474,23 +491,6 @@ mptsas_get_rphy(struct mptsas_phyinfo *phy_info)
+               return NULL;
+ }
+-static inline void
+-mptsas_set_rphy(MPT_ADAPTER *ioc, struct mptsas_phyinfo *phy_info, struct sas_rphy *rphy)
+-{
+-      if (phy_info->port_details) {
+-              phy_info->port_details->rphy = rphy;
+-              dsaswideprintk(ioc, printk(MYIOC_s_DEBUG_FMT "sas_rphy_add: rphy=%p\n",
+-                  ioc->name, rphy));
+-      }
+-
+-      if (rphy) {
+-              dsaswideprintk(ioc, dev_printk(KERN_DEBUG,
+-                  &rphy->dev, MYIOC_s_FMT "add:", ioc->name));
+-              dsaswideprintk(ioc, printk(MYIOC_s_DEBUG_FMT "rphy=%p release=%p\n",
+-                  ioc->name, rphy, rphy->dev.release));
+-      }
+-}
+-
+ static inline struct sas_port *
+ mptsas_get_port(struct mptsas_phyinfo *phy_info)
+ {
+diff --git a/drivers/message/fusion/mptscsih.c b/drivers/message/fusion/mptscsih.c
+index bd096ca..332cf76 100644
+--- a/drivers/message/fusion/mptscsih.c
++++ b/drivers/message/fusion/mptscsih.c
+@@ -1248,15 +1248,16 @@ mptscsih_info(struct Scsi_Host *SChost)
+       h = shost_priv(SChost);
+-      if (h) {
+-              if (h->info_kbuf == NULL)
+-                      if ((h->info_kbuf = kmalloc(0x1000 /* 4Kb */, GFP_KERNEL)) == NULL)
+-                              return h->info_kbuf;
+-              h->info_kbuf[0] = '\0';
++      if (!h)
++              return NULL;
+-              mpt_print_ioc_summary(h->ioc, h->info_kbuf, &size, 0, 0);
+-              h->info_kbuf[size-1] = '\0';
+-      }
++      if (h->info_kbuf == NULL)
++              if ((h->info_kbuf = kmalloc(0x1000 /* 4Kb */, GFP_KERNEL)) == NULL)
++                      return h->info_kbuf;
++      h->info_kbuf[0] = '\0';
++
++      mpt_print_ioc_summary(h->ioc, h->info_kbuf, &size, 0, 0);
++      h->info_kbuf[size-1] = '\0';
+       return h->info_kbuf;
+ }
+diff --git a/drivers/message/i2o/i2o_config.c b/drivers/message/i2o/i2o_config.c
+index efba702..59b2c0f 100644
+--- a/drivers/message/i2o/i2o_config.c
++++ b/drivers/message/i2o/i2o_config.c
+@@ -787,6 +787,8 @@ static int i2o_cfg_passthru(unsigned long arg)
+       struct i2o_message *msg;
+       unsigned int iop;
++      pax_track_stack();
++
+       if (get_user(iop, &cmd->iop) || get_user(user_msg, &cmd->msg))
+               return -EFAULT;
+diff --git a/drivers/message/i2o/i2o_proc.c b/drivers/message/i2o/i2o_proc.c
+index 7045c45..c07b170 100644
+--- a/drivers/message/i2o/i2o_proc.c
++++ b/drivers/message/i2o/i2o_proc.c
+@@ -259,13 +259,6 @@ static char *scsi_devices[] = {
+       "Array Controller Device"
+ };
+-static char *chtostr(u8 * chars, int n)
+-{
+-      char tmp[256];
+-      tmp[0] = 0;
+-      return strncat(tmp, (char *)chars, n);
+-}
+-
+ static int i2o_report_query_status(struct seq_file *seq, int block_status,
+                                  char *group)
+ {
+@@ -842,8 +835,7 @@ static int i2o_seq_show_ddm_table(struct seq_file *seq, void *v)
+               seq_printf(seq, "%-#7x", ddm_table.i2o_vendor_id);
+               seq_printf(seq, "%-#8x", ddm_table.module_id);
+-              seq_printf(seq, "%-29s",
+-                         chtostr(ddm_table.module_name_version, 28));
++              seq_printf(seq, "%-.28s", ddm_table.module_name_version);
+               seq_printf(seq, "%9d  ", ddm_table.data_size);
+               seq_printf(seq, "%8d", ddm_table.code_size);
+@@ -944,8 +936,8 @@ static int i2o_seq_show_drivers_stored(struct seq_file *seq, void *v)
+               seq_printf(seq, "%-#7x", dst->i2o_vendor_id);
+               seq_printf(seq, "%-#8x", dst->module_id);
+-              seq_printf(seq, "%-29s", chtostr(dst->module_name_version, 28));
+-              seq_printf(seq, "%-9s", chtostr(dst->date, 8));
++              seq_printf(seq, "%-.28s", dst->module_name_version);
++              seq_printf(seq, "%-.8s", dst->date);
+               seq_printf(seq, "%8d ", dst->module_size);
+               seq_printf(seq, "%8d ", dst->mpb_size);
+               seq_printf(seq, "0x%04x", dst->module_flags);
+@@ -1276,14 +1268,10 @@ static int i2o_seq_show_dev_identity(struct seq_file *seq, void *v)
+       seq_printf(seq, "Device Class  : %s\n", i2o_get_class_name(work16[0]));
+       seq_printf(seq, "Owner TID     : %0#5x\n", work16[2]);
+       seq_printf(seq, "Parent TID    : %0#5x\n", work16[3]);
+-      seq_printf(seq, "Vendor info   : %s\n",
+-                 chtostr((u8 *) (work32 + 2), 16));
+-      seq_printf(seq, "Product info  : %s\n",
+-                 chtostr((u8 *) (work32 + 6), 16));
+-      seq_printf(seq, "Description   : %s\n",
+-                 chtostr((u8 *) (work32 + 10), 16));
+-      seq_printf(seq, "Product rev.  : %s\n",
+-                 chtostr((u8 *) (work32 + 14), 8));
++      seq_printf(seq, "Vendor info   : %.16s\n", (u8 *) (work32 + 2));
++      seq_printf(seq, "Product info  : %.16s\n", (u8 *) (work32 + 6));
++      seq_printf(seq, "Description   : %.16s\n", (u8 *) (work32 + 10));
++      seq_printf(seq, "Product rev.  : %.8s\n", (u8 *) (work32 + 14));
+       seq_printf(seq, "Serial number : ");
+       print_serial_number(seq, (u8 *) (work32 + 16),
+@@ -1328,10 +1316,8 @@ static int i2o_seq_show_ddm_identity(struct seq_file *seq, void *v)
+       }
+       seq_printf(seq, "Registering DDM TID : 0x%03x\n", result.ddm_tid);
+-      seq_printf(seq, "Module name         : %s\n",
+-                 chtostr(result.module_name, 24));
+-      seq_printf(seq, "Module revision     : %s\n",
+-                 chtostr(result.module_rev, 8));
++      seq_printf(seq, "Module name         : %.24s\n", result.module_name);
++      seq_printf(seq, "Module revision     : %.8s\n", result.module_rev);
+       seq_printf(seq, "Serial number       : ");
+       print_serial_number(seq, result.serial_number, sizeof(result) - 36);
+@@ -1362,14 +1348,10 @@ static int i2o_seq_show_uinfo(struct seq_file *seq, void *v)
+               return 0;
+       }
+-      seq_printf(seq, "Device name     : %s\n",
+-                 chtostr(result.device_name, 64));
+-      seq_printf(seq, "Service name    : %s\n",
+-                 chtostr(result.service_name, 64));
+-      seq_printf(seq, "Physical name   : %s\n",
+-                 chtostr(result.physical_location, 64));
+-      seq_printf(seq, "Instance number : %s\n",
+-                 chtostr(result.instance_number, 4));
++      seq_printf(seq, "Device name     : %.64s\n", result.device_name);
++      seq_printf(seq, "Service name    : %.64s\n", result.service_name);
++      seq_printf(seq, "Physical name   : %.64s\n", result.physical_location);
++      seq_printf(seq, "Instance number : %.4s\n", result.instance_number);
+       return 0;
+ }
+diff --git a/drivers/message/i2o/iop.c b/drivers/message/i2o/iop.c
+index 27cf4af..b1205b8 100644
+--- a/drivers/message/i2o/iop.c
++++ b/drivers/message/i2o/iop.c
+@@ -110,10 +110,10 @@ u32 i2o_cntxt_list_add(struct i2o_controller * c, void *ptr)
+       spin_lock_irqsave(&c->context_list_lock, flags);
+-      if (unlikely(atomic_inc_and_test(&c->context_list_counter)))
+-              atomic_inc(&c->context_list_counter);
++      if (unlikely(atomic_inc_and_test_unchecked(&c->context_list_counter)))
++              atomic_inc_unchecked(&c->context_list_counter);
+-      entry->context = atomic_read(&c->context_list_counter);
++      entry->context = atomic_read_unchecked(&c->context_list_counter);
+       list_add(&entry->list, &c->context_list);
+@@ -1076,7 +1076,7 @@ struct i2o_controller *i2o_iop_alloc(void)
+ #if BITS_PER_LONG == 64
+       spin_lock_init(&c->context_list_lock);
+-      atomic_set(&c->context_list_counter, 0);
++      atomic_set_unchecked(&c->context_list_counter, 0);
+       INIT_LIST_HEAD(&c->context_list);
+ #endif
+diff --git a/drivers/mfd/ab3100-core.c b/drivers/mfd/ab3100-core.c
+index 78e3e85..66c9a0d 100644
+--- a/drivers/mfd/ab3100-core.c
++++ b/drivers/mfd/ab3100-core.c
+@@ -777,7 +777,7 @@ struct ab_family_id {
+       char    *name;
+ };
+-static const struct ab_family_id ids[] __initdata = {
++static const struct ab_family_id ids[] __initconst = {
+       /* AB3100 */
+       {
+               .id = 0xc0,
+diff --git a/drivers/mfd/wm8350-i2c.c b/drivers/mfd/wm8350-i2c.c
+index 8d8c932..8104515 100644
+--- a/drivers/mfd/wm8350-i2c.c
++++ b/drivers/mfd/wm8350-i2c.c
+@@ -43,6 +43,8 @@ static int wm8350_i2c_write_device(struct wm8350 *wm8350, char reg,
+       u8 msg[(WM8350_MAX_REGISTER << 1) + 1];
+       int ret;
++      pax_track_stack();
++
+       if (bytes > ((WM8350_MAX_REGISTER << 1) + 1))
+               return -EINVAL;
+diff --git a/drivers/misc/kgdbts.c b/drivers/misc/kgdbts.c
+index e4ff50b..4cc3f04 100644
+--- a/drivers/misc/kgdbts.c
++++ b/drivers/misc/kgdbts.c
+@@ -118,7 +118,7 @@
+       } while (0)
+ #define MAX_CONFIG_LEN                40
+-static struct kgdb_io kgdbts_io_ops;
++static const struct kgdb_io kgdbts_io_ops;
+ static char get_buf[BUFMAX];
+ static int get_buf_cnt;
+ static char put_buf[BUFMAX];
+@@ -1102,7 +1102,7 @@ static void kgdbts_post_exp_handler(void)
+               module_put(THIS_MODULE);
+ }
+-static struct kgdb_io kgdbts_io_ops = {
++static const struct kgdb_io kgdbts_io_ops = {
+       .name                   = "kgdbts",
+       .read_char              = kgdbts_get_char,
+       .write_char             = kgdbts_put_char,
+diff --git a/drivers/misc/sgi-gru/gruhandles.c b/drivers/misc/sgi-gru/gruhandles.c
+index 37e7cfc..67cfb76 100644
+--- a/drivers/misc/sgi-gru/gruhandles.c
++++ b/drivers/misc/sgi-gru/gruhandles.c
+@@ -39,8 +39,8 @@ struct mcs_op_statistic mcs_op_statistics[mcsop_last];
+ static void update_mcs_stats(enum mcs_op op, unsigned long clks)
+ {
+-      atomic_long_inc(&mcs_op_statistics[op].count);
+-      atomic_long_add(clks, &mcs_op_statistics[op].total);
++      atomic_long_inc_unchecked(&mcs_op_statistics[op].count);
++      atomic_long_add_unchecked(clks, &mcs_op_statistics[op].total);
+       if (mcs_op_statistics[op].max < clks)
+               mcs_op_statistics[op].max = clks;
+ }
+diff --git a/drivers/misc/sgi-gru/gruprocfs.c b/drivers/misc/sgi-gru/gruprocfs.c
+index 3f2375c..467c6e6 100644
+--- a/drivers/misc/sgi-gru/gruprocfs.c
++++ b/drivers/misc/sgi-gru/gruprocfs.c
+@@ -32,9 +32,9 @@
+ #define printstat(s, f)               printstat_val(s, &gru_stats.f, #f)
+-static void printstat_val(struct seq_file *s, atomic_long_t *v, char *id)
++static void printstat_val(struct seq_file *s, atomic_long_unchecked_t *v, char *id)
+ {
+-      unsigned long val = atomic_long_read(v);
++      unsigned long val = atomic_long_read_unchecked(v);
+       if (val)
+               seq_printf(s, "%16lu %s\n", val, id);
+@@ -136,8 +136,8 @@ static int mcs_statistics_show(struct seq_file *s, void *p)
+               "cch_interrupt_sync", "cch_deallocate", "tgh_invalidate"};
+       for (op = 0; op < mcsop_last; op++) {
+-              count = atomic_long_read(&mcs_op_statistics[op].count);
+-              total = atomic_long_read(&mcs_op_statistics[op].total);
++              count = atomic_long_read_unchecked(&mcs_op_statistics[op].count);
++              total = atomic_long_read_unchecked(&mcs_op_statistics[op].total);
+               max = mcs_op_statistics[op].max;
+               seq_printf(s, "%-20s%12ld%12ld%12ld\n", id[op], count,
+                          count ? total / count : 0, max);
+diff --git a/drivers/misc/sgi-gru/grutables.h b/drivers/misc/sgi-gru/grutables.h
+index 46990bc..4a251b5 100644
+--- a/drivers/misc/sgi-gru/grutables.h
++++ b/drivers/misc/sgi-gru/grutables.h
+@@ -167,84 +167,84 @@ extern unsigned int gru_max_gids;
+  * GRU statistics.
+  */
+ struct gru_stats_s {
+-      atomic_long_t vdata_alloc;
+-      atomic_long_t vdata_free;
+-      atomic_long_t gts_alloc;
+-      atomic_long_t gts_free;
+-      atomic_long_t vdata_double_alloc;
+-      atomic_long_t gts_double_allocate;
+-      atomic_long_t assign_context;
+-      atomic_long_t assign_context_failed;
+-      atomic_long_t free_context;
+-      atomic_long_t load_user_context;
+-      atomic_long_t load_kernel_context;
+-      atomic_long_t lock_kernel_context;
+-      atomic_long_t unlock_kernel_context;
+-      atomic_long_t steal_user_context;
+-      atomic_long_t steal_kernel_context;
+-      atomic_long_t steal_context_failed;
+-      atomic_long_t nopfn;
+-      atomic_long_t break_cow;
+-      atomic_long_t asid_new;
+-      atomic_long_t asid_next;
+-      atomic_long_t asid_wrap;
+-      atomic_long_t asid_reuse;
+-      atomic_long_t intr;
+-      atomic_long_t intr_mm_lock_failed;
+-      atomic_long_t call_os;
+-      atomic_long_t call_os_offnode_reference;
+-      atomic_long_t call_os_check_for_bug;
+-      atomic_long_t call_os_wait_queue;
+-      atomic_long_t user_flush_tlb;
+-      atomic_long_t user_unload_context;
+-      atomic_long_t user_exception;
+-      atomic_long_t set_context_option;
+-      atomic_long_t migrate_check;
+-      atomic_long_t migrated_retarget;
+-      atomic_long_t migrated_unload;
+-      atomic_long_t migrated_unload_delay;
+-      atomic_long_t migrated_nopfn_retarget;
+-      atomic_long_t migrated_nopfn_unload;
+-      atomic_long_t tlb_dropin;
+-      atomic_long_t tlb_dropin_fail_no_asid;
+-      atomic_long_t tlb_dropin_fail_upm;
+-      atomic_long_t tlb_dropin_fail_invalid;
+-      atomic_long_t tlb_dropin_fail_range_active;
+-      atomic_long_t tlb_dropin_fail_idle;
+-      atomic_long_t tlb_dropin_fail_fmm;
+-      atomic_long_t tlb_dropin_fail_no_exception;
+-      atomic_long_t tlb_dropin_fail_no_exception_war;
+-      atomic_long_t tfh_stale_on_fault;
+-      atomic_long_t mmu_invalidate_range;
+-      atomic_long_t mmu_invalidate_page;
+-      atomic_long_t mmu_clear_flush_young;
+-      atomic_long_t flush_tlb;
+-      atomic_long_t flush_tlb_gru;
+-      atomic_long_t flush_tlb_gru_tgh;
+-      atomic_long_t flush_tlb_gru_zero_asid;
++      atomic_long_unchecked_t vdata_alloc;
++      atomic_long_unchecked_t vdata_free;
++      atomic_long_unchecked_t gts_alloc;
++      atomic_long_unchecked_t gts_free;
++      atomic_long_unchecked_t vdata_double_alloc;
++      atomic_long_unchecked_t gts_double_allocate;
++      atomic_long_unchecked_t assign_context;
++      atomic_long_unchecked_t assign_context_failed;
++      atomic_long_unchecked_t free_context;
++      atomic_long_unchecked_t load_user_context;
++      atomic_long_unchecked_t load_kernel_context;
++      atomic_long_unchecked_t lock_kernel_context;
++      atomic_long_unchecked_t unlock_kernel_context;
++      atomic_long_unchecked_t steal_user_context;
++      atomic_long_unchecked_t steal_kernel_context;
++      atomic_long_unchecked_t steal_context_failed;
++      atomic_long_unchecked_t nopfn;
++      atomic_long_unchecked_t break_cow;
++      atomic_long_unchecked_t asid_new;
++      atomic_long_unchecked_t asid_next;
++      atomic_long_unchecked_t asid_wrap;
++      atomic_long_unchecked_t asid_reuse;
++      atomic_long_unchecked_t intr;
++      atomic_long_unchecked_t intr_mm_lock_failed;
++      atomic_long_unchecked_t call_os;
++      atomic_long_unchecked_t call_os_offnode_reference;
++      atomic_long_unchecked_t call_os_check_for_bug;
++      atomic_long_unchecked_t call_os_wait_queue;
++      atomic_long_unchecked_t user_flush_tlb;
++      atomic_long_unchecked_t user_unload_context;
++      atomic_long_unchecked_t user_exception;
++      atomic_long_unchecked_t set_context_option;
++      atomic_long_unchecked_t migrate_check;
++      atomic_long_unchecked_t migrated_retarget;
++      atomic_long_unchecked_t migrated_unload;
++      atomic_long_unchecked_t migrated_unload_delay;
++      atomic_long_unchecked_t migrated_nopfn_retarget;
++      atomic_long_unchecked_t migrated_nopfn_unload;
++      atomic_long_unchecked_t tlb_dropin;
++      atomic_long_unchecked_t tlb_dropin_fail_no_asid;
++      atomic_long_unchecked_t tlb_dropin_fail_upm;
++      atomic_long_unchecked_t tlb_dropin_fail_invalid;
++      atomic_long_unchecked_t tlb_dropin_fail_range_active;
++      atomic_long_unchecked_t tlb_dropin_fail_idle;
++      atomic_long_unchecked_t tlb_dropin_fail_fmm;
++      atomic_long_unchecked_t tlb_dropin_fail_no_exception;
++      atomic_long_unchecked_t tlb_dropin_fail_no_exception_war;
++      atomic_long_unchecked_t tfh_stale_on_fault;
++      atomic_long_unchecked_t mmu_invalidate_range;
++      atomic_long_unchecked_t mmu_invalidate_page;
++      atomic_long_unchecked_t mmu_clear_flush_young;
++      atomic_long_unchecked_t flush_tlb;
++      atomic_long_unchecked_t flush_tlb_gru;
++      atomic_long_unchecked_t flush_tlb_gru_tgh;
++      atomic_long_unchecked_t flush_tlb_gru_zero_asid;
+-      atomic_long_t copy_gpa;
++      atomic_long_unchecked_t copy_gpa;
+-      atomic_long_t mesq_receive;
+-      atomic_long_t mesq_receive_none;
+-      atomic_long_t mesq_send;
+-      atomic_long_t mesq_send_failed;
+-      atomic_long_t mesq_noop;
+-      atomic_long_t mesq_send_unexpected_error;
+-      atomic_long_t mesq_send_lb_overflow;
+-      atomic_long_t mesq_send_qlimit_reached;
+-      atomic_long_t mesq_send_amo_nacked;
+-      atomic_long_t mesq_send_put_nacked;
+-      atomic_long_t mesq_qf_not_full;
+-      atomic_long_t mesq_qf_locked;
+-      atomic_long_t mesq_qf_noop_not_full;
+-      atomic_long_t mesq_qf_switch_head_failed;
+-      atomic_long_t mesq_qf_unexpected_error;
+-      atomic_long_t mesq_noop_unexpected_error;
+-      atomic_long_t mesq_noop_lb_overflow;
+-      atomic_long_t mesq_noop_qlimit_reached;
+-      atomic_long_t mesq_noop_amo_nacked;
+-      atomic_long_t mesq_noop_put_nacked;
++      atomic_long_unchecked_t mesq_receive;
++      atomic_long_unchecked_t mesq_receive_none;
++      atomic_long_unchecked_t mesq_send;
++      atomic_long_unchecked_t mesq_send_failed;
++      atomic_long_unchecked_t mesq_noop;
++      atomic_long_unchecked_t mesq_send_unexpected_error;
++      atomic_long_unchecked_t mesq_send_lb_overflow;
++      atomic_long_unchecked_t mesq_send_qlimit_reached;
++      atomic_long_unchecked_t mesq_send_amo_nacked;
++      atomic_long_unchecked_t mesq_send_put_nacked;
++      atomic_long_unchecked_t mesq_qf_not_full;
++      atomic_long_unchecked_t mesq_qf_locked;
++      atomic_long_unchecked_t mesq_qf_noop_not_full;
++      atomic_long_unchecked_t mesq_qf_switch_head_failed;
++      atomic_long_unchecked_t mesq_qf_unexpected_error;
++      atomic_long_unchecked_t mesq_noop_unexpected_error;
++      atomic_long_unchecked_t mesq_noop_lb_overflow;
++      atomic_long_unchecked_t mesq_noop_qlimit_reached;
++      atomic_long_unchecked_t mesq_noop_amo_nacked;
++      atomic_long_unchecked_t mesq_noop_put_nacked;
+ };
+@@ -252,8 +252,8 @@ enum mcs_op {cchop_allocate, cchop_start, cchop_interrupt, cchop_interrupt_sync,
+       cchop_deallocate, tghop_invalidate, mcsop_last};
+ struct mcs_op_statistic {
+-      atomic_long_t   count;
+-      atomic_long_t   total;
++      atomic_long_unchecked_t count;
++      atomic_long_unchecked_t total;
+       unsigned long   max;
+ };
+@@ -276,7 +276,7 @@ extern struct mcs_op_statistic mcs_op_statistics[mcsop_last];
+ #define STAT(id)      do {                                            \
+                               if (gru_options & OPT_STATS)            \
+-                                      atomic_long_inc(&gru_stats.id); \
++                                      atomic_long_inc_unchecked(&gru_stats.id);       \
+                       } while (0)
+ #ifdef CONFIG_SGI_GRU_DEBUG
+diff --git a/drivers/misc/sgi-xp/xp.h b/drivers/misc/sgi-xp/xp.h
+index 2275126..12a9dbfb 100644
+--- a/drivers/misc/sgi-xp/xp.h
++++ b/drivers/misc/sgi-xp/xp.h
+@@ -289,7 +289,7 @@ struct xpc_interface {
+                                       xpc_notify_func, void *);
+       void (*received) (short, int, void *);
+       enum xp_retval (*partid_to_nasids) (short, void *);
+-};
++} __no_const;
+ extern struct xpc_interface xpc_interface;
+diff --git a/drivers/misc/sgi-xp/xpc.h b/drivers/misc/sgi-xp/xpc.h
+index b94d5f7..7f494c5 100644
+--- a/drivers/misc/sgi-xp/xpc.h
++++ b/drivers/misc/sgi-xp/xpc.h
+@@ -835,6 +835,7 @@ struct xpc_arch_operations {
+       void (*received_payload) (struct xpc_channel *, void *);
+       void (*notify_senders_of_disconnect) (struct xpc_channel *);
+ };
++typedef struct xpc_arch_operations __no_const xpc_arch_operations_no_const;
+ /* struct xpc_partition act_state values (for XPC HB) */
+@@ -876,7 +877,7 @@ extern struct xpc_registration xpc_registrations[];
+ /* found in xpc_main.c */
+ extern struct device *xpc_part;
+ extern struct device *xpc_chan;
+-extern struct xpc_arch_operations xpc_arch_ops;
++extern xpc_arch_operations_no_const xpc_arch_ops;
+ extern int xpc_disengage_timelimit;
+ extern int xpc_disengage_timedout;
+ extern int xpc_activate_IRQ_rcvd;
+diff --git a/drivers/misc/sgi-xp/xpc_main.c b/drivers/misc/sgi-xp/xpc_main.c
+index fd3688a..7e211a4 100644
+--- a/drivers/misc/sgi-xp/xpc_main.c
++++ b/drivers/misc/sgi-xp/xpc_main.c
+@@ -169,7 +169,7 @@ static struct notifier_block xpc_die_notifier = {
+       .notifier_call = xpc_system_die,
+ };
+-struct xpc_arch_operations xpc_arch_ops;
++xpc_arch_operations_no_const xpc_arch_ops;
+ /*
+  * Timer function to enforce the timelimit on the partition disengage.
+diff --git a/drivers/misc/sgi-xp/xpc_sn2.c b/drivers/misc/sgi-xp/xpc_sn2.c
+index 8b70e03..700bda6 100644
+--- a/drivers/misc/sgi-xp/xpc_sn2.c
++++ b/drivers/misc/sgi-xp/xpc_sn2.c
+@@ -2350,7 +2350,7 @@ xpc_received_payload_sn2(struct xpc_channel *ch, void *payload)
+               xpc_acknowledge_msgs_sn2(ch, get, msg->flags);
+ }
+-static struct xpc_arch_operations xpc_arch_ops_sn2 = {
++static const struct xpc_arch_operations xpc_arch_ops_sn2 = {
+       .setup_partitions = xpc_setup_partitions_sn2,
+       .teardown_partitions = xpc_teardown_partitions_sn2,
+       .process_activate_IRQ_rcvd = xpc_process_activate_IRQ_rcvd_sn2,
+@@ -2413,7 +2413,9 @@ xpc_init_sn2(void)
+       int ret;
+       size_t buf_size;
+-      xpc_arch_ops = xpc_arch_ops_sn2;
++      pax_open_kernel();
++      memcpy((void *)&xpc_arch_ops, &xpc_arch_ops_sn2, sizeof(xpc_arch_ops_sn2));
++      pax_close_kernel();
+       if (offsetof(struct xpc_msg_sn2, payload) > XPC_MSG_HDR_MAX_SIZE) {
+               dev_err(xpc_part, "header portion of struct xpc_msg_sn2 is "
+diff --git a/drivers/misc/sgi-xp/xpc_uv.c b/drivers/misc/sgi-xp/xpc_uv.c
+index 8e08d71..7cb8c9b 100644
+--- a/drivers/misc/sgi-xp/xpc_uv.c
++++ b/drivers/misc/sgi-xp/xpc_uv.c
+@@ -1669,7 +1669,7 @@ xpc_received_payload_uv(struct xpc_channel *ch, void *payload)
+               XPC_DEACTIVATE_PARTITION(&xpc_partitions[ch->partid], ret);
+ }
+-static struct xpc_arch_operations xpc_arch_ops_uv = {
++static const struct xpc_arch_operations xpc_arch_ops_uv = {
+       .setup_partitions = xpc_setup_partitions_uv,
+       .teardown_partitions = xpc_teardown_partitions_uv,
+       .process_activate_IRQ_rcvd = xpc_process_activate_IRQ_rcvd_uv,
+@@ -1729,7 +1729,9 @@ static struct xpc_arch_operations xpc_arch_ops_uv = {
+ int
+ xpc_init_uv(void)
+ {
+-      xpc_arch_ops = xpc_arch_ops_uv;
++      pax_open_kernel();
++      memcpy((void *)&xpc_arch_ops, &xpc_arch_ops_uv, sizeof(xpc_arch_ops_uv));
++      pax_close_kernel();
+       if (sizeof(struct xpc_notify_mq_msghdr_uv) > XPC_MSG_HDR_MAX_SIZE) {
+               dev_err(xpc_part, "xpc_notify_mq_msghdr_uv is larger than %d\n",
+diff --git a/drivers/mmc/host/sdhci-pci.c b/drivers/mmc/host/sdhci-pci.c
+index 6fd20b42..650efe3 100644
+--- a/drivers/mmc/host/sdhci-pci.c
++++ b/drivers/mmc/host/sdhci-pci.c
+@@ -297,7 +297,7 @@ static const struct sdhci_pci_fixes sdhci_via = {
+       .probe          = via_probe,
+ };
+-static const struct pci_device_id pci_ids[] __devinitdata = {
++static const struct pci_device_id pci_ids[] __devinitconst = {
+       {
+               .vendor         = PCI_VENDOR_ID_RICOH,
+               .device         = PCI_DEVICE_ID_RICOH_R5C822,
+diff --git a/drivers/mtd/chips/cfi_cmdset_0001.c b/drivers/mtd/chips/cfi_cmdset_0001.c
+index e7563a9..5f90ce5 100644
+--- a/drivers/mtd/chips/cfi_cmdset_0001.c
++++ b/drivers/mtd/chips/cfi_cmdset_0001.c
+@@ -743,6 +743,8 @@ static int chip_ready (struct map_info *map, struct flchip *chip, unsigned long
+       struct cfi_pri_intelext *cfip = cfi->cmdset_priv;
+       unsigned long timeo = jiffies + HZ;
++      pax_track_stack();
++
+       /* Prevent setting state FL_SYNCING for chip in suspended state. */
+       if (mode == FL_SYNCING && chip->oldstate != FL_READY)
+               goto sleep;
+@@ -1642,6 +1644,8 @@ static int __xipram do_write_buffer(struct map_info *map, struct flchip *chip,
+       unsigned long initial_adr;
+       int initial_len = len;
++      pax_track_stack();
++
+       wbufsize = cfi_interleave(cfi) << cfi->cfiq->MaxBufWriteSize;
+       adr += chip->start;
+       initial_adr = adr;
+@@ -1860,6 +1864,8 @@ static int __xipram do_erase_oneblock(struct map_info *map, struct flchip *chip,
+       int retries = 3;
+       int ret;
++      pax_track_stack();
++
+       adr += chip->start;
+  retry:
+diff --git a/drivers/mtd/chips/cfi_cmdset_0020.c b/drivers/mtd/chips/cfi_cmdset_0020.c
+index 0667a67..3ab97ed 100644
+--- a/drivers/mtd/chips/cfi_cmdset_0020.c
++++ b/drivers/mtd/chips/cfi_cmdset_0020.c
+@@ -255,6 +255,8 @@ static inline int do_read_onechip(struct map_info *map, struct flchip *chip, lof
+       unsigned long cmd_addr;
+       struct cfi_private *cfi = map->fldrv_priv;
++      pax_track_stack();
++
+       adr += chip->start;
+       /* Ensure cmd read/writes are aligned. */
+@@ -428,6 +430,8 @@ static inline int do_write_buffer(struct map_info *map, struct flchip *chip,
+       DECLARE_WAITQUEUE(wait, current);
+       int wbufsize, z;
++      pax_track_stack();
++
+         /* M58LW064A requires bus alignment for buffer wriets -- saw */
+         if (adr & (map_bankwidth(map)-1))
+             return -EINVAL;
+@@ -742,6 +746,8 @@ static inline int do_erase_oneblock(struct map_info *map, struct flchip *chip, u
+       DECLARE_WAITQUEUE(wait, current);
+       int ret = 0;
++      pax_track_stack();
++
+       adr += chip->start;
+       /* Let's determine this according to the interleave only once */
+@@ -1047,6 +1053,8 @@ static inline int do_lock_oneblock(struct map_info *map, struct flchip *chip, un
+       unsigned long timeo = jiffies + HZ;
+       DECLARE_WAITQUEUE(wait, current);
++      pax_track_stack();
++
+       adr += chip->start;
+       /* Let's determine this according to the interleave only once */
+@@ -1196,6 +1204,8 @@ static inline int do_unlock_oneblock(struct map_info *map, struct flchip *chip,
+       unsigned long timeo = jiffies + HZ;
+       DECLARE_WAITQUEUE(wait, current);
++      pax_track_stack();
++
+       adr += chip->start;
+       /* Let's determine this according to the interleave only once */
+diff --git a/drivers/mtd/devices/doc2000.c b/drivers/mtd/devices/doc2000.c
+index 5bf5f46..c5de373 100644
+--- a/drivers/mtd/devices/doc2000.c
++++ b/drivers/mtd/devices/doc2000.c
+@@ -776,7 +776,7 @@ static int doc_write(struct mtd_info *mtd, loff_t to, size_t len,
+               /* The ECC will not be calculated correctly if less than 512 is written */
+ /* DBB-
+-              if (len != 0x200 && eccbuf)
++              if (len != 0x200)
+                       printk(KERN_WARNING
+                              "ECC needs a full sector write (adr: %lx size %lx)\n",
+                              (long) to, (long) len);
+diff --git a/drivers/mtd/devices/doc2001.c b/drivers/mtd/devices/doc2001.c
+index 0990f78..bb4e8a4 100644
+--- a/drivers/mtd/devices/doc2001.c
++++ b/drivers/mtd/devices/doc2001.c
+@@ -393,7 +393,7 @@ static int doc_read (struct mtd_info *mtd, loff_t from, size_t len,
+       struct Nand *mychip = &this->chips[from >> (this->chipshift)];
+       /* Don't allow read past end of device */
+-      if (from >= this->totlen)
++      if (from >= this->totlen || !len)
+               return -EINVAL;
+       /* Don't allow a single read to cross a 512-byte block boundary */
+diff --git a/drivers/mtd/ftl.c b/drivers/mtd/ftl.c
+index e56d6b4..f07e6cf 100644
+--- a/drivers/mtd/ftl.c
++++ b/drivers/mtd/ftl.c
+@@ -474,6 +474,8 @@ static int copy_erase_unit(partition_t *part, uint16_t srcunit,
+     loff_t offset;
+     uint16_t srcunitswap = cpu_to_le16(srcunit);
++    pax_track_stack();
++
+     eun = &part->EUNInfo[srcunit];
+     xfer = &part->XferInfo[xferunit];
+     DEBUG(2, "ftl_cs: copying block 0x%x to 0x%x\n",
+diff --git a/drivers/mtd/inftlcore.c b/drivers/mtd/inftlcore.c
+index 8aca552..146446e 100755
+--- a/drivers/mtd/inftlcore.c
++++ b/drivers/mtd/inftlcore.c
+@@ -260,6 +260,8 @@ static u16 INFTL_foldchain(struct INFTLrecord *inftl, unsigned thisVUC, unsigned
+       struct inftl_oob oob;
+       size_t retlen;
++      pax_track_stack();
++
+       DEBUG(MTD_DEBUG_LEVEL3, "INFTL: INFTL_foldchain(inftl=%p,thisVUC=%d,"
+               "pending=%d)\n", inftl, thisVUC, pendingblock);
+diff --git a/drivers/mtd/inftlmount.c b/drivers/mtd/inftlmount.c
+index 32e82ae..ed50953 100644
+--- a/drivers/mtd/inftlmount.c
++++ b/drivers/mtd/inftlmount.c
+@@ -54,6 +54,8 @@ static int find_boot_record(struct INFTLrecord *inftl)
+       struct INFTLPartition *ip;
+       size_t retlen;
++      pax_track_stack();
++
+       DEBUG(MTD_DEBUG_LEVEL3, "INFTL: find_boot_record(inftl=%p)\n", inftl);
+         /*
+diff --git a/drivers/mtd/lpddr/qinfo_probe.c b/drivers/mtd/lpddr/qinfo_probe.c
+index 79bf40f..fe5f8fd 100644
+--- a/drivers/mtd/lpddr/qinfo_probe.c
++++ b/drivers/mtd/lpddr/qinfo_probe.c
+@@ -106,6 +106,8 @@ static int lpddr_pfow_present(struct map_info *map, struct lpddr_private *lpddr)
+ {
+       map_word pfow_val[4];
++      pax_track_stack();
++
+       /* Check identification string */
+       pfow_val[0] = map_read(map, map->pfow_base + PFOW_QUERY_STRING_P);
+       pfow_val[1] = map_read(map, map->pfow_base + PFOW_QUERY_STRING_F);
+diff --git a/drivers/mtd/mtdchar.c b/drivers/mtd/mtdchar.c
+index 726a1b8..f46b460 100644
+--- a/drivers/mtd/mtdchar.c
++++ b/drivers/mtd/mtdchar.c
+@@ -461,6 +461,8 @@ static int mtd_ioctl(struct inode *inode, struct file *file,
+       u_long size;
+       struct mtd_info_user info;
++      pax_track_stack();
++
+       DEBUG(MTD_DEBUG_LEVEL0, "MTD_ioctl\n");
+       size = (cmd & IOCSIZE_MASK) >> IOCSIZE_SHIFT;
+diff --git a/drivers/mtd/nftlcore.c b/drivers/mtd/nftlcore.c
+index 1002e18..26d82d5 100644
+--- a/drivers/mtd/nftlcore.c
++++ b/drivers/mtd/nftlcore.c
+@@ -254,6 +254,8 @@ static u16 NFTL_foldchain (struct NFTLrecord *nftl, unsigned thisVUC, unsigned p
+       int inplace = 1;
+       size_t retlen;
++      pax_track_stack();
++
+       memset(BlockMap, 0xff, sizeof(BlockMap));
+       memset(BlockFreeFound, 0, sizeof(BlockFreeFound));
+diff --git a/drivers/mtd/nftlmount.c b/drivers/mtd/nftlmount.c
+index 8b22b18..6fada85 100644
+--- a/drivers/mtd/nftlmount.c
++++ b/drivers/mtd/nftlmount.c
+@@ -23,6 +23,7 @@
+ #include <asm/errno.h>
+ #include <linux/delay.h>
+ #include <linux/slab.h>
++#include <linux/sched.h>
+ #include <linux/mtd/mtd.h>
+ #include <linux/mtd/nand.h>
+ #include <linux/mtd/nftl.h>
+@@ -44,6 +45,8 @@ static int find_boot_record(struct NFTLrecord *nftl)
+       struct mtd_info *mtd = nftl->mbd.mtd;
+       unsigned int i;
++      pax_track_stack();
++
+         /* Assume logical EraseSize == physical erasesize for starting the scan.
+          We'll sort it out later if we find a MediaHeader which says otherwise */
+       /* Actually, we won't.  The new DiskOnChip driver has already scanned
+diff --git a/drivers/mtd/ubi/build.c b/drivers/mtd/ubi/build.c
+index 14cec04..d775b87 100644
+--- a/drivers/mtd/ubi/build.c
++++ b/drivers/mtd/ubi/build.c
+@@ -1255,7 +1255,7 @@ module_exit(ubi_exit);
+ static int __init bytes_str_to_int(const char *str)
+ {
+       char *endp;
+-      unsigned long result;
++      unsigned long result, scale = 1;
+       result = simple_strtoul(str, &endp, 0);
+       if (str == endp || result >= INT_MAX) {
+@@ -1266,11 +1266,11 @@ static int __init bytes_str_to_int(const char *str)
+       switch (*endp) {
+       case 'G':
+-              result *= 1024;
++              scale *= 1024;
+       case 'M':
+-              result *= 1024;
++              scale *= 1024;
+       case 'K':
+-              result *= 1024;
++              scale *= 1024;
+               if (endp[1] == 'i' && endp[2] == 'B')
+                       endp += 2;
+       case '\0':
+@@ -1281,7 +1281,13 @@ static int __init bytes_str_to_int(const char *str)
+               return -EINVAL;
+       }
+-      return result;
++      if ((intoverflow_t)result*scale >= INT_MAX) {
++              printk(KERN_ERR "UBI error: incorrect bytes count: \"%s\"\n",
++                     str);
++              return -EINVAL;
++      }
++
++      return result*scale;
+ }
+ /**
+diff --git a/drivers/net/atlx/atl2.c b/drivers/net/atlx/atl2.c
+index ab68886..ca405e8 100644
+--- a/drivers/net/atlx/atl2.c
++++ b/drivers/net/atlx/atl2.c
+@@ -2845,7 +2845,7 @@ static void atl2_force_ps(struct atl2_hw *hw)
+  */
+ #define ATL2_PARAM(X, desc) \
+-    static const int __devinitdata X[ATL2_MAX_NIC + 1] = ATL2_PARAM_INIT; \
++    static const int __devinitconst X[ATL2_MAX_NIC + 1] = ATL2_PARAM_INIT; \
+     MODULE_PARM(X, "1-" __MODULE_STRING(ATL2_MAX_NIC) "i"); \
+     MODULE_PARM_DESC(X, desc);
+ #else
+diff --git a/drivers/net/bnx2.c b/drivers/net/bnx2.c
+index 4874b2b..67f8526 100644
+--- a/drivers/net/bnx2.c
++++ b/drivers/net/bnx2.c
+@@ -5809,6 +5809,8 @@ bnx2_test_nvram(struct bnx2 *bp)
+       int rc = 0;
+       u32 magic, csum;
++      pax_track_stack();
++
+       if ((rc = bnx2_nvram_read(bp, 0, data, 4)) != 0)
+               goto test_nvram_done;
+diff --git a/drivers/net/cxgb3/l2t.h b/drivers/net/cxgb3/l2t.h
+index fd3eb07..8a6978d 100644
+--- a/drivers/net/cxgb3/l2t.h
++++ b/drivers/net/cxgb3/l2t.h
+@@ -86,7 +86,7 @@ typedef void (*arp_failure_handler_func)(struct t3cdev * dev,
+  */
+ struct l2t_skb_cb {
+       arp_failure_handler_func arp_failure_handler;
+-};
++} __no_const;
+ #define L2T_SKB_CB(skb) ((struct l2t_skb_cb *)(skb)->cb)
+diff --git a/drivers/net/cxgb3/t3_hw.c b/drivers/net/cxgb3/t3_hw.c
+index 032cfe0..411af379 100644
+--- a/drivers/net/cxgb3/t3_hw.c
++++ b/drivers/net/cxgb3/t3_hw.c
+@@ -699,6 +699,8 @@ static int get_vpd_params(struct adapter *adapter, struct vpd_params *p)
+       int i, addr, ret;
+       struct t3_vpd vpd;
++      pax_track_stack();
++
+       /*
+        * Card information is normally at VPD_BASE but some early cards had
+        * it at 0.
+diff --git a/drivers/net/e1000e/82571.c b/drivers/net/e1000e/82571.c
+index d1e0563..b9e129c 100644
+--- a/drivers/net/e1000e/82571.c
++++ b/drivers/net/e1000e/82571.c
+@@ -212,7 +212,7 @@ static s32 e1000_init_mac_params_82571(struct e1000_adapter *adapter)
+ {
+       struct e1000_hw *hw = &adapter->hw;
+       struct e1000_mac_info *mac = &hw->mac;
+-      struct e1000_mac_operations *func = &mac->ops;
++      e1000_mac_operations_no_const *func = &mac->ops;
+       u32 swsm = 0;
+       u32 swsm2 = 0;
+       bool force_clear_smbi = false;
+@@ -1656,7 +1656,7 @@ static void e1000_clear_hw_cntrs_82571(struct e1000_hw *hw)
+       temp = er32(ICRXDMTC);
+ }
+-static struct e1000_mac_operations e82571_mac_ops = {
++static const struct e1000_mac_operations e82571_mac_ops = {
+       /* .check_mng_mode: mac type dependent */
+       /* .check_for_link: media type dependent */
+       .id_led_init            = e1000e_id_led_init,
+@@ -1674,7 +1674,7 @@ static struct e1000_mac_operations e82571_mac_ops = {
+       .setup_led              = e1000e_setup_led_generic,
+ };
+-static struct e1000_phy_operations e82_phy_ops_igp = {
++static const struct e1000_phy_operations e82_phy_ops_igp = {
+       .acquire_phy            = e1000_get_hw_semaphore_82571,
+       .check_reset_block      = e1000e_check_reset_block_generic,
+       .commit_phy             = NULL,
+@@ -1691,7 +1691,7 @@ static struct e1000_phy_operations e82_phy_ops_igp = {
+       .cfg_on_link_up         = NULL,
+ };
+-static struct e1000_phy_operations e82_phy_ops_m88 = {
++static const struct e1000_phy_operations e82_phy_ops_m88 = {
+       .acquire_phy            = e1000_get_hw_semaphore_82571,
+       .check_reset_block      = e1000e_check_reset_block_generic,
+       .commit_phy             = e1000e_phy_sw_reset,
+@@ -1708,7 +1708,7 @@ static struct e1000_phy_operations e82_phy_ops_m88 = {
+       .cfg_on_link_up         = NULL,
+ };
+-static struct e1000_phy_operations e82_phy_ops_bm = {
++static const struct e1000_phy_operations e82_phy_ops_bm = {
+       .acquire_phy            = e1000_get_hw_semaphore_82571,
+       .check_reset_block      = e1000e_check_reset_block_generic,
+       .commit_phy             = e1000e_phy_sw_reset,
+@@ -1725,7 +1725,7 @@ static struct e1000_phy_operations e82_phy_ops_bm = {
+       .cfg_on_link_up         = NULL,
+ };
+-static struct e1000_nvm_operations e82571_nvm_ops = {
++static const struct e1000_nvm_operations e82571_nvm_ops = {
+       .acquire_nvm            = e1000_acquire_nvm_82571,
+       .read_nvm               = e1000e_read_nvm_eerd,
+       .release_nvm            = e1000_release_nvm_82571,
+diff --git a/drivers/net/e1000e/e1000.h b/drivers/net/e1000e/e1000.h
+index 47db9bd..fa58ccd 100644
+--- a/drivers/net/e1000e/e1000.h
++++ b/drivers/net/e1000e/e1000.h
+@@ -375,9 +375,9 @@ struct e1000_info {
+       u32                     pba;
+       u32                     max_hw_frame_size;
+       s32                     (*get_variants)(struct e1000_adapter *);
+-      struct e1000_mac_operations *mac_ops;
+-      struct e1000_phy_operations *phy_ops;
+-      struct e1000_nvm_operations *nvm_ops;
++      const struct e1000_mac_operations *mac_ops;
++      const struct e1000_phy_operations *phy_ops;
++      const struct e1000_nvm_operations *nvm_ops;
+ };
+ /* hardware capability, feature, and workaround flags */
+diff --git a/drivers/net/e1000e/es2lan.c b/drivers/net/e1000e/es2lan.c
+index ae5d736..e9a93a1 100644
+--- a/drivers/net/e1000e/es2lan.c
++++ b/drivers/net/e1000e/es2lan.c
+@@ -207,7 +207,7 @@ static s32 e1000_init_mac_params_80003es2lan(struct e1000_adapter *adapter)
+ {
+       struct e1000_hw *hw = &adapter->hw;
+       struct e1000_mac_info *mac = &hw->mac;
+-      struct e1000_mac_operations *func = &mac->ops;
++      e1000_mac_operations_no_const *func = &mac->ops;
+       /* Set media type */
+       switch (adapter->pdev->device) {
+@@ -1365,7 +1365,7 @@ static void e1000_clear_hw_cntrs_80003es2lan(struct e1000_hw *hw)
+       temp = er32(ICRXDMTC);
+ }
+-static struct e1000_mac_operations es2_mac_ops = {
++static const struct e1000_mac_operations es2_mac_ops = {
+       .id_led_init            = e1000e_id_led_init,
+       .check_mng_mode         = e1000e_check_mng_mode_generic,
+       /* check_for_link dependent on media type */
+@@ -1383,7 +1383,7 @@ static struct e1000_mac_operations es2_mac_ops = {
+       .setup_led              = e1000e_setup_led_generic,
+ };
+-static struct e1000_phy_operations es2_phy_ops = {
++static const struct e1000_phy_operations es2_phy_ops = {
+       .acquire_phy            = e1000_acquire_phy_80003es2lan,
+       .check_reset_block      = e1000e_check_reset_block_generic,
+       .commit_phy             = e1000e_phy_sw_reset,
+@@ -1400,7 +1400,7 @@ static struct e1000_phy_operations es2_phy_ops = {
+       .cfg_on_link_up         = e1000_cfg_on_link_up_80003es2lan,
+ };
+-static struct e1000_nvm_operations es2_nvm_ops = {
++static const struct e1000_nvm_operations es2_nvm_ops = {
+       .acquire_nvm            = e1000_acquire_nvm_80003es2lan,
+       .read_nvm               = e1000e_read_nvm_eerd,
+       .release_nvm            = e1000_release_nvm_80003es2lan,
+diff --git a/drivers/net/e1000e/hw.h b/drivers/net/e1000e/hw.h
+index 11f3b7c..6381887 100644
+--- a/drivers/net/e1000e/hw.h
++++ b/drivers/net/e1000e/hw.h
+@@ -753,6 +753,7 @@ struct e1000_mac_operations {
+       s32  (*setup_physical_interface)(struct e1000_hw *);
+       s32  (*setup_led)(struct e1000_hw *);
+ };
++typedef struct e1000_mac_operations __no_const e1000_mac_operations_no_const;
+ /* Function pointers for the PHY. */
+ struct e1000_phy_operations {
+@@ -774,6 +775,7 @@ struct e1000_phy_operations {
+       s32  (*write_phy_reg_locked)(struct e1000_hw *, u32, u16);
+       s32  (*cfg_on_link_up)(struct e1000_hw *);
+ };
++typedef struct e1000_phy_operations __no_const e1000_phy_operations_no_const;
+ /* Function pointers for the NVM. */
+ struct e1000_nvm_operations {
+@@ -785,9 +787,10 @@ struct e1000_nvm_operations {
+       s32  (*validate_nvm)(struct e1000_hw *);
+       s32  (*write_nvm)(struct e1000_hw *, u16, u16, u16 *);
+ };
++typedef struct e1000_nvm_operations __no_const e1000_nvm_operations_no_const;
+ struct e1000_mac_info {
+-      struct e1000_mac_operations ops;
++      e1000_mac_operations_no_const ops;
+       u8 addr[6];
+       u8 perm_addr[6];
+@@ -823,7 +826,7 @@ struct e1000_mac_info {
+ };
+ struct e1000_phy_info {
+-      struct e1000_phy_operations ops;
++      e1000_phy_operations_no_const ops;
+       enum e1000_phy_type type;
+@@ -857,7 +860,7 @@ struct e1000_phy_info {
+ };
+ struct e1000_nvm_info {
+-      struct e1000_nvm_operations ops;
++      e1000_nvm_operations_no_const ops;
+       enum e1000_nvm_type type;
+       enum e1000_nvm_override override;
+diff --git a/drivers/net/e1000e/ich8lan.c b/drivers/net/e1000e/ich8lan.c
+index de39f9a..e28d3e0 100644
+--- a/drivers/net/e1000e/ich8lan.c
++++ b/drivers/net/e1000e/ich8lan.c
+@@ -3463,7 +3463,7 @@ static void e1000_clear_hw_cntrs_ich8lan(struct e1000_hw *hw)
+       }
+ }
+-static struct e1000_mac_operations ich8_mac_ops = {
++static const struct e1000_mac_operations ich8_mac_ops = {
+       .id_led_init            = e1000e_id_led_init,
+       .check_mng_mode         = e1000_check_mng_mode_ich8lan,
+       .check_for_link         = e1000_check_for_copper_link_ich8lan,
+@@ -3481,7 +3481,7 @@ static struct e1000_mac_operations ich8_mac_ops = {
+       /* id_led_init dependent on mac type */
+ };
+-static struct e1000_phy_operations ich8_phy_ops = {
++static const struct e1000_phy_operations ich8_phy_ops = {
+       .acquire_phy            = e1000_acquire_swflag_ich8lan,
+       .check_reset_block      = e1000_check_reset_block_ich8lan,
+       .commit_phy             = NULL,
+@@ -3497,7 +3497,7 @@ static struct e1000_phy_operations ich8_phy_ops = {
+       .write_phy_reg          = e1000e_write_phy_reg_igp,
+ };
+-static struct e1000_nvm_operations ich8_nvm_ops = {
++static const struct e1000_nvm_operations ich8_nvm_ops = {
+       .acquire_nvm            = e1000_acquire_nvm_ich8lan,
+       .read_nvm               = e1000_read_nvm_ich8lan,
+       .release_nvm            = e1000_release_nvm_ich8lan,
+diff --git a/drivers/net/fealnx.c b/drivers/net/fealnx.c
+index 18d5fbb..542d96d 100644
+--- a/drivers/net/fealnx.c
++++ b/drivers/net/fealnx.c
+@@ -151,7 +151,7 @@ struct chip_info {
+       int flags;
+ };
+-static const struct chip_info skel_netdrv_tbl[] __devinitdata = {
++static const struct chip_info skel_netdrv_tbl[] __devinitconst = {
+       { "100/10M Ethernet PCI Adapter",       HAS_MII_XCVR },
+       { "100/10M Ethernet PCI Adapter",       HAS_CHIP_XCVR },
+       { "1000/100/10M Ethernet PCI Adapter",  HAS_MII_XCVR },
+diff --git a/drivers/net/hamradio/6pack.c b/drivers/net/hamradio/6pack.c
+index 0e5b54b..b503f82 100644
+--- a/drivers/net/hamradio/6pack.c
++++ b/drivers/net/hamradio/6pack.c
+@@ -461,6 +461,8 @@ static void sixpack_receive_buf(struct tty_struct *tty,
+       unsigned char buf[512];
+       int count1;
++      pax_track_stack();
++
+       if (!count)
+               return;
+diff --git a/drivers/net/ibmveth.c b/drivers/net/ibmveth.c
+index 5862282..7cce8cb 100644
+--- a/drivers/net/ibmveth.c
++++ b/drivers/net/ibmveth.c
+@@ -1577,7 +1577,7 @@ static struct attribute * veth_pool_attrs[] = {
+       NULL,
+ };
+-static struct sysfs_ops veth_pool_ops = {
++static const struct sysfs_ops veth_pool_ops = {
+       .show   = veth_pool_show,
+       .store  = veth_pool_store,
+ };
+diff --git a/drivers/net/igb/e1000_82575.c b/drivers/net/igb/e1000_82575.c
+index d617f2d..57b5309 100644
+--- a/drivers/net/igb/e1000_82575.c
++++ b/drivers/net/igb/e1000_82575.c
+@@ -1411,7 +1411,7 @@ void igb_vmdq_set_replication_pf(struct e1000_hw *hw, bool enable)
+       wr32(E1000_VT_CTL, vt_ctl);
+ }
+-static struct e1000_mac_operations e1000_mac_ops_82575 = {
++static const struct e1000_mac_operations e1000_mac_ops_82575 = {
+       .reset_hw             = igb_reset_hw_82575,
+       .init_hw              = igb_init_hw_82575,
+       .check_for_link       = igb_check_for_link_82575,
+@@ -1420,13 +1420,13 @@ static struct e1000_mac_operations e1000_mac_ops_82575 = {
+       .get_speed_and_duplex = igb_get_speed_and_duplex_copper,
+ };
+-static struct e1000_phy_operations e1000_phy_ops_82575 = {
++static const struct e1000_phy_operations e1000_phy_ops_82575 = {
+       .acquire              = igb_acquire_phy_82575,
+       .get_cfg_done         = igb_get_cfg_done_82575,
+       .release              = igb_release_phy_82575,
+ };
+-static struct e1000_nvm_operations e1000_nvm_ops_82575 = {
++static const struct e1000_nvm_operations e1000_nvm_ops_82575 = {
+       .acquire              = igb_acquire_nvm_82575,
+       .read                 = igb_read_nvm_eerd,
+       .release              = igb_release_nvm_82575,
+diff --git a/drivers/net/igb/e1000_hw.h b/drivers/net/igb/e1000_hw.h
+index 72081df..d855cf5 100644
+--- a/drivers/net/igb/e1000_hw.h
++++ b/drivers/net/igb/e1000_hw.h
+@@ -288,6 +288,7 @@ struct e1000_mac_operations {
+       s32  (*read_mac_addr)(struct e1000_hw *);
+       s32  (*get_speed_and_duplex)(struct e1000_hw *, u16 *, u16 *);
+ };
++typedef struct e1000_mac_operations __no_const e1000_mac_operations_no_const;
+ struct e1000_phy_operations {
+       s32  (*acquire)(struct e1000_hw *);
+@@ -303,6 +304,7 @@ struct e1000_phy_operations {
+       s32  (*set_d3_lplu_state)(struct e1000_hw *, bool);
+       s32  (*write_reg)(struct e1000_hw *, u32, u16);
+ };
++typedef struct e1000_phy_operations __no_const e1000_phy_operations_no_const;
+ struct e1000_nvm_operations {
+       s32  (*acquire)(struct e1000_hw *);
+@@ -310,6 +312,7 @@ struct e1000_nvm_operations {
+       void (*release)(struct e1000_hw *);
+       s32  (*write)(struct e1000_hw *, u16, u16, u16 *);
+ };
++typedef struct e1000_nvm_operations __no_const e1000_nvm_operations_no_const;
+ struct e1000_info {
+       s32 (*get_invariants)(struct e1000_hw *);
+@@ -321,7 +324,7 @@ struct e1000_info {
+ extern const struct e1000_info e1000_82575_info;
+ struct e1000_mac_info {
+-      struct e1000_mac_operations ops;
++      e1000_mac_operations_no_const ops;
+       u8 addr[6];
+       u8 perm_addr[6];
+@@ -365,7 +368,7 @@ struct e1000_mac_info {
+ };
+ struct e1000_phy_info {
+-      struct e1000_phy_operations ops;
++      e1000_phy_operations_no_const ops;
+       enum e1000_phy_type type;
+@@ -400,7 +403,7 @@ struct e1000_phy_info {
+ };
+ struct e1000_nvm_info {
+-      struct e1000_nvm_operations ops;
++      e1000_nvm_operations_no_const ops;
+       enum e1000_nvm_type type;
+       enum e1000_nvm_override override;
+@@ -446,6 +449,7 @@ struct e1000_mbx_operations {
+       s32 (*check_for_ack)(struct e1000_hw *, u16);
+       s32 (*check_for_rst)(struct e1000_hw *, u16);
+ };
++typedef struct e1000_mbx_operations __no_const e1000_mbx_operations_no_const;
+ struct e1000_mbx_stats {
+       u32 msgs_tx;
+@@ -457,7 +461,7 @@ struct e1000_mbx_stats {
+ };
+ struct e1000_mbx_info {
+-      struct e1000_mbx_operations ops;
++      e1000_mbx_operations_no_const ops;
+       struct e1000_mbx_stats stats;
+       u32 timeout;
+       u32 usec_delay;
+diff --git a/drivers/net/igbvf/vf.h b/drivers/net/igbvf/vf.h
+index 1e8ce37..549c453 100644
+--- a/drivers/net/igbvf/vf.h
++++ b/drivers/net/igbvf/vf.h
+@@ -187,9 +187,10 @@ struct e1000_mac_operations {
+       s32  (*read_mac_addr)(struct e1000_hw *);
+       s32  (*set_vfta)(struct e1000_hw *, u16, bool);
+ };
++typedef struct e1000_mac_operations __no_const e1000_mac_operations_no_const;
+ struct e1000_mac_info {
+-      struct e1000_mac_operations ops;
++      e1000_mac_operations_no_const ops;
+       u8 addr[6];
+       u8 perm_addr[6];
+@@ -211,6 +212,7 @@ struct e1000_mbx_operations {
+       s32 (*check_for_ack)(struct e1000_hw *);
+       s32 (*check_for_rst)(struct e1000_hw *);
+ };
++typedef struct e1000_mbx_operations __no_const e1000_mbx_operations_no_const;
+ struct e1000_mbx_stats {
+       u32 msgs_tx;
+@@ -222,7 +224,7 @@ struct e1000_mbx_stats {
+ };
+ struct e1000_mbx_info {
+-      struct e1000_mbx_operations ops;
++      e1000_mbx_operations_no_const ops;
+       struct e1000_mbx_stats stats;
+       u32 timeout;
+       u32 usec_delay;
+diff --git a/drivers/net/iseries_veth.c b/drivers/net/iseries_veth.c
+index aa7286b..a61394f 100644
+--- a/drivers/net/iseries_veth.c
++++ b/drivers/net/iseries_veth.c
+@@ -384,7 +384,7 @@ static struct attribute *veth_cnx_default_attrs[] = {
+       NULL
+ };
+-static struct sysfs_ops veth_cnx_sysfs_ops = {
++static const struct sysfs_ops veth_cnx_sysfs_ops = {
+               .show = veth_cnx_attribute_show
+ };
+@@ -441,7 +441,7 @@ static struct attribute *veth_port_default_attrs[] = {
+       NULL
+ };
+-static struct sysfs_ops veth_port_sysfs_ops = {
++static const struct sysfs_ops veth_port_sysfs_ops = {
+       .show = veth_port_attribute_show
+ };
+diff --git a/drivers/net/ixgb/ixgb_main.c b/drivers/net/ixgb/ixgb_main.c
+index 8aa44dc..fa1e797 100644
+--- a/drivers/net/ixgb/ixgb_main.c
++++ b/drivers/net/ixgb/ixgb_main.c
+@@ -1052,6 +1052,8 @@ ixgb_set_multi(struct net_device *netdev)
+       u32 rctl;
+       int i;
++      pax_track_stack();
++
+       /* Check for Promiscuous and All Multicast modes */
+       rctl = IXGB_READ_REG(hw, RCTL);
+diff --git a/drivers/net/ixgb/ixgb_param.c b/drivers/net/ixgb/ixgb_param.c
+index af35e1d..8781785 100644
+--- a/drivers/net/ixgb/ixgb_param.c
++++ b/drivers/net/ixgb/ixgb_param.c
+@@ -260,6 +260,9 @@ void __devinit
+ ixgb_check_options(struct ixgb_adapter *adapter)
+ {
+       int bd = adapter->bd_number;
++
++      pax_track_stack();
++
+       if (bd >= IXGB_MAX_NIC) {
+               printk(KERN_NOTICE
+                          "Warning: no configuration for board #%i\n", bd);
+diff --git a/drivers/net/ixgbe/ixgbe_type.h b/drivers/net/ixgbe/ixgbe_type.h
+index b17aa73..ed74540 100644
+--- a/drivers/net/ixgbe/ixgbe_type.h
++++ b/drivers/net/ixgbe/ixgbe_type.h
+@@ -2327,6 +2327,7 @@ struct ixgbe_eeprom_operations {
+       s32 (*validate_checksum)(struct ixgbe_hw *, u16 *);
+       s32 (*update_checksum)(struct ixgbe_hw *);
+ };
++typedef struct ixgbe_eeprom_operations __no_const ixgbe_eeprom_operations_no_const;
+ struct ixgbe_mac_operations {
+       s32 (*init_hw)(struct ixgbe_hw *);
+@@ -2376,6 +2377,7 @@ struct ixgbe_mac_operations {
+       /* Flow Control */
+       s32 (*fc_enable)(struct ixgbe_hw *, s32);
+ };
++typedef struct ixgbe_mac_operations __no_const ixgbe_mac_operations_no_const;
+ struct ixgbe_phy_operations {
+       s32 (*identify)(struct ixgbe_hw *);
+@@ -2394,9 +2396,10 @@ struct ixgbe_phy_operations {
+       s32 (*read_i2c_eeprom)(struct ixgbe_hw *, u8 , u8 *);
+       s32 (*write_i2c_eeprom)(struct ixgbe_hw *, u8, u8);
+ };
++typedef struct ixgbe_phy_operations __no_const ixgbe_phy_operations_no_const;
+ struct ixgbe_eeprom_info {
+-      struct ixgbe_eeprom_operations  ops;
++      ixgbe_eeprom_operations_no_const ops;
+       enum ixgbe_eeprom_type          type;
+       u32                             semaphore_delay;
+       u16                             word_size;
+@@ -2404,7 +2407,7 @@ struct ixgbe_eeprom_info {
+ };
+ struct ixgbe_mac_info {
+-      struct ixgbe_mac_operations     ops;
++      ixgbe_mac_operations_no_const   ops;
+       enum ixgbe_mac_type             type;
+       u8                              addr[IXGBE_ETH_LENGTH_OF_ADDRESS];
+       u8                              perm_addr[IXGBE_ETH_LENGTH_OF_ADDRESS];
+@@ -2423,7 +2426,7 @@ struct ixgbe_mac_info {
+ };
+ struct ixgbe_phy_info {
+-      struct ixgbe_phy_operations     ops;
++      ixgbe_phy_operations_no_const   ops;
+       struct mdio_if_info             mdio;
+       enum ixgbe_phy_type             type;
+       u32                             id;
+diff --git a/drivers/net/mlx4/main.c b/drivers/net/mlx4/main.c
+index 291a505..2543756 100644
+--- a/drivers/net/mlx4/main.c
++++ b/drivers/net/mlx4/main.c
+@@ -38,6 +38,7 @@
+ #include <linux/errno.h>
+ #include <linux/pci.h>
+ #include <linux/dma-mapping.h>
++#include <linux/sched.h>
+ #include <linux/mlx4/device.h>
+ #include <linux/mlx4/doorbell.h>
+@@ -730,6 +731,8 @@ static int mlx4_init_hca(struct mlx4_dev *dev)
+       u64 icm_size;
+       int err;
++      pax_track_stack();
++
+       err = mlx4_QUERY_FW(dev);
+       if (err) {
+               if (err == -EACCES)
+diff --git a/drivers/net/niu.c b/drivers/net/niu.c
+index 2dce134..fa5ce75 100644
+--- a/drivers/net/niu.c
++++ b/drivers/net/niu.c
+@@ -9128,6 +9128,8 @@ static void __devinit niu_try_msix(struct niu *np, u8 *ldg_num_map)
+       int i, num_irqs, err;
+       u8 first_ldg;
++      pax_track_stack();
++
+       first_ldg = (NIU_NUM_LDG / parent->num_ports) * np->port;
+       for (i = 0; i < (NIU_NUM_LDG / parent->num_ports); i++)
+               ldg_num_map[i] = first_ldg + i;
+diff --git a/drivers/net/pcnet32.c b/drivers/net/pcnet32.c
+index c1b3f09..97cd8c4 100644
+--- a/drivers/net/pcnet32.c
++++ b/drivers/net/pcnet32.c
+@@ -79,7 +79,7 @@ static int cards_found;
+ /*
+  * VLB I/O addresses
+  */
+-static unsigned int pcnet32_portlist[] __initdata =
++static unsigned int pcnet32_portlist[] __devinitdata =
+     { 0x300, 0x320, 0x340, 0x360, 0 };
+ static int pcnet32_debug = 0;
+@@ -267,7 +267,7 @@ struct pcnet32_private {
+       struct sk_buff          **rx_skbuff;
+       dma_addr_t              *tx_dma_addr;
+       dma_addr_t              *rx_dma_addr;
+-      struct pcnet32_access   a;
++      struct pcnet32_access   *a;
+       spinlock_t              lock;           /* Guard lock */
+       unsigned int            cur_rx, cur_tx; /* The next free ring entry */
+       unsigned int            rx_ring_size;   /* current rx ring size */
+@@ -457,9 +457,9 @@ static void pcnet32_netif_start(struct net_device *dev)
+       u16 val;
+       netif_wake_queue(dev);
+-      val = lp->a.read_csr(ioaddr, CSR3);
++      val = lp->a->read_csr(ioaddr, CSR3);
+       val &= 0x00ff;
+-      lp->a.write_csr(ioaddr, CSR3, val);
++      lp->a->write_csr(ioaddr, CSR3, val);
+       napi_enable(&lp->napi);
+ }
+@@ -744,7 +744,7 @@ static u32 pcnet32_get_link(struct net_device *dev)
+               r = mii_link_ok(&lp->mii_if);
+       } else if (lp->chip_version >= PCNET32_79C970A) {
+               ulong ioaddr = dev->base_addr;  /* card base I/O address */
+-              r = (lp->a.read_bcr(ioaddr, 4) != 0xc0);
++              r = (lp->a->read_bcr(ioaddr, 4) != 0xc0);
+       } else {        /* can not detect link on really old chips */
+               r = 1;
+       }
+@@ -806,7 +806,7 @@ static int pcnet32_set_ringparam(struct net_device *dev,
+               pcnet32_netif_stop(dev);
+       spin_lock_irqsave(&lp->lock, flags);
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_STOP);       /* stop the chip */
++      lp->a->write_csr(ioaddr, CSR0, CSR0_STOP);      /* stop the chip */
+       size = min(ering->tx_pending, (unsigned int)TX_MAX_RING_SIZE);
+@@ -886,7 +886,7 @@ static void pcnet32_ethtool_test(struct net_device *dev,
+ static int pcnet32_loopback_test(struct net_device *dev, uint64_t * data1)
+ {
+       struct pcnet32_private *lp = netdev_priv(dev);
+-      struct pcnet32_access *a = &lp->a;      /* access to registers */
++      struct pcnet32_access *a = lp->a;       /* access to registers */
+       ulong ioaddr = dev->base_addr;  /* card base I/O address */
+       struct sk_buff *skb;    /* sk buff */
+       int x, i;               /* counters */
+@@ -906,21 +906,21 @@ static int pcnet32_loopback_test(struct net_device *dev, uint64_t * data1)
+               pcnet32_netif_stop(dev);
+       spin_lock_irqsave(&lp->lock, flags);
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_STOP);       /* stop the chip */
++      lp->a->write_csr(ioaddr, CSR0, CSR0_STOP);      /* stop the chip */
+       numbuffs = min(numbuffs, (int)min(lp->rx_ring_size, lp->tx_ring_size));
+       /* Reset the PCNET32 */
+-      lp->a.reset(ioaddr);
+-      lp->a.write_csr(ioaddr, CSR4, 0x0915);  /* auto tx pad */
++      lp->a->reset(ioaddr);
++      lp->a->write_csr(ioaddr, CSR4, 0x0915); /* auto tx pad */
+       /* switch pcnet32 to 32bit mode */
+-      lp->a.write_bcr(ioaddr, 20, 2);
++      lp->a->write_bcr(ioaddr, 20, 2);
+       /* purge & init rings but don't actually restart */
+       pcnet32_restart(dev, 0x0000);
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_STOP);       /* Set STOP bit */
++      lp->a->write_csr(ioaddr, CSR0, CSR0_STOP);      /* Set STOP bit */
+       /* Initialize Transmit buffers. */
+       size = data_len + 15;
+@@ -966,10 +966,10 @@ static int pcnet32_loopback_test(struct net_device *dev, uint64_t * data1)
+       /* set int loopback in CSR15 */
+       x = a->read_csr(ioaddr, CSR15) & 0xfffc;
+-      lp->a.write_csr(ioaddr, CSR15, x | 0x0044);
++      lp->a->write_csr(ioaddr, CSR15, x | 0x0044);
+       teststatus = cpu_to_le16(0x8000);
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_START);      /* Set STRT bit */
++      lp->a->write_csr(ioaddr, CSR0, CSR0_START);     /* Set STRT bit */
+       /* Check status of descriptors */
+       for (x = 0; x < numbuffs; x++) {
+@@ -990,7 +990,7 @@ static int pcnet32_loopback_test(struct net_device *dev, uint64_t * data1)
+               }
+       }
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_STOP);       /* Set STOP bit */
++      lp->a->write_csr(ioaddr, CSR0, CSR0_STOP);      /* Set STOP bit */
+       wmb();
+       if (netif_msg_hw(lp) && netif_msg_pktdata(lp)) {
+               printk(KERN_DEBUG "%s: RX loopback packets:\n", dev->name);
+@@ -1039,7 +1039,7 @@ static int pcnet32_loopback_test(struct net_device *dev, uint64_t * data1)
+               pcnet32_restart(dev, CSR0_NORMAL);
+       } else {
+               pcnet32_purge_rx_ring(dev);
+-              lp->a.write_bcr(ioaddr, 20, 4); /* return to 16bit mode */
++              lp->a->write_bcr(ioaddr, 20, 4);        /* return to 16bit mode */
+       }
+       spin_unlock_irqrestore(&lp->lock, flags);
+@@ -1049,7 +1049,7 @@ static int pcnet32_loopback_test(struct net_device *dev, uint64_t * data1)
+ static void pcnet32_led_blink_callback(struct net_device *dev)
+ {
+       struct pcnet32_private *lp = netdev_priv(dev);
+-      struct pcnet32_access *a = &lp->a;
++      struct pcnet32_access *a = lp->a;
+       ulong ioaddr = dev->base_addr;
+       unsigned long flags;
+       int i;
+@@ -1066,7 +1066,7 @@ static void pcnet32_led_blink_callback(struct net_device *dev)
+ static int pcnet32_phys_id(struct net_device *dev, u32 data)
+ {
+       struct pcnet32_private *lp = netdev_priv(dev);
+-      struct pcnet32_access *a = &lp->a;
++      struct pcnet32_access *a = lp->a;
+       ulong ioaddr = dev->base_addr;
+       unsigned long flags;
+       int i, regs[4];
+@@ -1112,7 +1112,7 @@ static int pcnet32_suspend(struct net_device *dev, unsigned long *flags,
+ {
+       int csr5;
+       struct pcnet32_private *lp = netdev_priv(dev);
+-      struct pcnet32_access *a = &lp->a;
++      struct pcnet32_access *a = lp->a;
+       ulong ioaddr = dev->base_addr;
+       int ticks;
+@@ -1388,8 +1388,8 @@ static int pcnet32_poll(struct napi_struct *napi, int budget)
+       spin_lock_irqsave(&lp->lock, flags);
+       if (pcnet32_tx(dev)) {
+               /* reset the chip to clear the error condition, then restart */
+-              lp->a.reset(ioaddr);
+-              lp->a.write_csr(ioaddr, CSR4, 0x0915);  /* auto tx pad */
++              lp->a->reset(ioaddr);
++              lp->a->write_csr(ioaddr, CSR4, 0x0915); /* auto tx pad */
+               pcnet32_restart(dev, CSR0_START);
+               netif_wake_queue(dev);
+       }
+@@ -1401,12 +1401,12 @@ static int pcnet32_poll(struct napi_struct *napi, int budget)
+               __napi_complete(napi);
+               /* clear interrupt masks */
+-              val = lp->a.read_csr(ioaddr, CSR3);
++              val = lp->a->read_csr(ioaddr, CSR3);
+               val &= 0x00ff;
+-              lp->a.write_csr(ioaddr, CSR3, val);
++              lp->a->write_csr(ioaddr, CSR3, val);
+               /* Set interrupt enable. */
+-              lp->a.write_csr(ioaddr, CSR0, CSR0_INTEN);
++              lp->a->write_csr(ioaddr, CSR0, CSR0_INTEN);
+               spin_unlock_irqrestore(&lp->lock, flags);
+       }
+@@ -1429,7 +1429,7 @@ static void pcnet32_get_regs(struct net_device *dev, struct ethtool_regs *regs,
+       int i, csr0;
+       u16 *buff = ptr;
+       struct pcnet32_private *lp = netdev_priv(dev);
+-      struct pcnet32_access *a = &lp->a;
++      struct pcnet32_access *a = lp->a;
+       ulong ioaddr = dev->base_addr;
+       unsigned long flags;
+@@ -1466,9 +1466,9 @@ static void pcnet32_get_regs(struct net_device *dev, struct ethtool_regs *regs,
+               for (j = 0; j < PCNET32_MAX_PHYS; j++) {
+                       if (lp->phymask & (1 << j)) {
+                               for (i = 0; i < PCNET32_REGS_PER_PHY; i++) {
+-                                      lp->a.write_bcr(ioaddr, 33,
++                                      lp->a->write_bcr(ioaddr, 33,
+                                                       (j << 5) | i);
+-                                      *buff++ = lp->a.read_bcr(ioaddr, 34);
++                                      *buff++ = lp->a->read_bcr(ioaddr, 34);
+                               }
+                       }
+               }
+@@ -1858,7 +1858,7 @@ pcnet32_probe1(unsigned long ioaddr, int shared, struct pci_dev *pdev)
+           ((cards_found >= MAX_UNITS) || full_duplex[cards_found]))
+               lp->options |= PCNET32_PORT_FD;
+-      lp->a = *a;
++      lp->a = a;
+       /* prior to register_netdev, dev->name is not yet correct */
+       if (pcnet32_alloc_ring(dev, pci_name(lp->pci_dev))) {
+@@ -1917,7 +1917,7 @@ pcnet32_probe1(unsigned long ioaddr, int shared, struct pci_dev *pdev)
+       if (lp->mii) {
+               /* lp->phycount and lp->phymask are set to 0 by memset above */
+-              lp->mii_if.phy_id = ((lp->a.read_bcr(ioaddr, 33)) >> 5) & 0x1f;
++              lp->mii_if.phy_id = ((lp->a->read_bcr(ioaddr, 33)) >> 5) & 0x1f;
+               /* scan for PHYs */
+               for (i = 0; i < PCNET32_MAX_PHYS; i++) {
+                       unsigned short id1, id2;
+@@ -1938,7 +1938,7 @@ pcnet32_probe1(unsigned long ioaddr, int shared, struct pci_dev *pdev)
+                                      "Found PHY %04x:%04x at address %d.\n",
+                                      id1, id2, i);
+               }
+-              lp->a.write_bcr(ioaddr, 33, (lp->mii_if.phy_id) << 5);
++              lp->a->write_bcr(ioaddr, 33, (lp->mii_if.phy_id) << 5);
+               if (lp->phycount > 1) {
+                       lp->options |= PCNET32_PORT_MII;
+               }
+@@ -2109,10 +2109,10 @@ static int pcnet32_open(struct net_device *dev)
+       }
+       /* Reset the PCNET32 */
+-      lp->a.reset(ioaddr);
++      lp->a->reset(ioaddr);
+       /* switch pcnet32 to 32bit mode */
+-      lp->a.write_bcr(ioaddr, 20, 2);
++      lp->a->write_bcr(ioaddr, 20, 2);
+       if (netif_msg_ifup(lp))
+               printk(KERN_DEBUG
+@@ -2122,14 +2122,14 @@ static int pcnet32_open(struct net_device *dev)
+                      (u32) (lp->init_dma_addr));
+       /* set/reset autoselect bit */
+-      val = lp->a.read_bcr(ioaddr, 2) & ~2;
++      val = lp->a->read_bcr(ioaddr, 2) & ~2;
+       if (lp->options & PCNET32_PORT_ASEL)
+               val |= 2;
+-      lp->a.write_bcr(ioaddr, 2, val);
++      lp->a->write_bcr(ioaddr, 2, val);
+       /* handle full duplex setting */
+       if (lp->mii_if.full_duplex) {
+-              val = lp->a.read_bcr(ioaddr, 9) & ~3;
++              val = lp->a->read_bcr(ioaddr, 9) & ~3;
+               if (lp->options & PCNET32_PORT_FD) {
+                       val |= 1;
+                       if (lp->options == (PCNET32_PORT_FD | PCNET32_PORT_AUI))
+@@ -2139,14 +2139,14 @@ static int pcnet32_open(struct net_device *dev)
+                       if (lp->chip_version == 0x2627)
+                               val |= 3;
+               }
+-              lp->a.write_bcr(ioaddr, 9, val);
++              lp->a->write_bcr(ioaddr, 9, val);
+       }
+       /* set/reset GPSI bit in test register */
+-      val = lp->a.read_csr(ioaddr, 124) & ~0x10;
++      val = lp->a->read_csr(ioaddr, 124) & ~0x10;
+       if ((lp->options & PCNET32_PORT_PORTSEL) == PCNET32_PORT_GPSI)
+               val |= 0x10;
+-      lp->a.write_csr(ioaddr, 124, val);
++      lp->a->write_csr(ioaddr, 124, val);
+       /* Allied Telesyn AT 2700/2701 FX are 100Mbit only and do not negotiate */
+       if (pdev && pdev->subsystem_vendor == PCI_VENDOR_ID_AT &&
+@@ -2167,24 +2167,24 @@ static int pcnet32_open(struct net_device *dev)
+                * duplex, and/or enable auto negotiation, and clear DANAS
+                */
+               if (lp->mii && !(lp->options & PCNET32_PORT_ASEL)) {
+-                      lp->a.write_bcr(ioaddr, 32,
+-                                      lp->a.read_bcr(ioaddr, 32) | 0x0080);
++                      lp->a->write_bcr(ioaddr, 32,
++                                      lp->a->read_bcr(ioaddr, 32) | 0x0080);
+                       /* disable Auto Negotiation, set 10Mpbs, HD */
+-                      val = lp->a.read_bcr(ioaddr, 32) & ~0xb8;
++                      val = lp->a->read_bcr(ioaddr, 32) & ~0xb8;
+                       if (lp->options & PCNET32_PORT_FD)
+                               val |= 0x10;
+                       if (lp->options & PCNET32_PORT_100)
+                               val |= 0x08;
+-                      lp->a.write_bcr(ioaddr, 32, val);
++                      lp->a->write_bcr(ioaddr, 32, val);
+               } else {
+                       if (lp->options & PCNET32_PORT_ASEL) {
+-                              lp->a.write_bcr(ioaddr, 32,
+-                                              lp->a.read_bcr(ioaddr,
++                              lp->a->write_bcr(ioaddr, 32,
++                                              lp->a->read_bcr(ioaddr,
+                                                              32) | 0x0080);
+                               /* enable auto negotiate, setup, disable fd */
+-                              val = lp->a.read_bcr(ioaddr, 32) & ~0x98;
++                              val = lp->a->read_bcr(ioaddr, 32) & ~0x98;
+                               val |= 0x20;
+-                              lp->a.write_bcr(ioaddr, 32, val);
++                              lp->a->write_bcr(ioaddr, 32, val);
+                       }
+               }
+       } else {
+@@ -2197,10 +2197,10 @@ static int pcnet32_open(struct net_device *dev)
+                * There is really no good other way to handle multiple PHYs
+                * other than turning off all automatics
+                */
+-              val = lp->a.read_bcr(ioaddr, 2);
+-              lp->a.write_bcr(ioaddr, 2, val & ~2);
+-              val = lp->a.read_bcr(ioaddr, 32);
+-              lp->a.write_bcr(ioaddr, 32, val & ~(1 << 7));   /* stop MII manager */
++              val = lp->a->read_bcr(ioaddr, 2);
++              lp->a->write_bcr(ioaddr, 2, val & ~2);
++              val = lp->a->read_bcr(ioaddr, 32);
++              lp->a->write_bcr(ioaddr, 32, val & ~(1 << 7));  /* stop MII manager */
+               if (!(lp->options & PCNET32_PORT_ASEL)) {
+                       /* setup ecmd */
+@@ -2210,7 +2210,7 @@ static int pcnet32_open(struct net_device *dev)
+                       ecmd.speed =
+                           lp->
+                           options & PCNET32_PORT_100 ? SPEED_100 : SPEED_10;
+-                      bcr9 = lp->a.read_bcr(ioaddr, 9);
++                      bcr9 = lp->a->read_bcr(ioaddr, 9);
+                       if (lp->options & PCNET32_PORT_FD) {
+                               ecmd.duplex = DUPLEX_FULL;
+@@ -2219,7 +2219,7 @@ static int pcnet32_open(struct net_device *dev)
+                               ecmd.duplex = DUPLEX_HALF;
+                               bcr9 |= ~(1 << 0);
+                       }
+-                      lp->a.write_bcr(ioaddr, 9, bcr9);
++                      lp->a->write_bcr(ioaddr, 9, bcr9);
+               }
+               for (i = 0; i < PCNET32_MAX_PHYS; i++) {
+@@ -2252,9 +2252,9 @@ static int pcnet32_open(struct net_device *dev)
+ #ifdef DO_DXSUFLO
+       if (lp->dxsuflo) {      /* Disable transmit stop on underflow */
+-              val = lp->a.read_csr(ioaddr, CSR3);
++              val = lp->a->read_csr(ioaddr, CSR3);
+               val |= 0x40;
+-              lp->a.write_csr(ioaddr, CSR3, val);
++              lp->a->write_csr(ioaddr, CSR3, val);
+       }
+ #endif
+@@ -2270,11 +2270,11 @@ static int pcnet32_open(struct net_device *dev)
+       napi_enable(&lp->napi);
+       /* Re-initialize the PCNET32, and start it when done. */
+-      lp->a.write_csr(ioaddr, 1, (lp->init_dma_addr & 0xffff));
+-      lp->a.write_csr(ioaddr, 2, (lp->init_dma_addr >> 16));
++      lp->a->write_csr(ioaddr, 1, (lp->init_dma_addr & 0xffff));
++      lp->a->write_csr(ioaddr, 2, (lp->init_dma_addr >> 16));
+-      lp->a.write_csr(ioaddr, CSR4, 0x0915);  /* auto tx pad */
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_INIT);
++      lp->a->write_csr(ioaddr, CSR4, 0x0915); /* auto tx pad */
++      lp->a->write_csr(ioaddr, CSR0, CSR0_INIT);
+       netif_start_queue(dev);
+@@ -2286,20 +2286,20 @@ static int pcnet32_open(struct net_device *dev)
+       i = 0;
+       while (i++ < 100)
+-              if (lp->a.read_csr(ioaddr, CSR0) & CSR0_IDON)
++              if (lp->a->read_csr(ioaddr, CSR0) & CSR0_IDON)
+                       break;
+       /*
+        * We used to clear the InitDone bit, 0x0100, here but Mark Stockton
+        * reports that doing so triggers a bug in the '974.
+        */
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_NORMAL);
++      lp->a->write_csr(ioaddr, CSR0, CSR0_NORMAL);
+       if (netif_msg_ifup(lp))
+               printk(KERN_DEBUG
+                      "%s: pcnet32 open after %d ticks, init block %#x csr0 %4.4x.\n",
+                      dev->name, i,
+                      (u32) (lp->init_dma_addr),
+-                     lp->a.read_csr(ioaddr, CSR0));
++                     lp->a->read_csr(ioaddr, CSR0));
+       spin_unlock_irqrestore(&lp->lock, flags);
+@@ -2313,7 +2313,7 @@ static int pcnet32_open(struct net_device *dev)
+        * Switch back to 16bit mode to avoid problems with dumb
+        * DOS packet driver after a warm reboot
+        */
+-      lp->a.write_bcr(ioaddr, 20, 4);
++      lp->a->write_bcr(ioaddr, 20, 4);
+       err_free_irq:
+       spin_unlock_irqrestore(&lp->lock, flags);
+@@ -2420,7 +2420,7 @@ static void pcnet32_restart(struct net_device *dev, unsigned int csr0_bits)
+       /* wait for stop */
+       for (i = 0; i < 100; i++)
+-              if (lp->a.read_csr(ioaddr, CSR0) & CSR0_STOP)
++              if (lp->a->read_csr(ioaddr, CSR0) & CSR0_STOP)
+                       break;
+       if (i >= 100 && netif_msg_drv(lp))
+@@ -2433,13 +2433,13 @@ static void pcnet32_restart(struct net_device *dev, unsigned int csr0_bits)
+               return;
+       /* ReInit Ring */
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_INIT);
++      lp->a->write_csr(ioaddr, CSR0, CSR0_INIT);
+       i = 0;
+       while (i++ < 1000)
+-              if (lp->a.read_csr(ioaddr, CSR0) & CSR0_IDON)
++              if (lp->a->read_csr(ioaddr, CSR0) & CSR0_IDON)
+                       break;
+-      lp->a.write_csr(ioaddr, CSR0, csr0_bits);
++      lp->a->write_csr(ioaddr, CSR0, csr0_bits);
+ }
+ static void pcnet32_tx_timeout(struct net_device *dev)
+@@ -2452,8 +2452,8 @@ static void pcnet32_tx_timeout(struct net_device *dev)
+       if (pcnet32_debug & NETIF_MSG_DRV)
+               printk(KERN_ERR
+                      "%s: transmit timed out, status %4.4x, resetting.\n",
+-                     dev->name, lp->a.read_csr(ioaddr, CSR0));
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_STOP);
++                     dev->name, lp->a->read_csr(ioaddr, CSR0));
++      lp->a->write_csr(ioaddr, CSR0, CSR0_STOP);
+       dev->stats.tx_errors++;
+       if (netif_msg_tx_err(lp)) {
+               int i;
+@@ -2497,7 +2497,7 @@ static netdev_tx_t pcnet32_start_xmit(struct sk_buff *skb,
+       if (netif_msg_tx_queued(lp)) {
+               printk(KERN_DEBUG
+                      "%s: pcnet32_start_xmit() called, csr0 %4.4x.\n",
+-                     dev->name, lp->a.read_csr(ioaddr, CSR0));
++                     dev->name, lp->a->read_csr(ioaddr, CSR0));
+       }
+       /* Default status -- will not enable Successful-TxDone
+@@ -2528,7 +2528,7 @@ static netdev_tx_t pcnet32_start_xmit(struct sk_buff *skb,
+       dev->stats.tx_bytes += skb->len;
+       /* Trigger an immediate send poll. */
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_INTEN | CSR0_TXPOLL);
++      lp->a->write_csr(ioaddr, CSR0, CSR0_INTEN | CSR0_TXPOLL);
+       dev->trans_start = jiffies;
+@@ -2555,18 +2555,18 @@ pcnet32_interrupt(int irq, void *dev_id)
+       spin_lock(&lp->lock);
+-      csr0 = lp->a.read_csr(ioaddr, CSR0);
++      csr0 = lp->a->read_csr(ioaddr, CSR0);
+       while ((csr0 & 0x8f00) && --boguscnt >= 0) {
+               if (csr0 == 0xffff) {
+                       break;  /* PCMCIA remove happened */
+               }
+               /* Acknowledge all of the current interrupt sources ASAP. */
+-              lp->a.write_csr(ioaddr, CSR0, csr0 & ~0x004f);
++              lp->a->write_csr(ioaddr, CSR0, csr0 & ~0x004f);
+               if (netif_msg_intr(lp))
+                       printk(KERN_DEBUG
+                              "%s: interrupt  csr0=%#2.2x new csr=%#2.2x.\n",
+-                             dev->name, csr0, lp->a.read_csr(ioaddr, CSR0));
++                             dev->name, csr0, lp->a->read_csr(ioaddr, CSR0));
+               /* Log misc errors. */
+               if (csr0 & 0x4000)
+@@ -2595,19 +2595,19 @@ pcnet32_interrupt(int irq, void *dev_id)
+               if (napi_schedule_prep(&lp->napi)) {
+                       u16 val;
+                       /* set interrupt masks */
+-                      val = lp->a.read_csr(ioaddr, CSR3);
++                      val = lp->a->read_csr(ioaddr, CSR3);
+                       val |= 0x5f00;
+-                      lp->a.write_csr(ioaddr, CSR3, val);
++                      lp->a->write_csr(ioaddr, CSR3, val);
+                       __napi_schedule(&lp->napi);
+                       break;
+               }
+-              csr0 = lp->a.read_csr(ioaddr, CSR0);
++              csr0 = lp->a->read_csr(ioaddr, CSR0);
+       }
+       if (netif_msg_intr(lp))
+               printk(KERN_DEBUG "%s: exiting interrupt, csr0=%#4.4x.\n",
+-                     dev->name, lp->a.read_csr(ioaddr, CSR0));
++                     dev->name, lp->a->read_csr(ioaddr, CSR0));
+       spin_unlock(&lp->lock);
+@@ -2627,21 +2627,21 @@ static int pcnet32_close(struct net_device *dev)
+       spin_lock_irqsave(&lp->lock, flags);
+-      dev->stats.rx_missed_errors = lp->a.read_csr(ioaddr, 112);
++      dev->stats.rx_missed_errors = lp->a->read_csr(ioaddr, 112);
+       if (netif_msg_ifdown(lp))
+               printk(KERN_DEBUG
+                      "%s: Shutting down ethercard, status was %2.2x.\n",
+-                     dev->name, lp->a.read_csr(ioaddr, CSR0));
++                     dev->name, lp->a->read_csr(ioaddr, CSR0));
+       /* We stop the PCNET32 here -- it occasionally polls memory if we don't. */
+-      lp->a.write_csr(ioaddr, CSR0, CSR0_STOP);
++      lp->a->write_csr(ioaddr, CSR0, CSR0_STOP);
+       /*
+        * Switch back to 16bit mode to avoid problems with dumb
+        * DOS packet driver after a warm reboot
+        */
+-      lp->a.write_bcr(ioaddr, 20, 4);
++      lp->a->write_bcr(ioaddr, 20, 4);
+       spin_unlock_irqrestore(&lp->lock, flags);
+@@ -2664,7 +2664,7 @@ static struct net_device_stats *pcnet32_get_stats(struct net_device *dev)
+       unsigned long flags;
+       spin_lock_irqsave(&lp->lock, flags);
+-      dev->stats.rx_missed_errors = lp->a.read_csr(ioaddr, 112);
++      dev->stats.rx_missed_errors = lp->a->read_csr(ioaddr, 112);
+       spin_unlock_irqrestore(&lp->lock, flags);
+       return &dev->stats;
+@@ -2686,10 +2686,10 @@ static void pcnet32_load_multicast(struct net_device *dev)
+       if (dev->flags & IFF_ALLMULTI) {
+               ib->filter[0] = cpu_to_le32(~0U);
+               ib->filter[1] = cpu_to_le32(~0U);
+-              lp->a.write_csr(ioaddr, PCNET32_MC_FILTER, 0xffff);
+-              lp->a.write_csr(ioaddr, PCNET32_MC_FILTER+1, 0xffff);
+-              lp->a.write_csr(ioaddr, PCNET32_MC_FILTER+2, 0xffff);
+-              lp->a.write_csr(ioaddr, PCNET32_MC_FILTER+3, 0xffff);
++              lp->a->write_csr(ioaddr, PCNET32_MC_FILTER, 0xffff);
++              lp->a->write_csr(ioaddr, PCNET32_MC_FILTER+1, 0xffff);
++              lp->a->write_csr(ioaddr, PCNET32_MC_FILTER+2, 0xffff);
++              lp->a->write_csr(ioaddr, PCNET32_MC_FILTER+3, 0xffff);
+               return;
+       }
+       /* clear the multicast filter */
+@@ -2710,7 +2710,7 @@ static void pcnet32_load_multicast(struct net_device *dev)
+               mcast_table[crc >> 4] |= cpu_to_le16(1 << (crc & 0xf));
+       }
+       for (i = 0; i < 4; i++)
+-              lp->a.write_csr(ioaddr, PCNET32_MC_FILTER + i,
++              lp->a->write_csr(ioaddr, PCNET32_MC_FILTER + i,
+                               le16_to_cpu(mcast_table[i]));
+       return;
+ }
+@@ -2726,7 +2726,7 @@ static void pcnet32_set_multicast_list(struct net_device *dev)
+       spin_lock_irqsave(&lp->lock, flags);
+       suspended = pcnet32_suspend(dev, &flags, 0);
+-      csr15 = lp->a.read_csr(ioaddr, CSR15);
++      csr15 = lp->a->read_csr(ioaddr, CSR15);
+       if (dev->flags & IFF_PROMISC) {
+               /* Log any net taps. */
+               if (netif_msg_hw(lp))
+@@ -2735,21 +2735,21 @@ static void pcnet32_set_multicast_list(struct net_device *dev)
+               lp->init_block->mode =
+                   cpu_to_le16(0x8000 | (lp->options & PCNET32_PORT_PORTSEL) <<
+                               7);
+-              lp->a.write_csr(ioaddr, CSR15, csr15 | 0x8000);
++              lp->a->write_csr(ioaddr, CSR15, csr15 | 0x8000);
+       } else {
+               lp->init_block->mode =
+                   cpu_to_le16((lp->options & PCNET32_PORT_PORTSEL) << 7);
+-              lp->a.write_csr(ioaddr, CSR15, csr15 & 0x7fff);
++              lp->a->write_csr(ioaddr, CSR15, csr15 & 0x7fff);
+               pcnet32_load_multicast(dev);
+       }
+       if (suspended) {
+               int csr5;
+               /* clear SUSPEND (SPND) - CSR5 bit 0 */
+-              csr5 = lp->a.read_csr(ioaddr, CSR5);
+-              lp->a.write_csr(ioaddr, CSR5, csr5 & (~CSR5_SUSPEND));
++              csr5 = lp->a->read_csr(ioaddr, CSR5);
++              lp->a->write_csr(ioaddr, CSR5, csr5 & (~CSR5_SUSPEND));
+       } else {
+-              lp->a.write_csr(ioaddr, CSR0, CSR0_STOP);
++              lp->a->write_csr(ioaddr, CSR0, CSR0_STOP);
+               pcnet32_restart(dev, CSR0_NORMAL);
+               netif_wake_queue(dev);
+       }
+@@ -2767,8 +2767,8 @@ static int mdio_read(struct net_device *dev, int phy_id, int reg_num)
+       if (!lp->mii)
+               return 0;
+-      lp->a.write_bcr(ioaddr, 33, ((phy_id & 0x1f) << 5) | (reg_num & 0x1f));
+-      val_out = lp->a.read_bcr(ioaddr, 34);
++      lp->a->write_bcr(ioaddr, 33, ((phy_id & 0x1f) << 5) | (reg_num & 0x1f));
++      val_out = lp->a->read_bcr(ioaddr, 34);
+       return val_out;
+ }
+@@ -2782,8 +2782,8 @@ static void mdio_write(struct net_device *dev, int phy_id, int reg_num, int val)
+       if (!lp->mii)
+               return;
+-      lp->a.write_bcr(ioaddr, 33, ((phy_id & 0x1f) << 5) | (reg_num & 0x1f));
+-      lp->a.write_bcr(ioaddr, 34, val);
++      lp->a->write_bcr(ioaddr, 33, ((phy_id & 0x1f) << 5) | (reg_num & 0x1f));
++      lp->a->write_bcr(ioaddr, 34, val);
+ }
+ static int pcnet32_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
+@@ -2862,7 +2862,7 @@ static void pcnet32_check_media(struct net_device *dev, int verbose)
+               curr_link = mii_link_ok(&lp->mii_if);
+       } else {
+               ulong ioaddr = dev->base_addr;  /* card base I/O address */
+-              curr_link = (lp->a.read_bcr(ioaddr, 4) != 0xc0);
++              curr_link = (lp->a->read_bcr(ioaddr, 4) != 0xc0);
+       }
+       if (!curr_link) {
+               if (prev_link || verbose) {
+@@ -2887,13 +2887,13 @@ static void pcnet32_check_media(struct net_device *dev, int verbose)
+                                      (ecmd.duplex ==
+                                       DUPLEX_FULL) ? "full" : "half");
+                       }
+-                      bcr9 = lp->a.read_bcr(dev->base_addr, 9);
++                      bcr9 = lp->a->read_bcr(dev->base_addr, 9);
+                       if ((bcr9 & (1 << 0)) != lp->mii_if.full_duplex) {
+                               if (lp->mii_if.full_duplex)
+                                       bcr9 |= (1 << 0);
+                               else
+                                       bcr9 &= ~(1 << 0);
+-                              lp->a.write_bcr(dev->base_addr, 9, bcr9);
++                              lp->a->write_bcr(dev->base_addr, 9, bcr9);
+                       }
+               } else {
+                       if (netif_msg_link(lp))
+diff --git a/drivers/net/sis190.c b/drivers/net/sis190.c
+index 7cc9898..6eb50d3 100644
+--- a/drivers/net/sis190.c
++++ b/drivers/net/sis190.c
+@@ -1598,7 +1598,7 @@ static int __devinit sis190_get_mac_addr_from_eeprom(struct pci_dev *pdev,
+ static int __devinit sis190_get_mac_addr_from_apc(struct pci_dev *pdev,
+                                                 struct net_device *dev)
+ {
+-      static const u16 __devinitdata ids[] = { 0x0965, 0x0966, 0x0968 };
++      static const u16 __devinitconst ids[] = { 0x0965, 0x0966, 0x0968 };
+       struct sis190_private *tp = netdev_priv(dev);
+       struct pci_dev *isa_bridge;
+       u8 reg, tmp8;
+diff --git a/drivers/net/sundance.c b/drivers/net/sundance.c
+index e13685a..60c948c 100644
+--- a/drivers/net/sundance.c
++++ b/drivers/net/sundance.c
+@@ -225,7 +225,7 @@ enum {
+ struct pci_id_info {
+         const char *name;
+ };
+-static const struct pci_id_info pci_id_tbl[] __devinitdata = {
++static const struct pci_id_info pci_id_tbl[] __devinitconst = {
+       {"D-Link DFE-550TX FAST Ethernet Adapter"},
+       {"D-Link DFE-550FX 100Mbps Fiber-optics Adapter"},
+       {"D-Link DFE-580TX 4 port Server Adapter"},
+diff --git a/drivers/net/tg3.h b/drivers/net/tg3.h
+index 529f55a..cccaa18 100644
+--- a/drivers/net/tg3.h
++++ b/drivers/net/tg3.h
+@@ -95,6 +95,7 @@
+ #define  CHIPREV_ID_5750_A0            0x4000
+ #define  CHIPREV_ID_5750_A1            0x4001
+ #define  CHIPREV_ID_5750_A3            0x4003
++#define  CHIPREV_ID_5750_C1            0x4201
+ #define  CHIPREV_ID_5750_C2            0x4202
+ #define  CHIPREV_ID_5752_A0_HW                 0x5000
+ #define  CHIPREV_ID_5752_A0            0x6000
+diff --git a/drivers/net/tokenring/abyss.c b/drivers/net/tokenring/abyss.c
+index b9db1b5..720f9ce 100644
+--- a/drivers/net/tokenring/abyss.c
++++ b/drivers/net/tokenring/abyss.c
+@@ -451,10 +451,12 @@ static struct pci_driver abyss_driver = {
+ static int __init abyss_init (void)
+ {
+-      abyss_netdev_ops = tms380tr_netdev_ops;
++      pax_open_kernel();
++      memcpy((void *)&abyss_netdev_ops, &tms380tr_netdev_ops, sizeof(tms380tr_netdev_ops));
+-      abyss_netdev_ops.ndo_open = abyss_open;
+-      abyss_netdev_ops.ndo_stop = abyss_close;
++      *(void **)&abyss_netdev_ops.ndo_open = abyss_open;
++      *(void **)&abyss_netdev_ops.ndo_stop = abyss_close;
++      pax_close_kernel();
+       return pci_register_driver(&abyss_driver);
+ }
+diff --git a/drivers/net/tokenring/madgemc.c b/drivers/net/tokenring/madgemc.c
+index 456f8bf..373e56d 100644
+--- a/drivers/net/tokenring/madgemc.c
++++ b/drivers/net/tokenring/madgemc.c
+@@ -755,9 +755,11 @@ static struct mca_driver madgemc_driver = {
+ static int __init madgemc_init (void)
+ {
+-      madgemc_netdev_ops = tms380tr_netdev_ops;
+-      madgemc_netdev_ops.ndo_open = madgemc_open;
+-      madgemc_netdev_ops.ndo_stop = madgemc_close;
++      pax_open_kernel();
++      memcpy((void *)&madgemc_netdev_ops, &tms380tr_netdev_ops, sizeof(tms380tr_netdev_ops));
++      *(void **)&madgemc_netdev_ops.ndo_open = madgemc_open;
++      *(void **)&madgemc_netdev_ops.ndo_stop = madgemc_close;
++      pax_close_kernel();
+       return mca_register_driver (&madgemc_driver);
+ }
+diff --git a/drivers/net/tokenring/proteon.c b/drivers/net/tokenring/proteon.c
+index 16e8783..925bd49 100644
+--- a/drivers/net/tokenring/proteon.c
++++ b/drivers/net/tokenring/proteon.c
+@@ -353,9 +353,11 @@ static int __init proteon_init(void)
+       struct platform_device *pdev;
+       int i, num = 0, err = 0;
+-      proteon_netdev_ops = tms380tr_netdev_ops;
+-      proteon_netdev_ops.ndo_open = proteon_open;
+-      proteon_netdev_ops.ndo_stop = tms380tr_close;
++      pax_open_kernel();
++      memcpy((void *)&proteon_netdev_ops, &tms380tr_netdev_ops, sizeof(tms380tr_netdev_ops));
++      *(void **)&proteon_netdev_ops.ndo_open = proteon_open;
++      *(void **)&proteon_netdev_ops.ndo_stop = tms380tr_close;
++      pax_close_kernel();
+       err = platform_driver_register(&proteon_driver);
+       if (err)
+diff --git a/drivers/net/tokenring/skisa.c b/drivers/net/tokenring/skisa.c
+index 46db5c5..37c1536 100644
+--- a/drivers/net/tokenring/skisa.c
++++ b/drivers/net/tokenring/skisa.c
+@@ -363,9 +363,11 @@ static int __init sk_isa_init(void)
+       struct platform_device *pdev;
+       int i, num = 0, err = 0;
+-      sk_isa_netdev_ops = tms380tr_netdev_ops;
+-      sk_isa_netdev_ops.ndo_open = sk_isa_open;
+-      sk_isa_netdev_ops.ndo_stop = tms380tr_close;
++      pax_open_kernel();
++      memcpy((void *)&sk_isa_netdev_ops, &tms380tr_netdev_ops, sizeof(tms380tr_netdev_ops));
++      *(void **)&sk_isa_netdev_ops.ndo_open = sk_isa_open;
++      *(void **)&sk_isa_netdev_ops.ndo_stop = tms380tr_close;
++      pax_close_kernel();
+       err = platform_driver_register(&sk_isa_driver);
+       if (err)
+diff --git a/drivers/net/tulip/de2104x.c b/drivers/net/tulip/de2104x.c
+index 74e5ba4..5cf6bc9 100644
+--- a/drivers/net/tulip/de2104x.c
++++ b/drivers/net/tulip/de2104x.c
+@@ -1785,6 +1785,8 @@ static void __devinit de21041_get_srom_info (struct de_private *de)
+       struct de_srom_info_leaf *il;
+       void *bufp;
++      pax_track_stack();
++
+       /* download entire eeprom */
+       for (i = 0; i < DE_EEPROM_WORDS; i++)
+               ((__le16 *)ee_data)[i] =
+diff --git a/drivers/net/tulip/de4x5.c b/drivers/net/tulip/de4x5.c
+index a8349b7..90f9dfe 100644
+--- a/drivers/net/tulip/de4x5.c
++++ b/drivers/net/tulip/de4x5.c
+@@ -5472,7 +5472,7 @@ de4x5_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
+       for (i=0; i<ETH_ALEN; i++) {
+           tmp.addr[i] = dev->dev_addr[i];
+       }
+-      if (copy_to_user(ioc->data, tmp.addr, ioc->len)) return -EFAULT;
++      if (ioc->len > sizeof tmp.addr || copy_to_user(ioc->data, tmp.addr, ioc->len)) return -EFAULT;
+       break;
+     case DE4X5_SET_HWADDR:           /* Set the hardware address */
+@@ -5512,7 +5512,7 @@ de4x5_ioctl(struct net_device *dev, struct ifreq *rq, int cmd)
+       spin_lock_irqsave(&lp->lock, flags);
+       memcpy(&statbuf, &lp->pktStats, ioc->len);
+       spin_unlock_irqrestore(&lp->lock, flags);
+-      if (copy_to_user(ioc->data, &statbuf, ioc->len))
++      if (ioc->len > sizeof statbuf || copy_to_user(ioc->data, &statbuf, ioc->len))
+               return -EFAULT;
+       break;
+     }
+diff --git a/drivers/net/tulip/eeprom.c b/drivers/net/tulip/eeprom.c
+index 391acd3..56d11cd 100644
+--- a/drivers/net/tulip/eeprom.c
++++ b/drivers/net/tulip/eeprom.c
+@@ -80,7 +80,7 @@ static struct eeprom_fixup eeprom_fixups[] __devinitdata = {
+   {NULL}};
+-static const char *block_name[] __devinitdata = {
++static const char *block_name[] __devinitconst = {
+       "21140 non-MII",
+       "21140 MII PHY",
+       "21142 Serial PHY",
+diff --git a/drivers/net/tulip/winbond-840.c b/drivers/net/tulip/winbond-840.c
+index b38d3b7..b1cff23 100644
+--- a/drivers/net/tulip/winbond-840.c
++++ b/drivers/net/tulip/winbond-840.c
+@@ -235,7 +235,7 @@ struct pci_id_info {
+         int drv_flags;                /* Driver use, intended as capability flags. */
+ };
+-static const struct pci_id_info pci_id_tbl[] __devinitdata = {
++static const struct pci_id_info pci_id_tbl[] __devinitconst = {
+       {                               /* Sometime a Level-One switch card. */
+         "Winbond W89c840",    CanHaveMII | HasBrokenTx | FDXOnNoMII},
+       { "Winbond W89c840",    CanHaveMII | HasBrokenTx},
+diff --git a/drivers/net/usb/hso.c b/drivers/net/usb/hso.c
+index f450bc9..2b747c8 100644
+--- a/drivers/net/usb/hso.c
++++ b/drivers/net/usb/hso.c
+@@ -71,7 +71,7 @@
+ #include <asm/byteorder.h>
+ #include <linux/serial_core.h>
+ #include <linux/serial.h>
+-
++#include <asm/local.h>
+ #define DRIVER_VERSION                        "1.2"
+ #define MOD_AUTHOR                    "Option Wireless"
+@@ -258,7 +258,7 @@ struct hso_serial {
+       /* from usb_serial_port */
+       struct tty_struct *tty;
+-      int open_count;
++      local_t open_count;
+       spinlock_t serial_lock;
+       int (*write_data) (struct hso_serial *serial);
+@@ -1180,7 +1180,7 @@ static void put_rxbuf_data_and_resubmit_ctrl_urb(struct hso_serial *serial)
+       struct urb *urb;
+       urb = serial->rx_urb[0];
+-      if (serial->open_count > 0) {
++      if (local_read(&serial->open_count) > 0) {
+               count = put_rxbuf_data(urb, serial);
+               if (count == -1)
+                       return;
+@@ -1216,7 +1216,7 @@ static void hso_std_serial_read_bulk_callback(struct urb *urb)
+       DUMP1(urb->transfer_buffer, urb->actual_length);
+       /* Anyone listening? */
+-      if (serial->open_count == 0)
++      if (local_read(&serial->open_count) == 0)
+               return;
+       if (status == 0) {
+@@ -1311,8 +1311,7 @@ static int hso_serial_open(struct tty_struct *tty, struct file *filp)
+       spin_unlock_irq(&serial->serial_lock);
+       /* check for port already opened, if not set the termios */
+-      serial->open_count++;
+-      if (serial->open_count == 1) {
++      if (local_inc_return(&serial->open_count) == 1) {
+               tty->low_latency = 1;
+               serial->rx_state = RX_IDLE;
+               /* Force default termio settings */
+@@ -1325,7 +1324,7 @@ static int hso_serial_open(struct tty_struct *tty, struct file *filp)
+               result = hso_start_serial_device(serial->parent, GFP_KERNEL);
+               if (result) {
+                       hso_stop_serial_device(serial->parent);
+-                      serial->open_count--;
++                      local_dec(&serial->open_count);
+                       kref_put(&serial->parent->ref, hso_serial_ref_free);
+               }
+       } else {
+@@ -1362,10 +1361,10 @@ static void hso_serial_close(struct tty_struct *tty, struct file *filp)
+       /* reset the rts and dtr */
+       /* do the actual close */
+-      serial->open_count--;
++      local_dec(&serial->open_count);
+-      if (serial->open_count <= 0) {
+-              serial->open_count = 0;
++      if (local_read(&serial->open_count) <= 0) {
++              local_set(&serial->open_count,  0);
+               spin_lock_irq(&serial->serial_lock);
+               if (serial->tty == tty) {
+                       serial->tty->driver_data = NULL;
+@@ -1447,7 +1446,7 @@ static void hso_serial_set_termios(struct tty_struct *tty, struct ktermios *old)
+       /* the actual setup */
+       spin_lock_irqsave(&serial->serial_lock, flags);
+-      if (serial->open_count)
++      if (local_read(&serial->open_count))
+               _hso_serial_set_termios(tty, old);
+       else
+               tty->termios = old;
+@@ -3097,7 +3096,7 @@ static int hso_resume(struct usb_interface *iface)
+       /* Start all serial ports */
+       for (i = 0; i < HSO_SERIAL_TTY_MINORS; i++) {
+               if (serial_table[i] && (serial_table[i]->interface == iface)) {
+-                      if (dev2ser(serial_table[i])->open_count) {
++                      if (local_read(&dev2ser(serial_table[i])->open_count)) {
+                               result =
+                                   hso_start_serial_device(serial_table[i], GFP_NOIO);
+                               hso_kick_transmit(dev2ser(serial_table[i]));
+diff --git a/drivers/net/vxge/vxge-config.h b/drivers/net/vxge/vxge-config.h
+index 3e94f0c..ffdd926 100644
+--- a/drivers/net/vxge/vxge-config.h
++++ b/drivers/net/vxge/vxge-config.h
+@@ -474,7 +474,7 @@ struct vxge_hw_uld_cbs {
+       void (*link_down)(struct __vxge_hw_device *devh);
+       void (*crit_err)(struct __vxge_hw_device *devh,
+                       enum vxge_hw_event type, u64 ext_data);
+-};
++} __no_const;
+ /*
+  * struct __vxge_hw_blockpool_entry - Block private data structure
+diff --git a/drivers/net/vxge/vxge-main.c b/drivers/net/vxge/vxge-main.c
+index 068d7a9..35293de 100644
+--- a/drivers/net/vxge/vxge-main.c
++++ b/drivers/net/vxge/vxge-main.c
+@@ -93,6 +93,8 @@ static inline void VXGE_COMPLETE_VPATH_TX(struct vxge_fifo *fifo)
+       struct sk_buff *completed[NR_SKB_COMPLETED];
+       int more;
++      pax_track_stack();
++
+       do {
+               more = 0;
+               skb_ptr = completed;
+@@ -1779,6 +1781,8 @@ static enum vxge_hw_status vxge_rth_configure(struct vxgedev *vdev)
+       u8 mtable[256] = {0}; /* CPU to vpath mapping  */
+       int index;
++      pax_track_stack();
++
+       /*
+        * Filling
+        *      - itable with bucket numbers
+diff --git a/drivers/net/vxge/vxge-traffic.h b/drivers/net/vxge/vxge-traffic.h
+index 461742b..81be42e 100644
+--- a/drivers/net/vxge/vxge-traffic.h
++++ b/drivers/net/vxge/vxge-traffic.h
+@@ -2123,7 +2123,7 @@ struct vxge_hw_mempool_cbs {
+                       struct vxge_hw_mempool_dma      *dma_object,
+                       u32                     index,
+                       u32                     is_last);
+-};
++} __no_const;
+ void
+ __vxge_hw_mempool_destroy(
+diff --git a/drivers/net/wan/cycx_x25.c b/drivers/net/wan/cycx_x25.c
+index cd8cb95..4153b79 100644
+--- a/drivers/net/wan/cycx_x25.c
++++ b/drivers/net/wan/cycx_x25.c
+@@ -1017,6 +1017,8 @@ static void hex_dump(char *msg, unsigned char *p, int len)
+       unsigned char hex[1024],
+               * phex = hex;
++      pax_track_stack();
++
+       if (len >= (sizeof(hex) / 2))
+               len = (sizeof(hex) / 2) - 1;
+diff --git a/drivers/net/wan/hdlc_x25.c b/drivers/net/wan/hdlc_x25.c
+index aa9248f..a4e3c3b 100644
+--- a/drivers/net/wan/hdlc_x25.c
++++ b/drivers/net/wan/hdlc_x25.c
+@@ -136,16 +136,16 @@ static netdev_tx_t x25_xmit(struct sk_buff *skb, struct net_device *dev)
+ static int x25_open(struct net_device *dev)
+ {
+-      struct lapb_register_struct cb;
++      static struct lapb_register_struct cb = {
++              .connect_confirmation = x25_connected,
++              .connect_indication = x25_connected,
++              .disconnect_confirmation = x25_disconnected,
++              .disconnect_indication = x25_disconnected,
++              .data_indication = x25_data_indication,
++              .data_transmit = x25_data_transmit
++      };
+       int result;
+-      cb.connect_confirmation = x25_connected;
+-      cb.connect_indication = x25_connected;
+-      cb.disconnect_confirmation = x25_disconnected;
+-      cb.disconnect_indication = x25_disconnected;
+-      cb.data_indication = x25_data_indication;
+-      cb.data_transmit = x25_data_transmit;
+-
+       result = lapb_register(dev, &cb);
+       if (result != LAPB_OK)
+               return result;
+diff --git a/drivers/net/wimax/i2400m/usb-fw.c b/drivers/net/wimax/i2400m/usb-fw.c
+index 5ad287c..783b020 100644
+--- a/drivers/net/wimax/i2400m/usb-fw.c
++++ b/drivers/net/wimax/i2400m/usb-fw.c
+@@ -263,6 +263,8 @@ ssize_t i2400mu_bus_bm_wait_for_ack(struct i2400m *i2400m,
+       int do_autopm = 1;
+       DECLARE_COMPLETION_ONSTACK(notif_completion);
++      pax_track_stack();
++
+       d_fnstart(8, dev, "(i2400m %p ack %p size %zu)\n",
+                 i2400m, ack, ack_size);
+       BUG_ON(_ack == i2400m->bm_ack_buf);
+diff --git a/drivers/net/wireless/airo.c b/drivers/net/wireless/airo.c
+index 6c26840..62c97c3 100644
+--- a/drivers/net/wireless/airo.c
++++ b/drivers/net/wireless/airo.c
+@@ -3003,6 +3003,8 @@ static void airo_process_scan_results (struct airo_info *ai) {
+       BSSListElement * loop_net;
+       BSSListElement * tmp_net;
++      pax_track_stack();
++
+       /* Blow away current list of scan results */
+       list_for_each_entry_safe (loop_net, tmp_net, &ai->network_list, list) {
+               list_move_tail (&loop_net->list, &ai->network_free_list);
+@@ -3783,6 +3785,8 @@ static u16 setup_card(struct airo_info *ai, u8 *mac, int lock)
+       WepKeyRid wkr;
+       int rc;
++      pax_track_stack();
++
+       memset( &mySsid, 0, sizeof( mySsid ) );
+       kfree (ai->flash);
+       ai->flash = NULL;
+@@ -4758,6 +4762,8 @@ static int proc_stats_rid_open( struct inode *inode,
+       __le32 *vals = stats.vals;
+       int len;
++      pax_track_stack();
++
+       if ((file->private_data = kzalloc(sizeof(struct proc_data ), GFP_KERNEL)) == NULL)
+               return -ENOMEM;
+       data = (struct proc_data *)file->private_data;
+@@ -5487,6 +5493,8 @@ static int proc_BSSList_open( struct inode *inode, struct file *file ) {
+       /* If doLoseSync is not 1, we won't do a Lose Sync */
+       int doLoseSync = -1;
++      pax_track_stack();
++
+       if ((file->private_data = kzalloc(sizeof(struct proc_data ), GFP_KERNEL)) == NULL)
+               return -ENOMEM;
+       data = (struct proc_data *)file->private_data;
+@@ -7193,6 +7201,8 @@ static int airo_get_aplist(struct net_device *dev,
+       int i;
+       int loseSync = capable(CAP_NET_ADMIN) ? 1: -1;
++      pax_track_stack();
++
+       qual = kmalloc(IW_MAX_AP * sizeof(*qual), GFP_KERNEL);
+       if (!qual)
+               return -ENOMEM;
+@@ -7753,6 +7763,8 @@ static void airo_read_wireless_stats(struct airo_info *local)
+       CapabilityRid cap_rid;
+       __le32 *vals = stats_rid.vals;
++      pax_track_stack();
++
+       /* Get stats out of the card */
+       clear_bit(JOB_WSTATS, &local->jobs);
+       if (local->power.event) {
+diff --git a/drivers/net/wireless/ath/ath5k/debug.c b/drivers/net/wireless/ath/ath5k/debug.c
+index 747508c..82e965d 100644
+--- a/drivers/net/wireless/ath/ath5k/debug.c
++++ b/drivers/net/wireless/ath/ath5k/debug.c
+@@ -205,6 +205,8 @@ static ssize_t read_file_beacon(struct file *file, char __user *user_buf,
+       unsigned int v;
+       u64 tsf;
++      pax_track_stack();
++
+       v = ath5k_hw_reg_read(sc->ah, AR5K_BEACON);
+       len += snprintf(buf+len, sizeof(buf)-len,
+               "%-24s0x%08x\tintval: %d\tTIM: 0x%x\n",
+@@ -318,6 +320,8 @@ static ssize_t read_file_debug(struct file *file, char __user *user_buf,
+       unsigned int len = 0;
+       unsigned int i;
++      pax_track_stack();
++
+       len += snprintf(buf+len, sizeof(buf)-len,
+               "DEBUG LEVEL: 0x%08x\n\n", sc->debug.level);
+diff --git a/drivers/net/wireless/ath/ath9k/debug.c b/drivers/net/wireless/ath/ath9k/debug.c
+index 2be4c22..593b1eb 100644
+--- a/drivers/net/wireless/ath/ath9k/debug.c
++++ b/drivers/net/wireless/ath/ath9k/debug.c
+@@ -220,6 +220,8 @@ static ssize_t read_file_interrupt(struct file *file, char __user *user_buf,
+       char buf[512];
+       unsigned int len = 0;
++      pax_track_stack();
++
+       len += snprintf(buf + len, sizeof(buf) - len,
+               "%8s: %10u\n", "RX", sc->debug.stats.istats.rxok);
+       len += snprintf(buf + len, sizeof(buf) - len,
+@@ -360,6 +362,8 @@ static ssize_t read_file_wiphy(struct file *file, char __user *user_buf,
+       int i;
+       u8 addr[ETH_ALEN];
++      pax_track_stack();
++
+       len += snprintf(buf + len, sizeof(buf) - len,
+                       "primary: %s (%s chan=%d ht=%d)\n",
+                       wiphy_name(sc->pri_wiphy->hw->wiphy),
+diff --git a/drivers/net/wireless/b43/debugfs.c b/drivers/net/wireless/b43/debugfs.c
+index 80b19a4..dab3a45 100644
+--- a/drivers/net/wireless/b43/debugfs.c
++++ b/drivers/net/wireless/b43/debugfs.c
+@@ -43,7 +43,7 @@ static struct dentry *rootdir;
+ struct b43_debugfs_fops {
+       ssize_t (*read)(struct b43_wldev *dev, char *buf, size_t bufsize);
+       int (*write)(struct b43_wldev *dev, const char *buf, size_t count);
+-      struct file_operations fops;
++      const struct file_operations fops;
+       /* Offset of struct b43_dfs_file in struct b43_dfsentry */
+       size_t file_struct_offset;
+ };
+diff --git a/drivers/net/wireless/b43legacy/debugfs.c b/drivers/net/wireless/b43legacy/debugfs.c
+index 1f85ac5..c99b4b4 100644
+--- a/drivers/net/wireless/b43legacy/debugfs.c
++++ b/drivers/net/wireless/b43legacy/debugfs.c
+@@ -44,7 +44,7 @@ static struct dentry *rootdir;
+ struct b43legacy_debugfs_fops {
+       ssize_t (*read)(struct b43legacy_wldev *dev, char *buf, size_t bufsize);
+       int (*write)(struct b43legacy_wldev *dev, const char *buf, size_t count);
+-      struct file_operations fops;
++      const struct file_operations fops;
+       /* Offset of struct b43legacy_dfs_file in struct b43legacy_dfsentry */
+       size_t file_struct_offset;
+       /* Take wl->irq_lock before calling read/write? */
+diff --git a/drivers/net/wireless/ipw2x00/ipw2100.c b/drivers/net/wireless/ipw2x00/ipw2100.c
+index 43102bf..3b569c3 100644
+--- a/drivers/net/wireless/ipw2x00/ipw2100.c
++++ b/drivers/net/wireless/ipw2x00/ipw2100.c
+@@ -2014,6 +2014,8 @@ static int ipw2100_set_essid(struct ipw2100_priv *priv, char *essid,
+       int err;
+       DECLARE_SSID_BUF(ssid);
++      pax_track_stack();
++
+       IPW_DEBUG_HC("SSID: '%s'\n", print_ssid(ssid, essid, ssid_len));
+       if (ssid_len)
+@@ -5380,6 +5382,8 @@ static int ipw2100_set_key(struct ipw2100_priv *priv,
+       struct ipw2100_wep_key *wep_key = (void *)cmd.host_command_parameters;
+       int err;
++      pax_track_stack();
++
+       IPW_DEBUG_HC("WEP_KEY_INFO: index = %d, len = %d/%d\n",
+                    idx, keylen, len);
+diff --git a/drivers/net/wireless/ipw2x00/libipw_rx.c b/drivers/net/wireless/ipw2x00/libipw_rx.c
+index 282b1f7..169f0cf 100644
+--- a/drivers/net/wireless/ipw2x00/libipw_rx.c
++++ b/drivers/net/wireless/ipw2x00/libipw_rx.c
+@@ -1566,6 +1566,8 @@ static void libipw_process_probe_response(struct libipw_device
+       unsigned long flags;
+       DECLARE_SSID_BUF(ssid);
++      pax_track_stack();
++
+       LIBIPW_DEBUG_SCAN("'%s' (%pM"
+                    "): %c%c%c%c %c%c%c%c-%c%c%c%c %c%c%c%c\n",
+                    print_ssid(ssid, info_element->data, info_element->len),
+diff --git a/drivers/net/wireless/iwlwifi/iwl-1000.c b/drivers/net/wireless/iwlwifi/iwl-1000.c
+index 950267a..80d5fd2 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-1000.c
++++ b/drivers/net/wireless/iwlwifi/iwl-1000.c
+@@ -137,7 +137,7 @@ static struct iwl_lib_ops iwl1000_lib = {
+        },
+ };
+-static struct iwl_ops iwl1000_ops = {
++static const struct iwl_ops iwl1000_ops = {
+       .ucode = &iwl5000_ucode,
+       .lib = &iwl1000_lib,
+       .hcmd = &iwl5000_hcmd,
+diff --git a/drivers/net/wireless/iwlwifi/iwl-3945.c b/drivers/net/wireless/iwlwifi/iwl-3945.c
+index 56bfcc3..b348020 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-3945.c
++++ b/drivers/net/wireless/iwlwifi/iwl-3945.c
+@@ -2874,7 +2874,7 @@ static struct iwl_hcmd_utils_ops iwl3945_hcmd_utils = {
+       .build_addsta_hcmd = iwl3945_build_addsta_hcmd,
+ };
+-static struct iwl_ops iwl3945_ops = {
++static const struct iwl_ops iwl3945_ops = {
+       .ucode = &iwl3945_ucode,
+       .lib = &iwl3945_lib,
+       .hcmd = &iwl3945_hcmd,
+diff --git a/drivers/net/wireless/iwlwifi/iwl-4965.c b/drivers/net/wireless/iwlwifi/iwl-4965.c
+index 585b8d4..e142963 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-4965.c
++++ b/drivers/net/wireless/iwlwifi/iwl-4965.c
+@@ -2345,7 +2345,7 @@ static struct iwl_lib_ops iwl4965_lib = {
+       },
+ };
+-static struct iwl_ops iwl4965_ops = {
++static const struct iwl_ops iwl4965_ops = {
+       .ucode = &iwl4965_ucode,
+       .lib = &iwl4965_lib,
+       .hcmd = &iwl4965_hcmd,
+diff --git a/drivers/net/wireless/iwlwifi/iwl-5000.c b/drivers/net/wireless/iwlwifi/iwl-5000.c
+index 1f423f2..e37c192 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-5000.c
++++ b/drivers/net/wireless/iwlwifi/iwl-5000.c
+@@ -1633,14 +1633,14 @@ static struct iwl_lib_ops iwl5150_lib = {
+        },
+ };
+-struct iwl_ops iwl5000_ops = {
++const struct iwl_ops iwl5000_ops = {
+       .ucode = &iwl5000_ucode,
+       .lib = &iwl5000_lib,
+       .hcmd = &iwl5000_hcmd,
+       .utils = &iwl5000_hcmd_utils,
+ };
+-static struct iwl_ops iwl5150_ops = {
++static const struct iwl_ops iwl5150_ops = {
+       .ucode = &iwl5000_ucode,
+       .lib = &iwl5150_lib,
+       .hcmd = &iwl5000_hcmd,
+diff --git a/drivers/net/wireless/iwlwifi/iwl-6000.c b/drivers/net/wireless/iwlwifi/iwl-6000.c
+index 1473452..f07d5e1 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-6000.c
++++ b/drivers/net/wireless/iwlwifi/iwl-6000.c
+@@ -146,7 +146,7 @@ static struct iwl_hcmd_utils_ops iwl6000_hcmd_utils = {
+       .calc_rssi = iwl5000_calc_rssi,
+ };
+-static struct iwl_ops iwl6000_ops = {
++static const struct iwl_ops iwl6000_ops = {
+       .ucode = &iwl5000_ucode,
+       .lib = &iwl6000_lib,
+       .hcmd = &iwl5000_hcmd,
+diff --git a/drivers/net/wireless/iwlwifi/iwl-agn-rs.c b/drivers/net/wireless/iwlwifi/iwl-agn-rs.c
+index 1a3dfa2..b3e0a61 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-agn-rs.c
++++ b/drivers/net/wireless/iwlwifi/iwl-agn-rs.c
+@@ -857,6 +857,8 @@ static void rs_tx_status(void *priv_r, struct ieee80211_supported_band *sband,
+       u8 active_index = 0;
+       s32 tpt = 0;
++      pax_track_stack();
++
+       IWL_DEBUG_RATE_LIMIT(priv, "get frame ack response, update rate scale window\n");
+       if (!ieee80211_is_data(hdr->frame_control) ||
+@@ -2722,6 +2724,8 @@ static void rs_fill_link_cmd(struct iwl_priv *priv,
+       u8 valid_tx_ant = 0;
+       struct iwl_link_quality_cmd *lq_cmd = &lq_sta->lq;
++      pax_track_stack();
++
+       /* Override starting rate (index 0) if needed for debug purposes */
+       rs_dbgfs_set_mcs(lq_sta, &new_rate, index);
+diff --git a/drivers/net/wireless/iwlwifi/iwl-agn.c b/drivers/net/wireless/iwlwifi/iwl-agn.c
+index 0e56d78..6a3c107 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-agn.c
++++ b/drivers/net/wireless/iwlwifi/iwl-agn.c
+@@ -2911,7 +2911,9 @@ static int iwl_pci_probe(struct pci_dev *pdev, const struct pci_device_id *ent)
+               if (iwl_debug_level & IWL_DL_INFO)
+                       dev_printk(KERN_DEBUG, &(pdev->dev),
+                                  "Disabling hw_scan\n");
+-              iwl_hw_ops.hw_scan = NULL;
++              pax_open_kernel();
++              *(void **)&iwl_hw_ops.hw_scan = NULL;
++              pax_close_kernel();
+       }
+       hw = iwl_alloc_all(cfg, &iwl_hw_ops);
+diff --git a/drivers/net/wireless/iwlwifi/iwl-debug.h b/drivers/net/wireless/iwlwifi/iwl-debug.h
+index cbc6290..eb323d7 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-debug.h
++++ b/drivers/net/wireless/iwlwifi/iwl-debug.h
+@@ -118,8 +118,8 @@ void iwl_dbgfs_unregister(struct iwl_priv *priv);
+ #endif
+ #else
+-#define IWL_DEBUG(__priv, level, fmt, args...)
+-#define IWL_DEBUG_LIMIT(__priv, level, fmt, args...)
++#define IWL_DEBUG(__priv, level, fmt, args...) do {} while (0)
++#define IWL_DEBUG_LIMIT(__priv, level, fmt, args...) do {} while (0)
+ static inline void iwl_print_hex_dump(struct iwl_priv *priv, int level,
+                                     void *p, u32 len)
+ {}
+diff --git a/drivers/net/wireless/iwlwifi/iwl-debugfs.c b/drivers/net/wireless/iwlwifi/iwl-debugfs.c
+index a198bcf..8e68233 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-debugfs.c
++++ b/drivers/net/wireless/iwlwifi/iwl-debugfs.c
+@@ -524,6 +524,8 @@ static ssize_t iwl_dbgfs_status_read(struct file *file,
+       int pos = 0;
+       const size_t bufsz = sizeof(buf);
++      pax_track_stack();
++
+       pos += scnprintf(buf + pos, bufsz - pos, "STATUS_HCMD_ACTIVE:\t %d\n",
+               test_bit(STATUS_HCMD_ACTIVE, &priv->status));
+       pos += scnprintf(buf + pos, bufsz - pos, "STATUS_HCMD_SYNC_ACTIVE: %d\n",
+@@ -658,6 +660,8 @@ static ssize_t iwl_dbgfs_qos_read(struct file *file, char __user *user_buf,
+       const size_t bufsz = sizeof(buf);
+       ssize_t ret;
++      pax_track_stack();
++
+       for (i = 0; i < AC_NUM; i++) {
+               pos += scnprintf(buf + pos, bufsz - pos,
+                       "\tcw_min\tcw_max\taifsn\ttxop\n");
+diff --git a/drivers/net/wireless/iwlwifi/iwl-dev.h b/drivers/net/wireless/iwlwifi/iwl-dev.h
+index 3539ea4..b174bfa 100644
+--- a/drivers/net/wireless/iwlwifi/iwl-dev.h
++++ b/drivers/net/wireless/iwlwifi/iwl-dev.h
+@@ -68,7 +68,7 @@ struct iwl_tx_queue;
+ /* shared structures from iwl-5000.c */
+ extern struct iwl_mod_params iwl50_mod_params;
+-extern struct iwl_ops iwl5000_ops;
++extern const struct iwl_ops iwl5000_ops;
+ extern struct iwl_ucode_ops iwl5000_ucode;
+ extern struct iwl_lib_ops iwl5000_lib;
+ extern struct iwl_hcmd_ops iwl5000_hcmd;
+diff --git a/drivers/net/wireless/iwlwifi/iwl3945-base.c b/drivers/net/wireless/iwlwifi/iwl3945-base.c
+index 619590d..69235ee 100644
+--- a/drivers/net/wireless/iwlwifi/iwl3945-base.c
++++ b/drivers/net/wireless/iwlwifi/iwl3945-base.c
+@@ -3927,7 +3927,9 @@ static int iwl3945_pci_probe(struct pci_dev *pdev, const struct pci_device_id *e
+        */
+       if (iwl3945_mod_params.disable_hw_scan) {
+               IWL_DEBUG_INFO(priv, "Disabling hw_scan\n");
+-              iwl3945_hw_ops.hw_scan = NULL;
++              pax_open_kernel();
++              *(void **)&iwl3945_hw_ops.hw_scan = NULL;
++              pax_close_kernel();
+       }
+diff --git a/drivers/net/wireless/iwmc3200wifi/debugfs.c b/drivers/net/wireless/iwmc3200wifi/debugfs.c
+index 1465379..fe4d78b 100644
+--- a/drivers/net/wireless/iwmc3200wifi/debugfs.c
++++ b/drivers/net/wireless/iwmc3200wifi/debugfs.c
+@@ -299,6 +299,8 @@ static ssize_t iwm_debugfs_fw_err_read(struct file *filp,
+       int buf_len = 512;
+       size_t len = 0;
++      pax_track_stack();
++
+       if (*ppos != 0)
+               return 0;
+       if (count < sizeof(buf))
+diff --git a/drivers/net/wireless/libertas/debugfs.c b/drivers/net/wireless/libertas/debugfs.c
+index 893a55c..7f66a50 100644
+--- a/drivers/net/wireless/libertas/debugfs.c
++++ b/drivers/net/wireless/libertas/debugfs.c
+@@ -708,7 +708,7 @@ out_unlock:
+ struct lbs_debugfs_files {
+       const char *name;
+       int perm;
+-      struct file_operations fops;
++      const struct file_operations fops;
+ };
+ static const struct lbs_debugfs_files debugfs_files[] = {
+diff --git a/drivers/net/wireless/rndis_wlan.c b/drivers/net/wireless/rndis_wlan.c
+index 2ecbedb..42704f0 100644
+--- a/drivers/net/wireless/rndis_wlan.c
++++ b/drivers/net/wireless/rndis_wlan.c
+@@ -1176,7 +1176,7 @@ static int set_rts_threshold(struct usbnet *usbdev, u32 rts_threshold)
+       devdbg(usbdev, "set_rts_threshold %i", rts_threshold);
+-      if (rts_threshold < 0 || rts_threshold > 2347)
++      if (rts_threshold > 2347)
+               rts_threshold = 2347;
+       tmp = cpu_to_le32(rts_threshold);
+diff --git a/drivers/oprofile/buffer_sync.c b/drivers/oprofile/buffer_sync.c
+index 334ccd6..47f8944 100644
+--- a/drivers/oprofile/buffer_sync.c
++++ b/drivers/oprofile/buffer_sync.c
+@@ -342,7 +342,7 @@ static void add_data(struct op_entry *entry, struct mm_struct *mm)
+               if (cookie == NO_COOKIE)
+                       offset = pc;
+               if (cookie == INVALID_COOKIE) {
+-                      atomic_inc(&oprofile_stats.sample_lost_no_mapping);
++                      atomic_inc_unchecked(&oprofile_stats.sample_lost_no_mapping);
+                       offset = pc;
+               }
+               if (cookie != last_cookie) {
+@@ -386,14 +386,14 @@ add_sample(struct mm_struct *mm, struct op_sample *s, int in_kernel)
+       /* add userspace sample */
+       if (!mm) {
+-              atomic_inc(&oprofile_stats.sample_lost_no_mm);
++              atomic_inc_unchecked(&oprofile_stats.sample_lost_no_mm);
+               return 0;
+       }
+       cookie = lookup_dcookie(mm, s->eip, &offset);
+       if (cookie == INVALID_COOKIE) {
+-              atomic_inc(&oprofile_stats.sample_lost_no_mapping);
++              atomic_inc_unchecked(&oprofile_stats.sample_lost_no_mapping);
+               return 0;
+       }
+@@ -562,7 +562,7 @@ void sync_buffer(int cpu)
+               /* ignore backtraces if failed to add a sample */
+               if (state == sb_bt_start) {
+                       state = sb_bt_ignore;
+-                      atomic_inc(&oprofile_stats.bt_lost_no_mapping);
++                      atomic_inc_unchecked(&oprofile_stats.bt_lost_no_mapping);
+               }
+       }
+       release_mm(mm);
+diff --git a/drivers/oprofile/event_buffer.c b/drivers/oprofile/event_buffer.c
+index 5df60a6..72f5c1c 100644
+--- a/drivers/oprofile/event_buffer.c
++++ b/drivers/oprofile/event_buffer.c
+@@ -53,7 +53,7 @@ void add_event_entry(unsigned long value)
+       }
+       if (buffer_pos == buffer_size) {
+-              atomic_inc(&oprofile_stats.event_lost_overflow);
++              atomic_inc_unchecked(&oprofile_stats.event_lost_overflow);
+               return;
+       }
+diff --git a/drivers/oprofile/oprof.c b/drivers/oprofile/oprof.c
+index dc8a042..fe5f315 100644
+--- a/drivers/oprofile/oprof.c
++++ b/drivers/oprofile/oprof.c
+@@ -110,7 +110,7 @@ static void switch_worker(struct work_struct *work)
+       if (oprofile_ops.switch_events())
+               return;
+-      atomic_inc(&oprofile_stats.multiplex_counter);
++      atomic_inc_unchecked(&oprofile_stats.multiplex_counter);
+       start_switch_worker();
+ }
+diff --git a/drivers/oprofile/oprofile_stats.c b/drivers/oprofile/oprofile_stats.c
+index 61689e8..387f7f8 100644
+--- a/drivers/oprofile/oprofile_stats.c
++++ b/drivers/oprofile/oprofile_stats.c
+@@ -30,11 +30,11 @@ void oprofile_reset_stats(void)
+               cpu_buf->sample_invalid_eip = 0;
+       }
+-      atomic_set(&oprofile_stats.sample_lost_no_mm, 0);
+-      atomic_set(&oprofile_stats.sample_lost_no_mapping, 0);
+-      atomic_set(&oprofile_stats.event_lost_overflow, 0);
+-      atomic_set(&oprofile_stats.bt_lost_no_mapping, 0);
+-      atomic_set(&oprofile_stats.multiplex_counter, 0);
++      atomic_set_unchecked(&oprofile_stats.sample_lost_no_mm, 0);
++      atomic_set_unchecked(&oprofile_stats.sample_lost_no_mapping, 0);
++      atomic_set_unchecked(&oprofile_stats.event_lost_overflow, 0);
++      atomic_set_unchecked(&oprofile_stats.bt_lost_no_mapping, 0);
++      atomic_set_unchecked(&oprofile_stats.multiplex_counter, 0);
+ }
+diff --git a/drivers/oprofile/oprofile_stats.h b/drivers/oprofile/oprofile_stats.h
+index 0b54e46..a37c527 100644
+--- a/drivers/oprofile/oprofile_stats.h
++++ b/drivers/oprofile/oprofile_stats.h
+@@ -13,11 +13,11 @@
+ #include <asm/atomic.h>
+ struct oprofile_stat_struct {
+-      atomic_t sample_lost_no_mm;
+-      atomic_t sample_lost_no_mapping;
+-      atomic_t bt_lost_no_mapping;
+-      atomic_t event_lost_overflow;
+-      atomic_t multiplex_counter;
++      atomic_unchecked_t sample_lost_no_mm;
++      atomic_unchecked_t sample_lost_no_mapping;
++      atomic_unchecked_t bt_lost_no_mapping;
++      atomic_unchecked_t event_lost_overflow;
++      atomic_unchecked_t multiplex_counter;
+ };
+ extern struct oprofile_stat_struct oprofile_stats;
+diff --git a/drivers/oprofile/oprofilefs.c b/drivers/oprofile/oprofilefs.c
+index 2766a6d..80c77e2 100644
+--- a/drivers/oprofile/oprofilefs.c
++++ b/drivers/oprofile/oprofilefs.c
+@@ -187,7 +187,7 @@ static const struct file_operations atomic_ro_fops = {
+ int oprofilefs_create_ro_atomic(struct super_block *sb, struct dentry *root,
+-      char const *name, atomic_t *val)
++      char const *name, atomic_unchecked_t *val)
+ {
+       struct dentry *d = __oprofilefs_create_file(sb, root, name,
+                                                    &atomic_ro_fops, 0444);
+diff --git a/drivers/parisc/pdc_stable.c b/drivers/parisc/pdc_stable.c
+index 13a64bc..ad62835 100644
+--- a/drivers/parisc/pdc_stable.c
++++ b/drivers/parisc/pdc_stable.c
+@@ -481,7 +481,7 @@ pdcspath_attr_store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static struct sysfs_ops pdcspath_attr_ops = {
++static const struct sysfs_ops pdcspath_attr_ops = {
+       .show = pdcspath_attr_show,
+       .store = pdcspath_attr_store,
+ };
+diff --git a/drivers/parport/procfs.c b/drivers/parport/procfs.c
+index 8eefe56..40751a7 100644
+--- a/drivers/parport/procfs.c
++++ b/drivers/parport/procfs.c
+@@ -64,7 +64,7 @@ static int do_active_device(ctl_table *table, int write,
+       *ppos += len;
+-      return copy_to_user(result, buffer, len) ? -EFAULT : 0;
++      return (len > sizeof buffer || copy_to_user(result, buffer, len)) ? -EFAULT : 0;
+ }
+ #ifdef CONFIG_PARPORT_1284
+@@ -106,7 +106,7 @@ static int do_autoprobe(ctl_table *table, int write,
+       *ppos += len;
+-      return copy_to_user (result, buffer, len) ? -EFAULT : 0;
++      return (len > sizeof buffer || copy_to_user (result, buffer, len)) ? -EFAULT : 0;
+ }
+ #endif /* IEEE1284.3 support. */
+diff --git a/drivers/pci/hotplug/acpiphp_glue.c b/drivers/pci/hotplug/acpiphp_glue.c
+index 73e7d8e..c80f3d2 100644
+--- a/drivers/pci/hotplug/acpiphp_glue.c
++++ b/drivers/pci/hotplug/acpiphp_glue.c
+@@ -111,7 +111,7 @@ static int post_dock_fixups(struct notifier_block *nb, unsigned long val,
+ }
+-static struct acpi_dock_ops acpiphp_dock_ops = {
++static const struct acpi_dock_ops acpiphp_dock_ops = {
+       .handler = handle_hotplug_event_func,
+ };
+diff --git a/drivers/pci/hotplug/cpci_hotplug.h b/drivers/pci/hotplug/cpci_hotplug.h
+index 9fff878..ad0ad53 100644
+--- a/drivers/pci/hotplug/cpci_hotplug.h
++++ b/drivers/pci/hotplug/cpci_hotplug.h
+@@ -59,7 +59,7 @@ struct cpci_hp_controller_ops {
+       int (*hardware_test) (struct slot* slot, u32 value);
+       u8  (*get_power) (struct slot* slot);
+       int (*set_power) (struct slot* slot, int value);
+-};
++} __no_const;
+ struct cpci_hp_controller {
+       unsigned int irq;
+diff --git a/drivers/pci/hotplug/cpqphp_nvram.c b/drivers/pci/hotplug/cpqphp_nvram.c
+index 76ba8a1..20ca857 100644
+--- a/drivers/pci/hotplug/cpqphp_nvram.c
++++ b/drivers/pci/hotplug/cpqphp_nvram.c
+@@ -428,9 +428,13 @@ static u32 store_HRT (void __iomem *rom_start)
+ void compaq_nvram_init (void __iomem *rom_start)
+ {
++
++#ifndef CONFIG_PAX_KERNEXEC
+       if (rom_start) {
+               compaq_int15_entry_point = (rom_start + ROM_INT15_PHY_ADDR - ROM_PHY_ADDR);
+       }
++#endif
++
+       dbg("int15 entry  = %p\n", compaq_int15_entry_point);
+       /* initialize our int15 lock */
+diff --git a/drivers/pci/hotplug/fakephp.c b/drivers/pci/hotplug/fakephp.c
+index 6151389..0a894ef 100644
+--- a/drivers/pci/hotplug/fakephp.c
++++ b/drivers/pci/hotplug/fakephp.c
+@@ -73,7 +73,7 @@ static void legacy_release(struct kobject *kobj)
+ }
+ static struct kobj_type legacy_ktype = {
+-      .sysfs_ops = &(struct sysfs_ops){
++      .sysfs_ops = &(const struct sysfs_ops){
+               .store = legacy_store, .show = legacy_show
+       },
+       .release = &legacy_release,
+diff --git a/drivers/pci/intel-iommu.c b/drivers/pci/intel-iommu.c
+index 5b680df..fe05b7e 100644
+--- a/drivers/pci/intel-iommu.c
++++ b/drivers/pci/intel-iommu.c
+@@ -2643,7 +2643,7 @@ error:
+       return 0;
+ }
+-static dma_addr_t intel_map_page(struct device *dev, struct page *page,
++dma_addr_t intel_map_page(struct device *dev, struct page *page,
+                                unsigned long offset, size_t size,
+                                enum dma_data_direction dir,
+                                struct dma_attrs *attrs)
+@@ -2719,7 +2719,7 @@ static void add_unmap(struct dmar_domain *dom, struct iova *iova)
+       spin_unlock_irqrestore(&async_umap_flush_lock, flags);
+ }
+-static void intel_unmap_page(struct device *dev, dma_addr_t dev_addr,
++void intel_unmap_page(struct device *dev, dma_addr_t dev_addr,
+                            size_t size, enum dma_data_direction dir,
+                            struct dma_attrs *attrs)
+ {
+@@ -2768,7 +2768,7 @@ static void intel_unmap_page(struct device *dev, dma_addr_t dev_addr,
+       }
+ }
+-static void *intel_alloc_coherent(struct device *hwdev, size_t size,
++void *intel_alloc_coherent(struct device *hwdev, size_t size,
+                                 dma_addr_t *dma_handle, gfp_t flags)
+ {
+       void *vaddr;
+@@ -2800,7 +2800,7 @@ static void *intel_alloc_coherent(struct device *hwdev, size_t size,
+       return NULL;
+ }
+-static void intel_free_coherent(struct device *hwdev, size_t size, void *vaddr,
++void intel_free_coherent(struct device *hwdev, size_t size, void *vaddr,
+                               dma_addr_t dma_handle)
+ {
+       int order;
+@@ -2812,7 +2812,7 @@ static void intel_free_coherent(struct device *hwdev, size_t size, void *vaddr,
+       free_pages((unsigned long)vaddr, order);
+ }
+-static void intel_unmap_sg(struct device *hwdev, struct scatterlist *sglist,
++void intel_unmap_sg(struct device *hwdev, struct scatterlist *sglist,
+                          int nelems, enum dma_data_direction dir,
+                          struct dma_attrs *attrs)
+ {
+@@ -2872,7 +2872,7 @@ static int intel_nontranslate_map_sg(struct device *hddev,
+       return nelems;
+ }
+-static int intel_map_sg(struct device *hwdev, struct scatterlist *sglist, int nelems,
++int intel_map_sg(struct device *hwdev, struct scatterlist *sglist, int nelems,
+                       enum dma_data_direction dir, struct dma_attrs *attrs)
+ {
+       int i;
+@@ -2941,12 +2941,12 @@ static int intel_map_sg(struct device *hwdev, struct scatterlist *sglist, int ne
+       return nelems;
+ }
+-static int intel_mapping_error(struct device *dev, dma_addr_t dma_addr)
++int intel_mapping_error(struct device *dev, dma_addr_t dma_addr)
+ {
+       return !dma_addr;
+ }
+-struct dma_map_ops intel_dma_ops = {
++const struct dma_map_ops intel_dma_ops = {
+       .alloc_coherent = intel_alloc_coherent,
+       .free_coherent = intel_free_coherent,
+       .map_sg = intel_map_sg,
+diff --git a/drivers/pci/pcie/aspm.c b/drivers/pci/pcie/aspm.c
+index 5b7056c..607bc94 100644
+--- a/drivers/pci/pcie/aspm.c
++++ b/drivers/pci/pcie/aspm.c
+@@ -27,9 +27,9 @@
+ #define MODULE_PARAM_PREFIX "pcie_aspm."
+ /* Note: those are not register definitions */
+-#define ASPM_STATE_L0S_UP     (1)     /* Upstream direction L0s state */
+-#define ASPM_STATE_L0S_DW     (2)     /* Downstream direction L0s state */
+-#define ASPM_STATE_L1         (4)     /* L1 state */
++#define ASPM_STATE_L0S_UP     (1U)    /* Upstream direction L0s state */
++#define ASPM_STATE_L0S_DW     (2U)    /* Downstream direction L0s state */
++#define ASPM_STATE_L1         (4U)    /* L1 state */
+ #define ASPM_STATE_L0S                (ASPM_STATE_L0S_UP | ASPM_STATE_L0S_DW)
+ #define ASPM_STATE_ALL                (ASPM_STATE_L0S | ASPM_STATE_L1)
+diff --git a/drivers/pci/probe.c b/drivers/pci/probe.c
+index 8105e32..ca10419 100644
+--- a/drivers/pci/probe.c
++++ b/drivers/pci/probe.c
+@@ -62,14 +62,14 @@ static ssize_t pci_bus_show_cpuaffinity(struct device *dev,
+       return ret;
+ }
+-static ssize_t inline pci_bus_show_cpumaskaffinity(struct device *dev,
++static inline ssize_t pci_bus_show_cpumaskaffinity(struct device *dev,
+                                       struct device_attribute *attr,
+                                       char *buf)
+ {
+       return pci_bus_show_cpuaffinity(dev, 0, attr, buf);
+ }
+-static ssize_t inline pci_bus_show_cpulistaffinity(struct device *dev,
++static inline ssize_t pci_bus_show_cpulistaffinity(struct device *dev,
+                                       struct device_attribute *attr,
+                                       char *buf)
+ {
+diff --git a/drivers/pci/proc.c b/drivers/pci/proc.c
+index a03ad8c..024b0da 100644
+--- a/drivers/pci/proc.c
++++ b/drivers/pci/proc.c
+@@ -480,7 +480,16 @@ static const struct file_operations proc_bus_pci_dev_operations = {
+ static int __init pci_proc_init(void)
+ {
+       struct pci_dev *dev = NULL;
++
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++      proc_bus_pci_dir = proc_mkdir_mode("bus/pci", S_IRUSR | S_IXUSR, NULL);
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      proc_bus_pci_dir = proc_mkdir_mode("bus/pci", S_IRUSR | S_IXUSR | S_IRGRP | S_IXGRP, NULL);
++#endif
++#else
+       proc_bus_pci_dir = proc_mkdir("bus/pci", NULL);
++#endif
+       proc_create("devices", 0, proc_bus_pci_dir,
+                   &proc_bus_pci_dev_operations);
+       proc_initialized = 1;
+diff --git a/drivers/pci/slot.c b/drivers/pci/slot.c
+index 8c02b6c..5584d8e 100644
+--- a/drivers/pci/slot.c
++++ b/drivers/pci/slot.c
+@@ -29,7 +29,7 @@ static ssize_t pci_slot_attr_store(struct kobject *kobj,
+       return attribute->store ? attribute->store(slot, buf, len) : -EIO;
+ }
+-static struct sysfs_ops pci_slot_sysfs_ops = {
++static const struct sysfs_ops pci_slot_sysfs_ops = {
+       .show = pci_slot_attr_show,
+       .store = pci_slot_attr_store,
+ };
+diff --git a/drivers/pcmcia/pcmcia_ioctl.c b/drivers/pcmcia/pcmcia_ioctl.c
+index 30cf71d2..50938f1 100644
+--- a/drivers/pcmcia/pcmcia_ioctl.c
++++ b/drivers/pcmcia/pcmcia_ioctl.c
+@@ -819,7 +819,7 @@ static int ds_ioctl(struct inode * inode, struct file * file,
+           return -EFAULT;
+       }
+     }
+-    buf = kmalloc(sizeof(ds_ioctl_arg_t), GFP_KERNEL);
++    buf = kzalloc(sizeof(ds_ioctl_arg_t), GFP_KERNEL);
+     if (!buf)
+       return -ENOMEM;
+diff --git a/drivers/platform/x86/acer-wmi.c b/drivers/platform/x86/acer-wmi.c
+index 52183c4..b224c69 100644
+--- a/drivers/platform/x86/acer-wmi.c
++++ b/drivers/platform/x86/acer-wmi.c
+@@ -918,7 +918,7 @@ static int update_bl_status(struct backlight_device *bd)
+       return 0;
+ }
+-static struct backlight_ops acer_bl_ops = {
++static const struct backlight_ops acer_bl_ops = {
+       .get_brightness = read_brightness,
+       .update_status = update_bl_status,
+ };
+diff --git a/drivers/platform/x86/asus-laptop.c b/drivers/platform/x86/asus-laptop.c
+index 767cb61..a87380b 100644
+--- a/drivers/platform/x86/asus-laptop.c
++++ b/drivers/platform/x86/asus-laptop.c
+@@ -250,7 +250,7 @@ static struct backlight_device *asus_backlight_device;
+  */
+ static int read_brightness(struct backlight_device *bd);
+ static int update_bl_status(struct backlight_device *bd);
+-static struct backlight_ops asusbl_ops = {
++static const struct backlight_ops asusbl_ops = {
+       .get_brightness = read_brightness,
+       .update_status = update_bl_status,
+ };
+diff --git a/drivers/platform/x86/asus_acpi.c b/drivers/platform/x86/asus_acpi.c
+index d66c07a..a4abaac 100644
+--- a/drivers/platform/x86/asus_acpi.c
++++ b/drivers/platform/x86/asus_acpi.c
+@@ -1396,7 +1396,7 @@ static int asus_hotk_remove(struct acpi_device *device, int type)
+       return 0;
+ }
+-static struct backlight_ops asus_backlight_data = {
++static const struct backlight_ops asus_backlight_data = {
+       .get_brightness = read_brightness,
+       .update_status  = set_brightness_status,
+ };
+diff --git a/drivers/platform/x86/compal-laptop.c b/drivers/platform/x86/compal-laptop.c
+index 11003bb..550ff1b 100644
+--- a/drivers/platform/x86/compal-laptop.c
++++ b/drivers/platform/x86/compal-laptop.c
+@@ -163,7 +163,7 @@ static int bl_update_status(struct backlight_device *b)
+       return set_lcd_level(b->props.brightness);
+ }
+-static struct backlight_ops compalbl_ops = {
++static const struct backlight_ops compalbl_ops = {
+       .get_brightness = bl_get_brightness,
+       .update_status  = bl_update_status,
+ };
+diff --git a/drivers/platform/x86/dell-laptop.c b/drivers/platform/x86/dell-laptop.c
+index 07a74da..9dc99fa 100644
+--- a/drivers/platform/x86/dell-laptop.c
++++ b/drivers/platform/x86/dell-laptop.c
+@@ -318,7 +318,7 @@ static int dell_get_intensity(struct backlight_device *bd)
+       return buffer.output[1];
+ }
+-static struct backlight_ops dell_ops = {
++static const struct backlight_ops dell_ops = {
+       .get_brightness = dell_get_intensity,
+       .update_status  = dell_send_intensity,
+ };
+diff --git a/drivers/platform/x86/eeepc-laptop.c b/drivers/platform/x86/eeepc-laptop.c
+index c533b1c..5c81f22 100644
+--- a/drivers/platform/x86/eeepc-laptop.c
++++ b/drivers/platform/x86/eeepc-laptop.c
+@@ -245,7 +245,7 @@ static struct device *eeepc_hwmon_device;
+  */
+ static int read_brightness(struct backlight_device *bd);
+ static int update_bl_status(struct backlight_device *bd);
+-static struct backlight_ops eeepcbl_ops = {
++static const struct backlight_ops eeepcbl_ops = {
+       .get_brightness = read_brightness,
+       .update_status = update_bl_status,
+ };
+diff --git a/drivers/platform/x86/fujitsu-laptop.c b/drivers/platform/x86/fujitsu-laptop.c
+index bcd4ba8..a249b35 100644
+--- a/drivers/platform/x86/fujitsu-laptop.c
++++ b/drivers/platform/x86/fujitsu-laptop.c
+@@ -436,7 +436,7 @@ static int bl_update_status(struct backlight_device *b)
+       return ret;
+ }
+-static struct backlight_ops fujitsubl_ops = {
++static const struct backlight_ops fujitsubl_ops = {
+       .get_brightness = bl_get_brightness,
+       .update_status = bl_update_status,
+ };
+diff --git a/drivers/platform/x86/msi-laptop.c b/drivers/platform/x86/msi-laptop.c
+index 759763d..1093ba2 100644
+--- a/drivers/platform/x86/msi-laptop.c
++++ b/drivers/platform/x86/msi-laptop.c
+@@ -161,7 +161,7 @@ static int bl_update_status(struct backlight_device *b)
+       return set_lcd_level(b->props.brightness);
+ }
+-static struct backlight_ops msibl_ops = {
++static const struct backlight_ops msibl_ops = {
+       .get_brightness = bl_get_brightness,
+       .update_status  = bl_update_status,
+ };
+diff --git a/drivers/platform/x86/panasonic-laptop.c b/drivers/platform/x86/panasonic-laptop.c
+index fe7cf01..9012d8d 100644
+--- a/drivers/platform/x86/panasonic-laptop.c
++++ b/drivers/platform/x86/panasonic-laptop.c
+@@ -352,7 +352,7 @@ static int bl_set_status(struct backlight_device *bd)
+       return acpi_pcc_write_sset(pcc, SINF_DC_CUR_BRIGHT, bright);
+ }
+-static struct backlight_ops pcc_backlight_ops = {
++static const struct backlight_ops pcc_backlight_ops = {
+       .get_brightness = bl_get,
+       .update_status  = bl_set_status,
+ };
+diff --git a/drivers/platform/x86/sony-laptop.c b/drivers/platform/x86/sony-laptop.c
+index a2a742c..b37e25e 100644
+--- a/drivers/platform/x86/sony-laptop.c
++++ b/drivers/platform/x86/sony-laptop.c
+@@ -850,7 +850,7 @@ static int sony_backlight_get_brightness(struct backlight_device *bd)
+ }
+ static struct backlight_device *sony_backlight_device;
+-static struct backlight_ops sony_backlight_ops = {
++static const struct backlight_ops sony_backlight_ops = {
+       .update_status = sony_backlight_update_status,
+       .get_brightness = sony_backlight_get_brightness,
+ };
+diff --git a/drivers/platform/x86/thinkpad_acpi.c b/drivers/platform/x86/thinkpad_acpi.c
+index 68271ae..5e8fb10 100644
+--- a/drivers/platform/x86/thinkpad_acpi.c
++++ b/drivers/platform/x86/thinkpad_acpi.c
+@@ -2139,7 +2139,7 @@ static int hotkey_mask_get(void)
+       return 0;
+ }
+-void static hotkey_mask_warn_incomplete_mask(void)
++static void hotkey_mask_warn_incomplete_mask(void)
+ {
+       /* log only what the user can fix... */
+       const u32 wantedmask = hotkey_driver_mask &
+@@ -6125,7 +6125,7 @@ static void tpacpi_brightness_notify_change(void)
+                              BACKLIGHT_UPDATE_HOTKEY);
+ }
+-static struct backlight_ops ibm_backlight_data = {
++static const struct backlight_ops ibm_backlight_data = {
+       .get_brightness = brightness_get,
+       .update_status  = brightness_update_status,
+ };
+diff --git a/drivers/platform/x86/toshiba_acpi.c b/drivers/platform/x86/toshiba_acpi.c
+index 51c0a8b..0786629 100644
+--- a/drivers/platform/x86/toshiba_acpi.c
++++ b/drivers/platform/x86/toshiba_acpi.c
+@@ -671,7 +671,7 @@ static acpi_status remove_device(void)
+       return AE_OK;
+ }
+-static struct backlight_ops toshiba_backlight_data = {
++static const struct backlight_ops toshiba_backlight_data = {
+         .get_brightness = get_lcd,
+         .update_status  = set_lcd_status,
+ };
+diff --git a/drivers/pnp/pnpbios/bioscalls.c b/drivers/pnp/pnpbios/bioscalls.c
+index fc83783c..cf370d7 100644
+--- a/drivers/pnp/pnpbios/bioscalls.c
++++ b/drivers/pnp/pnpbios/bioscalls.c
+@@ -60,7 +60,7 @@ do { \
+       set_desc_limit(&gdt[(selname) >> 3], (size) - 1); \
+ } while(0)
+-static struct desc_struct bad_bios_desc = GDT_ENTRY_INIT(0x4092,
++static const struct desc_struct bad_bios_desc = GDT_ENTRY_INIT(0x4093,
+                       (unsigned long)__va(0x400UL), PAGE_SIZE - 0x400 - 1);
+ /*
+@@ -97,7 +97,10 @@ static inline u16 call_pnp_bios(u16 func, u16 arg1, u16 arg2, u16 arg3,
+       cpu = get_cpu();
+       save_desc_40 = get_cpu_gdt_table(cpu)[0x40 / 8];
++
++      pax_open_kernel();
+       get_cpu_gdt_table(cpu)[0x40 / 8] = bad_bios_desc;
++      pax_close_kernel();
+       /* On some boxes IRQ's during PnP BIOS calls are deadly.  */
+       spin_lock_irqsave(&pnp_bios_lock, flags);
+@@ -135,7 +138,10 @@ static inline u16 call_pnp_bios(u16 func, u16 arg1, u16 arg2, u16 arg3,
+                            :"memory");
+       spin_unlock_irqrestore(&pnp_bios_lock, flags);
++      pax_open_kernel();
+       get_cpu_gdt_table(cpu)[0x40 / 8] = save_desc_40;
++      pax_close_kernel();
++
+       put_cpu();
+       /* If we get here and this is set then the PnP BIOS faulted on us. */
+@@ -469,7 +475,7 @@ int pnp_bios_read_escd(char *data, u32 nvram_base)
+       return status;
+ }
+-void pnpbios_calls_init(union pnp_bios_install_struct *header)
++void __init pnpbios_calls_init(union pnp_bios_install_struct *header)
+ {
+       int i;
+@@ -477,6 +483,8 @@ void pnpbios_calls_init(union pnp_bios_install_struct *header)
+       pnp_bios_callpoint.offset = header->fields.pm16offset;
+       pnp_bios_callpoint.segment = PNP_CS16;
++      pax_open_kernel();
++
+       for_each_possible_cpu(i) {
+               struct desc_struct *gdt = get_cpu_gdt_table(i);
+               if (!gdt)
+@@ -488,4 +496,6 @@ void pnpbios_calls_init(union pnp_bios_install_struct *header)
+               set_desc_base(&gdt[GDT_ENTRY_PNPBIOS_DS],
+                        (unsigned long)__va(header->fields.pm16dseg));
+       }
++
++      pax_close_kernel();
+ }
+diff --git a/drivers/pnp/resource.c b/drivers/pnp/resource.c
+index ba97654..66b99d4 100644
+--- a/drivers/pnp/resource.c
++++ b/drivers/pnp/resource.c
+@@ -355,7 +355,7 @@ int pnp_check_irq(struct pnp_dev *dev, struct resource *res)
+               return 1;
+       /* check if the resource is valid */
+-      if (*irq < 0 || *irq > 15)
++      if (*irq > 15)
+               return 0;
+       /* check if the resource is reserved */
+@@ -419,7 +419,7 @@ int pnp_check_dma(struct pnp_dev *dev, struct resource *res)
+               return 1;
+       /* check if the resource is valid */
+-      if (*dma < 0 || *dma == 4 || *dma > 7)
++      if (*dma == 4 || *dma > 7)
+               return 0;
+       /* check if the resource is reserved */
+diff --git a/drivers/power/bq27x00_battery.c b/drivers/power/bq27x00_battery.c
+index 62bb981..24a2dc9 100644
+--- a/drivers/power/bq27x00_battery.c
++++ b/drivers/power/bq27x00_battery.c
+@@ -44,7 +44,7 @@ struct bq27x00_device_info;
+ struct bq27x00_access_methods {
+       int (*read)(u8 reg, int *rt_value, int b_single,
+               struct bq27x00_device_info *di);
+-};
++} __no_const;
+ struct bq27x00_device_info {
+       struct device           *dev;
+diff --git a/drivers/rtc/rtc-dev.c b/drivers/rtc/rtc-dev.c
+index 62227cd..b5b538b 100644
+--- a/drivers/rtc/rtc-dev.c
++++ b/drivers/rtc/rtc-dev.c
+@@ -14,6 +14,7 @@
+ #include <linux/module.h>
+ #include <linux/rtc.h>
+ #include <linux/sched.h>
++#include <linux/grsecurity.h>
+ #include "rtc-core.h"
+ static dev_t rtc_devt;
+@@ -357,6 +358,8 @@ static long rtc_dev_ioctl(struct file *file,
+               if (copy_from_user(&tm, uarg, sizeof(tm)))
+                       return -EFAULT;
++              gr_log_timechange();
++
+               return rtc_set_time(rtc, &tm);
+       case RTC_PIE_ON:
+diff --git a/drivers/s390/cio/qdio_perf.c b/drivers/s390/cio/qdio_perf.c
+index 968e3c7..fbc637a 100644
+--- a/drivers/s390/cio/qdio_perf.c
++++ b/drivers/s390/cio/qdio_perf.c
+@@ -31,51 +31,51 @@ static struct proc_dir_entry *qdio_perf_pde;
+ static int qdio_perf_proc_show(struct seq_file *m, void *v)
+ {
+       seq_printf(m, "Number of qdio interrupts\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.qdio_int));
++                 (long)atomic_long_read_unchecked(&perf_stats.qdio_int));
+       seq_printf(m, "Number of PCI interrupts\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.pci_int));
++                 (long)atomic_long_read_unchecked(&perf_stats.pci_int));
+       seq_printf(m, "Number of adapter interrupts\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.thin_int));
++                 (long)atomic_long_read_unchecked(&perf_stats.thin_int));
+       seq_printf(m, "\n");
+       seq_printf(m, "Inbound tasklet runs\t\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.tasklet_inbound));
++                 (long)atomic_long_read_unchecked(&perf_stats.tasklet_inbound));
+       seq_printf(m, "Outbound tasklet runs\t\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.tasklet_outbound));
++                 (long)atomic_long_read_unchecked(&perf_stats.tasklet_outbound));
+       seq_printf(m, "Adapter interrupt tasklet runs/loops\t\t: %li/%li\n",
+-                 (long)atomic_long_read(&perf_stats.tasklet_thinint),
+-                 (long)atomic_long_read(&perf_stats.tasklet_thinint_loop));
++                 (long)atomic_long_read_unchecked(&perf_stats.tasklet_thinint),
++                 (long)atomic_long_read_unchecked(&perf_stats.tasklet_thinint_loop));
+       seq_printf(m, "Adapter interrupt inbound tasklet runs/loops\t: %li/%li\n",
+-                 (long)atomic_long_read(&perf_stats.thinint_inbound),
+-                 (long)atomic_long_read(&perf_stats.thinint_inbound_loop));
++                 (long)atomic_long_read_unchecked(&perf_stats.thinint_inbound),
++                 (long)atomic_long_read_unchecked(&perf_stats.thinint_inbound_loop));
+       seq_printf(m, "\n");
+       seq_printf(m, "Number of SIGA In issued\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.siga_in));
++                 (long)atomic_long_read_unchecked(&perf_stats.siga_in));
+       seq_printf(m, "Number of SIGA Out issued\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.siga_out));
++                 (long)atomic_long_read_unchecked(&perf_stats.siga_out));
+       seq_printf(m, "Number of SIGA Sync issued\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.siga_sync));
++                 (long)atomic_long_read_unchecked(&perf_stats.siga_sync));
+       seq_printf(m, "\n");
+       seq_printf(m, "Number of inbound transfers\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.inbound_handler));
++                 (long)atomic_long_read_unchecked(&perf_stats.inbound_handler));
+       seq_printf(m, "Number of outbound transfers\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.outbound_handler));
++                 (long)atomic_long_read_unchecked(&perf_stats.outbound_handler));
+       seq_printf(m, "\n");
+       seq_printf(m, "Number of fast requeues (outg. SBAL w/o SIGA)\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.fast_requeue));
++                 (long)atomic_long_read_unchecked(&perf_stats.fast_requeue));
+       seq_printf(m, "Number of outbound target full condition\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.outbound_target_full));
++                 (long)atomic_long_read_unchecked(&perf_stats.outbound_target_full));
+       seq_printf(m, "Number of outbound tasklet mod_timer calls\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.debug_tl_out_timer));
++                 (long)atomic_long_read_unchecked(&perf_stats.debug_tl_out_timer));
+       seq_printf(m, "Number of stop polling calls\t\t\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.debug_stop_polling));
++                 (long)atomic_long_read_unchecked(&perf_stats.debug_stop_polling));
+       seq_printf(m, "AI inbound tasklet loops after stop polling\t: %li\n",
+-                 (long)atomic_long_read(&perf_stats.thinint_inbound_loop2));
++                 (long)atomic_long_read_unchecked(&perf_stats.thinint_inbound_loop2));
+       seq_printf(m, "QEBSM EQBS total/incomplete\t\t\t: %li/%li\n",
+-                 (long)atomic_long_read(&perf_stats.debug_eqbs_all),
+-                 (long)atomic_long_read(&perf_stats.debug_eqbs_incomplete));
++                 (long)atomic_long_read_unchecked(&perf_stats.debug_eqbs_all),
++                 (long)atomic_long_read_unchecked(&perf_stats.debug_eqbs_incomplete));
+       seq_printf(m, "QEBSM SQBS total/incomplete\t\t\t: %li/%li\n",
+-                 (long)atomic_long_read(&perf_stats.debug_sqbs_all),
+-                 (long)atomic_long_read(&perf_stats.debug_sqbs_incomplete));
++                 (long)atomic_long_read_unchecked(&perf_stats.debug_sqbs_all),
++                 (long)atomic_long_read_unchecked(&perf_stats.debug_sqbs_incomplete));
+       seq_printf(m, "\n");
+       return 0;
+ }
+diff --git a/drivers/s390/cio/qdio_perf.h b/drivers/s390/cio/qdio_perf.h
+index ff4504c..b3604c3 100644
+--- a/drivers/s390/cio/qdio_perf.h
++++ b/drivers/s390/cio/qdio_perf.h
+@@ -13,46 +13,46 @@
+ struct qdio_perf_stats {
+       /* interrupt handler calls */
+-      atomic_long_t qdio_int;
+-      atomic_long_t pci_int;
+-      atomic_long_t thin_int;
++      atomic_long_unchecked_t qdio_int;
++      atomic_long_unchecked_t pci_int;
++      atomic_long_unchecked_t thin_int;
+       /* tasklet runs */
+-      atomic_long_t tasklet_inbound;
+-      atomic_long_t tasklet_outbound;
+-      atomic_long_t tasklet_thinint;
+-      atomic_long_t tasklet_thinint_loop;
+-      atomic_long_t thinint_inbound;
+-      atomic_long_t thinint_inbound_loop;
+-      atomic_long_t thinint_inbound_loop2;
++      atomic_long_unchecked_t tasklet_inbound;
++      atomic_long_unchecked_t tasklet_outbound;
++      atomic_long_unchecked_t tasklet_thinint;
++      atomic_long_unchecked_t tasklet_thinint_loop;
++      atomic_long_unchecked_t thinint_inbound;
++      atomic_long_unchecked_t thinint_inbound_loop;
++      atomic_long_unchecked_t thinint_inbound_loop2;
+       /* signal adapter calls */
+-      atomic_long_t siga_out;
+-      atomic_long_t siga_in;
+-      atomic_long_t siga_sync;
++      atomic_long_unchecked_t siga_out;
++      atomic_long_unchecked_t siga_in;
++      atomic_long_unchecked_t siga_sync;
+       /* misc */
+-      atomic_long_t inbound_handler;
+-      atomic_long_t outbound_handler;
+-      atomic_long_t fast_requeue;
+-      atomic_long_t outbound_target_full;
++      atomic_long_unchecked_t inbound_handler;
++      atomic_long_unchecked_t outbound_handler;
++      atomic_long_unchecked_t fast_requeue;
++      atomic_long_unchecked_t outbound_target_full;
+       /* for debugging */
+-      atomic_long_t debug_tl_out_timer;
+-      atomic_long_t debug_stop_polling;
+-      atomic_long_t debug_eqbs_all;
+-      atomic_long_t debug_eqbs_incomplete;
+-      atomic_long_t debug_sqbs_all;
+-      atomic_long_t debug_sqbs_incomplete;
++      atomic_long_unchecked_t debug_tl_out_timer;
++      atomic_long_unchecked_t debug_stop_polling;
++      atomic_long_unchecked_t debug_eqbs_all;
++      atomic_long_unchecked_t debug_eqbs_incomplete;
++      atomic_long_unchecked_t debug_sqbs_all;
++      atomic_long_unchecked_t debug_sqbs_incomplete;
+ };
+ extern struct qdio_perf_stats perf_stats;
+ extern int qdio_performance_stats;
+-static inline void qdio_perf_stat_inc(atomic_long_t *count)
++static inline void qdio_perf_stat_inc(atomic_long_unchecked_t *count)
+ {
+       if (qdio_performance_stats)
+-              atomic_long_inc(count);
++              atomic_long_inc_unchecked(count);
+ }
+ int qdio_setup_perf_stats(void);
+diff --git a/drivers/scsi/BusLogic.c b/drivers/scsi/BusLogic.c
+index 1ddcf40..a85f062 100644
+--- a/drivers/scsi/BusLogic.c
++++ b/drivers/scsi/BusLogic.c
+@@ -961,6 +961,8 @@ static int __init BusLogic_InitializeFlashPointProbeInfo(struct BusLogic_HostAda
+ static void __init BusLogic_InitializeProbeInfoList(struct BusLogic_HostAdapter
+                                                   *PrototypeHostAdapter)
+ {
++      pax_track_stack();
++
+       /*
+          If a PCI BIOS is present, interrogate it for MultiMaster and FlashPoint
+          Host Adapters; otherwise, default to the standard ISA MultiMaster probe.
+diff --git a/drivers/scsi/aacraid/aacraid.h b/drivers/scsi/aacraid/aacraid.h
+index cdbdec9..b7d560b 100644
+--- a/drivers/scsi/aacraid/aacraid.h
++++ b/drivers/scsi/aacraid/aacraid.h
+@@ -471,7 +471,7 @@ struct adapter_ops
+       int  (*adapter_scsi)(struct fib * fib, struct scsi_cmnd * cmd);
+       /* Administrative operations */
+       int  (*adapter_comm)(struct aac_dev * dev, int comm);
+-};
++} __no_const;
+ /*
+  *    Define which interrupt handler needs to be installed
+diff --git a/drivers/scsi/aacraid/commctrl.c b/drivers/scsi/aacraid/commctrl.c
+index a5b8e7b..a6a0e43 100644
+--- a/drivers/scsi/aacraid/commctrl.c
++++ b/drivers/scsi/aacraid/commctrl.c
+@@ -481,6 +481,7 @@ static int aac_send_raw_srb(struct aac_dev* dev, void __user * arg)
+       u32 actual_fibsize64, actual_fibsize = 0;
+       int i;
++      pax_track_stack();
+       if (dev->in_reset) {
+               dprintk((KERN_DEBUG"aacraid: send raw srb -EBUSY\n"));
+diff --git a/drivers/scsi/aacraid/linit.c b/drivers/scsi/aacraid/linit.c
+index 9b97c3e..f099725 100644
+--- a/drivers/scsi/aacraid/linit.c
++++ b/drivers/scsi/aacraid/linit.c
+@@ -91,7 +91,7 @@ static DECLARE_PCI_DEVICE_TABLE(aac_pci_tbl) = {
+ #elif defined(__devinitconst)
+ static const struct pci_device_id aac_pci_tbl[] __devinitconst = {
+ #else
+-static const struct pci_device_id aac_pci_tbl[] __devinitdata = {
++static const struct pci_device_id aac_pci_tbl[] __devinitconst = {
+ #endif
+       { 0x1028, 0x0001, 0x1028, 0x0001, 0, 0, 0 }, /* PERC 2/Si (Iguana/PERC2Si) */
+       { 0x1028, 0x0002, 0x1028, 0x0002, 0, 0, 1 }, /* PERC 3/Di (Opal/PERC3Di) */
+diff --git a/drivers/scsi/aic94xx/aic94xx_init.c b/drivers/scsi/aic94xx/aic94xx_init.c
+index 996f722..9127845 100644
+--- a/drivers/scsi/aic94xx/aic94xx_init.c
++++ b/drivers/scsi/aic94xx/aic94xx_init.c
+@@ -485,7 +485,7 @@ static ssize_t asd_show_update_bios(struct device *dev,
+                       flash_error_table[i].reason);
+ }
+-static DEVICE_ATTR(update_bios, S_IRUGO|S_IWUGO,
++static DEVICE_ATTR(update_bios, S_IRUGO|S_IWUSR,
+       asd_show_update_bios, asd_store_update_bios);
+ static int asd_create_dev_attrs(struct asd_ha_struct *asd_ha)
+@@ -1011,7 +1011,7 @@ static struct sas_domain_function_template aic94xx_transport_functions = {
+       .lldd_control_phy       = asd_control_phy,
+ };
+-static const struct pci_device_id aic94xx_pci_table[] __devinitdata = {
++static const struct pci_device_id aic94xx_pci_table[] __devinitconst = {
+       {PCI_DEVICE(PCI_VENDOR_ID_ADAPTEC2, 0x410),0, 0, 1},
+       {PCI_DEVICE(PCI_VENDOR_ID_ADAPTEC2, 0x412),0, 0, 1},
+       {PCI_DEVICE(PCI_VENDOR_ID_ADAPTEC2, 0x416),0, 0, 1},
+diff --git a/drivers/scsi/bfa/bfa_ioc.h b/drivers/scsi/bfa/bfa_ioc.h
+index 58efd4b..cb48dc7 100644
+--- a/drivers/scsi/bfa/bfa_ioc.h
++++ b/drivers/scsi/bfa/bfa_ioc.h
+@@ -127,7 +127,7 @@ struct bfa_ioc_cbfn_s {
+       bfa_ioc_disable_cbfn_t  disable_cbfn;
+       bfa_ioc_hbfail_cbfn_t   hbfail_cbfn;
+       bfa_ioc_reset_cbfn_t    reset_cbfn;
+-};
++} __no_const;
+ /**
+  * Heartbeat failure notification queue element.
+diff --git a/drivers/scsi/bfa/bfa_iocfc.h b/drivers/scsi/bfa/bfa_iocfc.h
+index 7ad177e..5503586 100644
+--- a/drivers/scsi/bfa/bfa_iocfc.h
++++ b/drivers/scsi/bfa/bfa_iocfc.h
+@@ -61,7 +61,7 @@ struct bfa_hwif_s {
+       void (*hw_isr_mode_set)(struct bfa_s *bfa, bfa_boolean_t msix);
+       void (*hw_msix_getvecs)(struct bfa_s *bfa, u32 *vecmap,
+                       u32 *nvecs, u32 *maxvec);
+-};
++} __no_const;
+ typedef void (*bfa_cb_iocfc_t) (void *cbarg, enum bfa_status status);
+ struct bfa_iocfc_s {
+diff --git a/drivers/scsi/dpt_i2o.c b/drivers/scsi/dpt_i2o.c
+index 4967643..cbec06b 100644
+--- a/drivers/scsi/dpt_i2o.c
++++ b/drivers/scsi/dpt_i2o.c
+@@ -1804,6 +1804,8 @@ static int adpt_i2o_passthru(adpt_hba* pHba, u32 __user *arg)
+       dma_addr_t addr;
+       ulong flags = 0;
++      pax_track_stack();
++
+       memset(&msg, 0, MAX_MESSAGE_SIZE*4);
+       // get user msg size in u32s 
+       if(get_user(size, &user_msg[0])){
+@@ -2297,6 +2299,8 @@ static s32 adpt_scsi_to_i2o(adpt_hba* pHba, struct scsi_cmnd* cmd, struct adpt_d
+       s32 rcode;
+       dma_addr_t addr;
++      pax_track_stack();
++
+       memset(msg, 0 , sizeof(msg));
+       len = scsi_bufflen(cmd);
+       direction = 0x00000000; 
+diff --git a/drivers/scsi/eata.c b/drivers/scsi/eata.c
+index c7076ce..e20c67c 100644
+--- a/drivers/scsi/eata.c
++++ b/drivers/scsi/eata.c
+@@ -1087,6 +1087,8 @@ static int port_detect(unsigned long port_base, unsigned int j,
+       struct hostdata *ha;
+       char name[16];
++      pax_track_stack();
++
+       sprintf(name, "%s%d", driver_name, j);
+       if (!request_region(port_base, REGION_SIZE, driver_name)) {
+diff --git a/drivers/scsi/fcoe/libfcoe.c b/drivers/scsi/fcoe/libfcoe.c
+index 11ae5c9..891daec 100644
+--- a/drivers/scsi/fcoe/libfcoe.c
++++ b/drivers/scsi/fcoe/libfcoe.c
+@@ -809,6 +809,8 @@ static void fcoe_ctlr_recv_els(struct fcoe_ctlr *fip, struct sk_buff *skb)
+       size_t rlen;
+       size_t dlen;
++      pax_track_stack();
++
+       fiph = (struct fip_header *)skb->data;
+       sub = fiph->fip_subcode;
+       if (sub != FIP_SC_REQ && sub != FIP_SC_REP)
+diff --git a/drivers/scsi/fnic/fnic_main.c b/drivers/scsi/fnic/fnic_main.c
+index 71c7bbe..e93088a 100644
+--- a/drivers/scsi/fnic/fnic_main.c
++++ b/drivers/scsi/fnic/fnic_main.c
+@@ -669,7 +669,7 @@ static int __devinit fnic_probe(struct pci_dev *pdev,
+       /* Start local port initiatialization */
+       lp->link_up = 0;
+-      lp->tt = fnic_transport_template;
++      memcpy((void *)&lp->tt, &fnic_transport_template, sizeof(fnic_transport_template));
+       lp->max_retry_count = fnic->config.flogi_retries;
+       lp->max_rport_retry_count = fnic->config.plogi_retries;
+diff --git a/drivers/scsi/gdth.c b/drivers/scsi/gdth.c
+index bb96d74..9ec3ce4 100644
+--- a/drivers/scsi/gdth.c
++++ b/drivers/scsi/gdth.c
+@@ -4102,6 +4102,8 @@ static int ioc_lockdrv(void __user *arg)
+     ulong flags;
+     gdth_ha_str *ha;
++    pax_track_stack();
++
+     if (copy_from_user(&ldrv, arg, sizeof(gdth_ioctl_lockdrv)))
+         return -EFAULT;
+     ha = gdth_find_ha(ldrv.ionode);
+@@ -4134,6 +4136,8 @@ static int ioc_resetdrv(void __user *arg, char *cmnd)
+     gdth_ha_str *ha;
+     int rval;
++    pax_track_stack();
++
+     if (copy_from_user(&res, arg, sizeof(gdth_ioctl_reset)) ||
+         res.number >= MAX_HDRIVES)
+         return -EFAULT;
+@@ -4169,6 +4173,8 @@ static int ioc_general(void __user *arg, char *cmnd)
+     gdth_ha_str *ha;
+     int rval;
++    pax_track_stack();
++
+     if (copy_from_user(&gen, arg, sizeof(gdth_ioctl_general)))
+         return -EFAULT;
+     ha = gdth_find_ha(gen.ionode);
+@@ -4625,6 +4631,9 @@ static void gdth_flush(gdth_ha_str *ha)
+     int             i;
+     gdth_cmd_str    gdtcmd;
+     char            cmnd[MAX_COMMAND_SIZE];   
++
++    pax_track_stack();
++
+     memset(cmnd, 0xff, MAX_COMMAND_SIZE);
+     TRACE2(("gdth_flush() hanum %d\n", ha->hanum));
+diff --git a/drivers/scsi/gdth_proc.c b/drivers/scsi/gdth_proc.c
+index 1258da3..20d8ae6 100644
+--- a/drivers/scsi/gdth_proc.c
++++ b/drivers/scsi/gdth_proc.c
+@@ -46,6 +46,9 @@ static int gdth_set_asc_info(struct Scsi_Host *host, char *buffer,
+     ulong64         paddr;
+     char            cmnd[MAX_COMMAND_SIZE];
++
++    pax_track_stack();
++
+     memset(cmnd, 0xff, 12);
+     memset(&gdtcmd, 0, sizeof(gdth_cmd_str));
+@@ -174,6 +177,8 @@ static int gdth_get_info(char *buffer,char **start,off_t offset,int length,
+     gdth_hget_str *phg;
+     char cmnd[MAX_COMMAND_SIZE];
++    pax_track_stack();
++
+     gdtcmd = kmalloc(sizeof(*gdtcmd), GFP_KERNEL);
+     estr = kmalloc(sizeof(*estr), GFP_KERNEL);
+     if (!gdtcmd || !estr)
+diff --git a/drivers/scsi/hosts.c b/drivers/scsi/hosts.c
+index d03a926..f324286 100644
+--- a/drivers/scsi/hosts.c
++++ b/drivers/scsi/hosts.c
+@@ -40,7 +40,7 @@
+ #include "scsi_logging.h"
+-static atomic_t scsi_host_next_hn;    /* host_no for next new host */
++static atomic_unchecked_t scsi_host_next_hn;  /* host_no for next new host */
+ static void scsi_host_cls_release(struct device *dev)
+@@ -347,7 +347,7 @@ struct Scsi_Host *scsi_host_alloc(struct scsi_host_template *sht, int privsize)
+        * subtract one because we increment first then return, but we need to
+        * know what the next host number was before increment
+        */
+-      shost->host_no = atomic_inc_return(&scsi_host_next_hn) - 1;
++      shost->host_no = atomic_inc_return_unchecked(&scsi_host_next_hn) - 1;
+       shost->dma_channel = 0xff;
+       /* These three are default values which can be overridden */
+diff --git a/drivers/scsi/ipr.c b/drivers/scsi/ipr.c
+index a601159..55e19d2 100644
+--- a/drivers/scsi/ipr.c
++++ b/drivers/scsi/ipr.c
+@@ -5286,7 +5286,7 @@ static bool ipr_qc_fill_rtf(struct ata_queued_cmd *qc)
+       return true;
+ }
+-static struct ata_port_operations ipr_sata_ops = {
++static const struct ata_port_operations ipr_sata_ops = {
+       .phy_reset = ipr_ata_phy_reset,
+       .hardreset = ipr_sata_reset,
+       .post_internal_cmd = ipr_ata_post_internal,
+diff --git a/drivers/scsi/ips.h b/drivers/scsi/ips.h
+index 4e49fbc..97907ff 100644
+--- a/drivers/scsi/ips.h
++++ b/drivers/scsi/ips.h
+@@ -1027,7 +1027,7 @@ typedef struct {
+    int       (*intr)(struct ips_ha *);
+    void      (*enableint)(struct ips_ha *);
+    uint32_t (*statupd)(struct ips_ha *);
+-} ips_hw_func_t;
++} __no_const ips_hw_func_t;
+ typedef struct ips_ha {
+    uint8_t            ha_id[IPS_MAX_CHANNELS+1];
+diff --git a/drivers/scsi/libfc/fc_exch.c b/drivers/scsi/libfc/fc_exch.c
+index c1c1574..a9c9348 100644
+--- a/drivers/scsi/libfc/fc_exch.c
++++ b/drivers/scsi/libfc/fc_exch.c
+@@ -86,12 +86,12 @@ struct fc_exch_mgr {
+        * all together if not used XXX
+        */
+       struct {
+-              atomic_t no_free_exch;
+-              atomic_t no_free_exch_xid;
+-              atomic_t xid_not_found;
+-              atomic_t xid_busy;
+-              atomic_t seq_not_found;
+-              atomic_t non_bls_resp;
++              atomic_unchecked_t no_free_exch;
++              atomic_unchecked_t no_free_exch_xid;
++              atomic_unchecked_t xid_not_found;
++              atomic_unchecked_t xid_busy;
++              atomic_unchecked_t seq_not_found;
++              atomic_unchecked_t non_bls_resp;
+       } stats;
+ };
+ #define       fc_seq_exch(sp) container_of(sp, struct fc_exch, seq)
+@@ -510,7 +510,7 @@ static struct fc_exch *fc_exch_em_alloc(struct fc_lport *lport,
+       /* allocate memory for exchange */
+       ep = mempool_alloc(mp->ep_pool, GFP_ATOMIC);
+       if (!ep) {
+-              atomic_inc(&mp->stats.no_free_exch);
++              atomic_inc_unchecked(&mp->stats.no_free_exch);
+               goto out;
+       }
+       memset(ep, 0, sizeof(*ep));
+@@ -557,7 +557,7 @@ out:
+       return ep;
+ err:
+       spin_unlock_bh(&pool->lock);
+-      atomic_inc(&mp->stats.no_free_exch_xid);
++      atomic_inc_unchecked(&mp->stats.no_free_exch_xid);
+       mempool_free(ep, mp->ep_pool);
+       return NULL;
+ }
+@@ -690,7 +690,7 @@ static enum fc_pf_rjt_reason fc_seq_lookup_recip(struct fc_lport *lport,
+               xid = ntohs(fh->fh_ox_id);      /* we originated exch */
+               ep = fc_exch_find(mp, xid);
+               if (!ep) {
+-                      atomic_inc(&mp->stats.xid_not_found);
++                      atomic_inc_unchecked(&mp->stats.xid_not_found);
+                       reject = FC_RJT_OX_ID;
+                       goto out;
+               }
+@@ -720,7 +720,7 @@ static enum fc_pf_rjt_reason fc_seq_lookup_recip(struct fc_lport *lport,
+               ep = fc_exch_find(mp, xid);
+               if ((f_ctl & FC_FC_FIRST_SEQ) && fc_sof_is_init(fr_sof(fp))) {
+                       if (ep) {
+-                              atomic_inc(&mp->stats.xid_busy);
++                              atomic_inc_unchecked(&mp->stats.xid_busy);
+                               reject = FC_RJT_RX_ID;
+                               goto rel;
+                       }
+@@ -731,7 +731,7 @@ static enum fc_pf_rjt_reason fc_seq_lookup_recip(struct fc_lport *lport,
+                       }
+                       xid = ep->xid;  /* get our XID */
+               } else if (!ep) {
+-                      atomic_inc(&mp->stats.xid_not_found);
++                      atomic_inc_unchecked(&mp->stats.xid_not_found);
+                       reject = FC_RJT_RX_ID;  /* XID not found */
+                       goto out;
+               }
+@@ -752,7 +752,7 @@ static enum fc_pf_rjt_reason fc_seq_lookup_recip(struct fc_lport *lport,
+       } else {
+               sp = &ep->seq;
+               if (sp->id != fh->fh_seq_id) {
+-                      atomic_inc(&mp->stats.seq_not_found);
++                      atomic_inc_unchecked(&mp->stats.seq_not_found);
+                       reject = FC_RJT_SEQ_ID; /* sequence/exch should exist */
+                       goto rel;
+               }
+@@ -1163,22 +1163,22 @@ static void fc_exch_recv_seq_resp(struct fc_exch_mgr *mp, struct fc_frame *fp)
+       ep = fc_exch_find(mp, ntohs(fh->fh_ox_id));
+       if (!ep) {
+-              atomic_inc(&mp->stats.xid_not_found);
++              atomic_inc_unchecked(&mp->stats.xid_not_found);
+               goto out;
+       }
+       if (ep->esb_stat & ESB_ST_COMPLETE) {
+-              atomic_inc(&mp->stats.xid_not_found);
++              atomic_inc_unchecked(&mp->stats.xid_not_found);
+               goto out;
+       }
+       if (ep->rxid == FC_XID_UNKNOWN)
+               ep->rxid = ntohs(fh->fh_rx_id);
+       if (ep->sid != 0 && ep->sid != ntoh24(fh->fh_d_id)) {
+-              atomic_inc(&mp->stats.xid_not_found);
++              atomic_inc_unchecked(&mp->stats.xid_not_found);
+               goto rel;
+       }
+       if (ep->did != ntoh24(fh->fh_s_id) &&
+           ep->did != FC_FID_FLOGI) {
+-              atomic_inc(&mp->stats.xid_not_found);
++              atomic_inc_unchecked(&mp->stats.xid_not_found);
+               goto rel;
+       }
+       sof = fr_sof(fp);
+@@ -1189,7 +1189,7 @@ static void fc_exch_recv_seq_resp(struct fc_exch_mgr *mp, struct fc_frame *fp)
+       } else {
+               sp = &ep->seq;
+               if (sp->id != fh->fh_seq_id) {
+-                      atomic_inc(&mp->stats.seq_not_found);
++                      atomic_inc_unchecked(&mp->stats.seq_not_found);
+                       goto rel;
+               }
+       }
+@@ -1249,9 +1249,9 @@ static void fc_exch_recv_resp(struct fc_exch_mgr *mp, struct fc_frame *fp)
+       sp = fc_seq_lookup_orig(mp, fp);        /* doesn't hold sequence */
+       if (!sp)
+-              atomic_inc(&mp->stats.xid_not_found);
++              atomic_inc_unchecked(&mp->stats.xid_not_found);
+       else
+-              atomic_inc(&mp->stats.non_bls_resp);
++              atomic_inc_unchecked(&mp->stats.non_bls_resp);
+       fc_frame_free(fp);
+ }
+diff --git a/drivers/scsi/libsas/sas_ata.c b/drivers/scsi/libsas/sas_ata.c
+index 0ee989f..a582241 100644
+--- a/drivers/scsi/libsas/sas_ata.c
++++ b/drivers/scsi/libsas/sas_ata.c
+@@ -343,7 +343,7 @@ static int sas_ata_scr_read(struct ata_link *link, unsigned int sc_reg_in,
+       }
+ }
+-static struct ata_port_operations sas_sata_ops = {
++static const struct ata_port_operations sas_sata_ops = {
+       .phy_reset              = sas_ata_phy_reset,
+       .post_internal_cmd      = sas_ata_post_internal,
+       .qc_defer               = ata_std_qc_defer,
+diff --git a/drivers/scsi/lpfc/lpfc.h b/drivers/scsi/lpfc/lpfc.h
+index aa10f79..5cc79e4 100644
+--- a/drivers/scsi/lpfc/lpfc.h
++++ b/drivers/scsi/lpfc/lpfc.h
+@@ -400,7 +400,7 @@ struct lpfc_vport {
+       struct dentry *debug_nodelist;
+       struct dentry *vport_debugfs_root;
+       struct lpfc_debugfs_trc *disc_trc;
+-      atomic_t disc_trc_cnt;
++      atomic_unchecked_t disc_trc_cnt;
+ #endif
+       uint8_t stat_data_enabled;
+       uint8_t stat_data_blocked;
+@@ -725,8 +725,8 @@ struct lpfc_hba {
+       struct timer_list fabric_block_timer;
+       unsigned long bit_flags;
+ #define       FABRIC_COMANDS_BLOCKED  0
+-      atomic_t num_rsrc_err;
+-      atomic_t num_cmd_success;
++      atomic_unchecked_t num_rsrc_err;
++      atomic_unchecked_t num_cmd_success;
+       unsigned long last_rsrc_error_time;
+       unsigned long last_ramp_down_time;
+       unsigned long last_ramp_up_time;
+@@ -740,7 +740,7 @@ struct lpfc_hba {
+       struct dentry *debug_dumpDif;    /* BlockGuard BPL*/
+       struct dentry *debug_slow_ring_trc;
+       struct lpfc_debugfs_trc *slow_ring_trc;
+-      atomic_t slow_ring_trc_cnt;
++      atomic_unchecked_t slow_ring_trc_cnt;
+ #endif
+       /* Used for deferred freeing of ELS data buffers */
+diff --git a/drivers/scsi/lpfc/lpfc_debugfs.c b/drivers/scsi/lpfc/lpfc_debugfs.c
+index 8d0f0de..7c77a62 100644
+--- a/drivers/scsi/lpfc/lpfc_debugfs.c
++++ b/drivers/scsi/lpfc/lpfc_debugfs.c
+@@ -124,7 +124,7 @@ struct lpfc_debug {
+       int  len;
+ };
+-static atomic_t lpfc_debugfs_seq_trc_cnt = ATOMIC_INIT(0);
++static atomic_unchecked_t lpfc_debugfs_seq_trc_cnt = ATOMIC_INIT(0);
+ static unsigned long lpfc_debugfs_start_time = 0L;
+ /**
+@@ -158,7 +158,7 @@ lpfc_debugfs_disc_trc_data(struct lpfc_vport *vport, char *buf, int size)
+       lpfc_debugfs_enable = 0;
+       len = 0;
+-      index = (atomic_read(&vport->disc_trc_cnt) + 1) &
++      index = (atomic_read_unchecked(&vport->disc_trc_cnt) + 1) &
+               (lpfc_debugfs_max_disc_trc - 1);
+       for (i = index; i < lpfc_debugfs_max_disc_trc; i++) {
+               dtp = vport->disc_trc + i;
+@@ -219,7 +219,7 @@ lpfc_debugfs_slow_ring_trc_data(struct lpfc_hba *phba, char *buf, int size)
+       lpfc_debugfs_enable = 0;
+       len = 0;
+-      index = (atomic_read(&phba->slow_ring_trc_cnt) + 1) &
++      index = (atomic_read_unchecked(&phba->slow_ring_trc_cnt) + 1) &
+               (lpfc_debugfs_max_slow_ring_trc - 1);
+       for (i = index; i < lpfc_debugfs_max_slow_ring_trc; i++) {
+               dtp = phba->slow_ring_trc + i;
+@@ -397,6 +397,8 @@ lpfc_debugfs_dumpHBASlim_data(struct lpfc_hba *phba, char *buf, int size)
+       uint32_t *ptr;
+       char buffer[1024];
++      pax_track_stack();
++
+       off = 0;
+       spin_lock_irq(&phba->hbalock);
+@@ -634,14 +636,14 @@ lpfc_debugfs_disc_trc(struct lpfc_vport *vport, int mask, char *fmt,
+               !vport || !vport->disc_trc)
+               return;
+-      index = atomic_inc_return(&vport->disc_trc_cnt) &
++      index = atomic_inc_return_unchecked(&vport->disc_trc_cnt) &
+               (lpfc_debugfs_max_disc_trc - 1);
+       dtp = vport->disc_trc + index;
+       dtp->fmt = fmt;
+       dtp->data1 = data1;
+       dtp->data2 = data2;
+       dtp->data3 = data3;
+-      dtp->seq_cnt = atomic_inc_return(&lpfc_debugfs_seq_trc_cnt);
++      dtp->seq_cnt = atomic_inc_return_unchecked(&lpfc_debugfs_seq_trc_cnt);
+       dtp->jif = jiffies;
+ #endif
+       return;
+@@ -672,14 +674,14 @@ lpfc_debugfs_slow_ring_trc(struct lpfc_hba *phba, char *fmt,
+               !phba || !phba->slow_ring_trc)
+               return;
+-      index = atomic_inc_return(&phba->slow_ring_trc_cnt) &
++      index = atomic_inc_return_unchecked(&phba->slow_ring_trc_cnt) &
+               (lpfc_debugfs_max_slow_ring_trc - 1);
+       dtp = phba->slow_ring_trc + index;
+       dtp->fmt = fmt;
+       dtp->data1 = data1;
+       dtp->data2 = data2;
+       dtp->data3 = data3;
+-      dtp->seq_cnt = atomic_inc_return(&lpfc_debugfs_seq_trc_cnt);
++      dtp->seq_cnt = atomic_inc_return_unchecked(&lpfc_debugfs_seq_trc_cnt);
+       dtp->jif = jiffies;
+ #endif
+       return;
+@@ -1364,7 +1366,7 @@ lpfc_debugfs_initialize(struct lpfc_vport *vport)
+                                                "slow_ring buffer\n");
+                               goto debug_failed;
+                       }
+-                      atomic_set(&phba->slow_ring_trc_cnt, 0);
++                      atomic_set_unchecked(&phba->slow_ring_trc_cnt, 0);
+                       memset(phba->slow_ring_trc, 0,
+                               (sizeof(struct lpfc_debugfs_trc) *
+                               lpfc_debugfs_max_slow_ring_trc));
+@@ -1410,7 +1412,7 @@ lpfc_debugfs_initialize(struct lpfc_vport *vport)
+                                "buffer\n");
+               goto debug_failed;
+       }
+-      atomic_set(&vport->disc_trc_cnt, 0);
++      atomic_set_unchecked(&vport->disc_trc_cnt, 0);
+       snprintf(name, sizeof(name), "discovery_trace");
+       vport->debug_disc_trc =
+diff --git a/drivers/scsi/lpfc/lpfc_init.c b/drivers/scsi/lpfc/lpfc_init.c
+index 549bc7d..8189dbb 100644
+--- a/drivers/scsi/lpfc/lpfc_init.c
++++ b/drivers/scsi/lpfc/lpfc_init.c
+@@ -8021,8 +8021,10 @@ lpfc_init(void)
+       printk(LPFC_COPYRIGHT "\n");
+       if (lpfc_enable_npiv) {
+-              lpfc_transport_functions.vport_create = lpfc_vport_create;
+-              lpfc_transport_functions.vport_delete = lpfc_vport_delete;
++              pax_open_kernel();
++              *(void **)&lpfc_transport_functions.vport_create = lpfc_vport_create;
++              *(void **)&lpfc_transport_functions.vport_delete = lpfc_vport_delete;
++              pax_close_kernel();
+       }
+       lpfc_transport_template =
+                               fc_attach_transport(&lpfc_transport_functions);
+diff --git a/drivers/scsi/lpfc/lpfc_scsi.c b/drivers/scsi/lpfc/lpfc_scsi.c
+index c88f59f..ff2a42f 100644
+--- a/drivers/scsi/lpfc/lpfc_scsi.c
++++ b/drivers/scsi/lpfc/lpfc_scsi.c
+@@ -259,7 +259,7 @@ lpfc_rampdown_queue_depth(struct lpfc_hba *phba)
+       uint32_t evt_posted;
+       spin_lock_irqsave(&phba->hbalock, flags);
+-      atomic_inc(&phba->num_rsrc_err);
++      atomic_inc_unchecked(&phba->num_rsrc_err);
+       phba->last_rsrc_error_time = jiffies;
+       if ((phba->last_ramp_down_time + QUEUE_RAMP_DOWN_INTERVAL) > jiffies) {
+@@ -300,7 +300,7 @@ lpfc_rampup_queue_depth(struct lpfc_vport  *vport,
+       unsigned long flags;
+       struct lpfc_hba *phba = vport->phba;
+       uint32_t evt_posted;
+-      atomic_inc(&phba->num_cmd_success);
++      atomic_inc_unchecked(&phba->num_cmd_success);
+       if (vport->cfg_lun_queue_depth <= queue_depth)
+               return;
+@@ -343,8 +343,8 @@ lpfc_ramp_down_queue_handler(struct lpfc_hba *phba)
+       int i;
+       struct lpfc_rport_data *rdata;
+-      num_rsrc_err = atomic_read(&phba->num_rsrc_err);
+-      num_cmd_success = atomic_read(&phba->num_cmd_success);
++      num_rsrc_err = atomic_read_unchecked(&phba->num_rsrc_err);
++      num_cmd_success = atomic_read_unchecked(&phba->num_cmd_success);
+       vports = lpfc_create_vport_work_array(phba);
+       if (vports != NULL)
+@@ -378,8 +378,8 @@ lpfc_ramp_down_queue_handler(struct lpfc_hba *phba)
+                       }
+               }
+       lpfc_destroy_vport_work_array(phba, vports);
+-      atomic_set(&phba->num_rsrc_err, 0);
+-      atomic_set(&phba->num_cmd_success, 0);
++      atomic_set_unchecked(&phba->num_rsrc_err, 0);
++      atomic_set_unchecked(&phba->num_cmd_success, 0);
+ }
+ /**
+@@ -427,8 +427,8 @@ lpfc_ramp_up_queue_handler(struct lpfc_hba *phba)
+                       }
+               }
+       lpfc_destroy_vport_work_array(phba, vports);
+-      atomic_set(&phba->num_rsrc_err, 0);
+-      atomic_set(&phba->num_cmd_success, 0);
++      atomic_set_unchecked(&phba->num_rsrc_err, 0);
++      atomic_set_unchecked(&phba->num_cmd_success, 0);
+ }
+ /**
+diff --git a/drivers/scsi/megaraid/megaraid_mbox.c b/drivers/scsi/megaraid/megaraid_mbox.c
+index 234f0b7..3020aea 100644
+--- a/drivers/scsi/megaraid/megaraid_mbox.c
++++ b/drivers/scsi/megaraid/megaraid_mbox.c
+@@ -3503,6 +3503,8 @@ megaraid_cmm_register(adapter_t *adapter)
+       int             rval;
+       int             i;
++      pax_track_stack();
++
+       // Allocate memory for the base list of scb for management module.
+       adapter->uscb_list = kcalloc(MBOX_MAX_USER_CMDS, sizeof(scb_t), GFP_KERNEL);
+diff --git a/drivers/scsi/osd/osd_initiator.c b/drivers/scsi/osd/osd_initiator.c
+index 7a117c1..ee01e9e 100644
+--- a/drivers/scsi/osd/osd_initiator.c
++++ b/drivers/scsi/osd/osd_initiator.c
+@@ -94,6 +94,8 @@ static int _osd_print_system_info(struct osd_dev *od, void *caps)
+       int nelem = ARRAY_SIZE(get_attrs), a = 0;
+       int ret;
++      pax_track_stack();
++
+       or = osd_start_request(od, GFP_KERNEL);
+       if (!or)
+               return -ENOMEM;
+diff --git a/drivers/scsi/pmcraid.c b/drivers/scsi/pmcraid.c
+index 9ab8c86..9425ad3 100644
+--- a/drivers/scsi/pmcraid.c
++++ b/drivers/scsi/pmcraid.c
+@@ -189,8 +189,8 @@ static int pmcraid_slave_alloc(struct scsi_device *scsi_dev)
+               res->scsi_dev = scsi_dev;
+               scsi_dev->hostdata = res;
+               res->change_detected = 0;
+-              atomic_set(&res->read_failures, 0);
+-              atomic_set(&res->write_failures, 0);
++              atomic_set_unchecked(&res->read_failures, 0);
++              atomic_set_unchecked(&res->write_failures, 0);
+               rc = 0;
+       }
+       spin_unlock_irqrestore(&pinstance->resource_lock, lock_flags);
+@@ -2396,9 +2396,9 @@ static int pmcraid_error_handler(struct pmcraid_cmd *cmd)
+       /* If this was a SCSI read/write command keep count of errors */
+       if (SCSI_CMD_TYPE(scsi_cmd->cmnd[0]) == SCSI_READ_CMD)
+-              atomic_inc(&res->read_failures);
++              atomic_inc_unchecked(&res->read_failures);
+       else if (SCSI_CMD_TYPE(scsi_cmd->cmnd[0]) == SCSI_WRITE_CMD)
+-              atomic_inc(&res->write_failures);
++              atomic_inc_unchecked(&res->write_failures);
+       if (!RES_IS_GSCSI(res->cfg_entry) &&
+               masked_ioasc != PMCRAID_IOASC_HW_DEVICE_BUS_STATUS_ERROR) {
+@@ -4116,7 +4116,7 @@ static void pmcraid_worker_function(struct work_struct *workp)
+       pinstance = container_of(workp, struct pmcraid_instance, worker_q);
+       /* add resources only after host is added into system */
+-      if (!atomic_read(&pinstance->expose_resources))
++      if (!atomic_read_unchecked(&pinstance->expose_resources))
+               return;
+       spin_lock_irqsave(&pinstance->resource_lock, lock_flags);
+@@ -4850,7 +4850,7 @@ static int __devinit pmcraid_init_instance(
+       init_waitqueue_head(&pinstance->reset_wait_q);
+       atomic_set(&pinstance->outstanding_cmds, 0);
+-      atomic_set(&pinstance->expose_resources, 0);
++      atomic_set_unchecked(&pinstance->expose_resources, 0);
+       INIT_LIST_HEAD(&pinstance->free_res_q);
+       INIT_LIST_HEAD(&pinstance->used_res_q);
+@@ -5502,7 +5502,7 @@ static int __devinit pmcraid_probe(
+       /* Schedule worker thread to handle CCN and take care of adding and
+        * removing devices to OS
+        */
+-      atomic_set(&pinstance->expose_resources, 1);
++      atomic_set_unchecked(&pinstance->expose_resources, 1);
+       schedule_work(&pinstance->worker_q);
+       return rc;
+diff --git a/drivers/scsi/pmcraid.h b/drivers/scsi/pmcraid.h
+index 3441b3f..6cbe8f7 100644
+--- a/drivers/scsi/pmcraid.h
++++ b/drivers/scsi/pmcraid.h
+@@ -690,7 +690,7 @@ struct pmcraid_instance {
+       atomic_t outstanding_cmds;
+       /* should add/delete resources to mid-layer now ?*/
+-      atomic_t expose_resources;
++      atomic_unchecked_t expose_resources;
+       /* Tasklet to handle deferred processing */
+       struct tasklet_struct isr_tasklet[PMCRAID_NUM_MSIX_VECTORS];
+@@ -727,8 +727,8 @@ struct pmcraid_resource_entry {
+       struct list_head queue; /* link to "to be exposed" resources */
+       struct pmcraid_config_table_entry cfg_entry;
+       struct scsi_device *scsi_dev;   /* Link scsi_device structure */
+-      atomic_t read_failures;         /* count of failed READ commands */
+-      atomic_t write_failures;        /* count of failed WRITE commands */
++      atomic_unchecked_t read_failures;               /* count of failed READ commands */
++      atomic_unchecked_t write_failures;      /* count of failed WRITE commands */
+       /* To indicate add/delete/modify during CCN */
+       u8 change_detected;
+diff --git a/drivers/scsi/qla2xxx/qla_def.h b/drivers/scsi/qla2xxx/qla_def.h
+index 2150618..7034215 100644
+--- a/drivers/scsi/qla2xxx/qla_def.h
++++ b/drivers/scsi/qla2xxx/qla_def.h
+@@ -2089,7 +2089,7 @@ struct isp_operations {
+       int (*get_flash_version) (struct scsi_qla_host *, void *);
+       int (*start_scsi) (srb_t *);
+-};
++} __no_const;
+ /* MSI-X Support *************************************************************/
+diff --git a/drivers/scsi/qla4xxx/ql4_def.h b/drivers/scsi/qla4xxx/ql4_def.h
+index 81b5f29..2ae1fad 100644
+--- a/drivers/scsi/qla4xxx/ql4_def.h
++++ b/drivers/scsi/qla4xxx/ql4_def.h
+@@ -240,7 +240,7 @@ struct ddb_entry {
+       atomic_t retry_relogin_timer; /* Min Time between relogins
+                                      * (4000 only) */
+       atomic_t relogin_timer; /* Max Time to wait for relogin to complete */
+-      atomic_t relogin_retry_count; /* Num of times relogin has been
++      atomic_unchecked_t relogin_retry_count; /* Num of times relogin has been
+                                      * retried */
+       uint16_t port;
+diff --git a/drivers/scsi/qla4xxx/ql4_init.c b/drivers/scsi/qla4xxx/ql4_init.c
+index af8c323..515dd51 100644
+--- a/drivers/scsi/qla4xxx/ql4_init.c
++++ b/drivers/scsi/qla4xxx/ql4_init.c
+@@ -482,7 +482,7 @@ static struct ddb_entry * qla4xxx_alloc_ddb(struct scsi_qla_host *ha,
+       atomic_set(&ddb_entry->port_down_timer, ha->port_down_retry_count);
+       atomic_set(&ddb_entry->retry_relogin_timer, INVALID_ENTRY);
+       atomic_set(&ddb_entry->relogin_timer, 0);
+-      atomic_set(&ddb_entry->relogin_retry_count, 0);
++      atomic_set_unchecked(&ddb_entry->relogin_retry_count, 0);
+       atomic_set(&ddb_entry->state, DDB_STATE_ONLINE);
+       list_add_tail(&ddb_entry->list, &ha->ddb_list);
+       ha->fw_ddb_index_map[fw_ddb_index] = ddb_entry;
+@@ -1308,7 +1308,7 @@ int qla4xxx_process_ddb_changed(struct scsi_qla_host *ha,
+               atomic_set(&ddb_entry->state, DDB_STATE_ONLINE);
+               atomic_set(&ddb_entry->port_down_timer,
+                          ha->port_down_retry_count);
+-              atomic_set(&ddb_entry->relogin_retry_count, 0);
++              atomic_set_unchecked(&ddb_entry->relogin_retry_count, 0);
+               atomic_set(&ddb_entry->relogin_timer, 0);
+               clear_bit(DF_RELOGIN, &ddb_entry->flags);
+               clear_bit(DF_NO_RELOGIN, &ddb_entry->flags);
+diff --git a/drivers/scsi/qla4xxx/ql4_os.c b/drivers/scsi/qla4xxx/ql4_os.c
+index 83c8b5e..a82b348 100644
+--- a/drivers/scsi/qla4xxx/ql4_os.c
++++ b/drivers/scsi/qla4xxx/ql4_os.c
+@@ -641,13 +641,13 @@ static void qla4xxx_timer(struct scsi_qla_host *ha)
+                           ddb_entry->fw_ddb_device_state ==
+                           DDB_DS_SESSION_FAILED) {
+                               /* Reset retry relogin timer */
+-                              atomic_inc(&ddb_entry->relogin_retry_count);
++                              atomic_inc_unchecked(&ddb_entry->relogin_retry_count);
+                               DEBUG2(printk("scsi%ld: index[%d] relogin"
+                                             " timed out-retrying"
+                                             " relogin (%d)\n",
+                                             ha->host_no,
+                                             ddb_entry->fw_ddb_index,
+-                                            atomic_read(&ddb_entry->
++                                            atomic_read_unchecked(&ddb_entry->
+                                                         relogin_retry_count))
+                                       );
+                               start_dpc++;
+diff --git a/drivers/scsi/scsi.c b/drivers/scsi/scsi.c
+index dd098ca..686ce01 100644
+--- a/drivers/scsi/scsi.c
++++ b/drivers/scsi/scsi.c
+@@ -652,7 +652,7 @@ int scsi_dispatch_cmd(struct scsi_cmnd *cmd)
+       unsigned long timeout;
+       int rtn = 0;
+-      atomic_inc(&cmd->device->iorequest_cnt);
++      atomic_inc_unchecked(&cmd->device->iorequest_cnt);
+       /* check if the device is still usable */
+       if (unlikely(cmd->device->sdev_state == SDEV_DEL)) {
+diff --git a/drivers/scsi/scsi_debug.c b/drivers/scsi/scsi_debug.c
+index bc3e363..e1a8e50 100644
+--- a/drivers/scsi/scsi_debug.c
++++ b/drivers/scsi/scsi_debug.c
+@@ -1395,6 +1395,8 @@ static int resp_mode_select(struct scsi_cmnd * scp, int mselect6,
+       unsigned char arr[SDEBUG_MAX_MSELECT_SZ];
+       unsigned char *cmd = (unsigned char *)scp->cmnd;
++      pax_track_stack();
++
+       if ((errsts = check_readiness(scp, 1, devip)))
+               return errsts;
+       memset(arr, 0, sizeof(arr));
+@@ -1492,6 +1494,8 @@ static int resp_log_sense(struct scsi_cmnd * scp,
+       unsigned char arr[SDEBUG_MAX_LSENSE_SZ];
+       unsigned char *cmd = (unsigned char *)scp->cmnd;
++      pax_track_stack();
++
+       if ((errsts = check_readiness(scp, 1, devip)))
+               return errsts;
+       memset(arr, 0, sizeof(arr));
+diff --git a/drivers/scsi/scsi_lib.c b/drivers/scsi/scsi_lib.c
+index 8df12522..c4c1472 100644
+--- a/drivers/scsi/scsi_lib.c
++++ b/drivers/scsi/scsi_lib.c
+@@ -1389,7 +1389,7 @@ static void scsi_kill_request(struct request *req, struct request_queue *q)
+       shost = sdev->host;
+       scsi_init_cmd_errh(cmd);
+       cmd->result = DID_NO_CONNECT << 16;
+-      atomic_inc(&cmd->device->iorequest_cnt);
++      atomic_inc_unchecked(&cmd->device->iorequest_cnt);
+       /*
+        * SCSI request completion path will do scsi_device_unbusy(),
+@@ -1420,9 +1420,9 @@ static void scsi_softirq_done(struct request *rq)
+        */
+       cmd->serial_number = 0;
+-      atomic_inc(&cmd->device->iodone_cnt);
++      atomic_inc_unchecked(&cmd->device->iodone_cnt);
+       if (cmd->result)
+-              atomic_inc(&cmd->device->ioerr_cnt);
++              atomic_inc_unchecked(&cmd->device->ioerr_cnt);
+       disposition = scsi_decide_disposition(cmd);
+       if (disposition != SUCCESS &&
+diff --git a/drivers/scsi/scsi_sysfs.c b/drivers/scsi/scsi_sysfs.c
+index 91a93e0..eae0fe3 100644
+--- a/drivers/scsi/scsi_sysfs.c
++++ b/drivers/scsi/scsi_sysfs.c
+@@ -662,7 +662,7 @@ show_iostat_##field(struct device *dev, struct device_attribute *attr,     \
+                   char *buf)                                          \
+ {                                                                     \
+       struct scsi_device *sdev = to_scsi_device(dev);                 \
+-      unsigned long long count = atomic_read(&sdev->field);           \
++      unsigned long long count = atomic_read_unchecked(&sdev->field); \
+       return snprintf(buf, 20, "0x%llx\n", count);                    \
+ }                                                                     \
+ static DEVICE_ATTR(field, S_IRUGO, show_iostat_##field, NULL)
+diff --git a/drivers/scsi/scsi_tgt_lib.c b/drivers/scsi/scsi_tgt_lib.c
+index 1030327..f91fd30 100644
+--- a/drivers/scsi/scsi_tgt_lib.c
++++ b/drivers/scsi/scsi_tgt_lib.c
+@@ -362,7 +362,7 @@ static int scsi_map_user_pages(struct scsi_tgt_cmd *tcmd, struct scsi_cmnd *cmd,
+       int err;
+       dprintk("%lx %u\n", uaddr, len);
+-      err = blk_rq_map_user(q, rq, NULL, (void *)uaddr, len, GFP_KERNEL);
++      err = blk_rq_map_user(q, rq, NULL, (void __user *)uaddr, len, GFP_KERNEL);
+       if (err) {
+               /*
+                * TODO: need to fixup sg_tablesize, max_segment_size,
+diff --git a/drivers/scsi/scsi_transport_fc.c b/drivers/scsi/scsi_transport_fc.c
+index db02e31..1b42ea9 100644
+--- a/drivers/scsi/scsi_transport_fc.c
++++ b/drivers/scsi/scsi_transport_fc.c
+@@ -480,7 +480,7 @@ MODULE_PARM_DESC(dev_loss_tmo,
+  * Netlink Infrastructure
+  */
+-static atomic_t fc_event_seq;
++static atomic_unchecked_t fc_event_seq;
+ /**
+  * fc_get_event_number - Obtain the next sequential FC event number
+@@ -493,7 +493,7 @@ static atomic_t fc_event_seq;
+ u32
+ fc_get_event_number(void)
+ {
+-      return atomic_add_return(1, &fc_event_seq);
++      return atomic_add_return_unchecked(1, &fc_event_seq);
+ }
+ EXPORT_SYMBOL(fc_get_event_number);
+@@ -641,7 +641,7 @@ static __init int fc_transport_init(void)
+ {
+       int error;
+-      atomic_set(&fc_event_seq, 0);
++      atomic_set_unchecked(&fc_event_seq, 0);
+       error = transport_class_register(&fc_host_class);
+       if (error)
+diff --git a/drivers/scsi/scsi_transport_iscsi.c b/drivers/scsi/scsi_transport_iscsi.c
+index de2f8c4..63c5278 100644
+--- a/drivers/scsi/scsi_transport_iscsi.c
++++ b/drivers/scsi/scsi_transport_iscsi.c
+@@ -81,7 +81,7 @@ struct iscsi_internal {
+       struct device_attribute *session_attrs[ISCSI_SESSION_ATTRS + 1];
+ };
+-static atomic_t iscsi_session_nr; /* sysfs session id for next new session */
++static atomic_unchecked_t iscsi_session_nr; /* sysfs session id for next new session */
+ static struct workqueue_struct *iscsi_eh_timer_workq;
+ /*
+@@ -728,7 +728,7 @@ int iscsi_add_session(struct iscsi_cls_session *session, unsigned int target_id)
+       int err;
+       ihost = shost->shost_data;
+-      session->sid = atomic_add_return(1, &iscsi_session_nr);
++      session->sid = atomic_add_return_unchecked(1, &iscsi_session_nr);
+       if (id == ISCSI_MAX_TARGET) {
+               for (id = 0; id < ISCSI_MAX_TARGET; id++) {
+@@ -2060,7 +2060,7 @@ static __init int iscsi_transport_init(void)
+       printk(KERN_INFO "Loading iSCSI transport class v%s.\n",
+               ISCSI_TRANSPORT_VERSION);
+-      atomic_set(&iscsi_session_nr, 0);
++      atomic_set_unchecked(&iscsi_session_nr, 0);
+       err = class_register(&iscsi_transport_class);
+       if (err)
+diff --git a/drivers/scsi/scsi_transport_srp.c b/drivers/scsi/scsi_transport_srp.c
+index 21a045e..ec89e03 100644
+--- a/drivers/scsi/scsi_transport_srp.c
++++ b/drivers/scsi/scsi_transport_srp.c
+@@ -33,7 +33,7 @@
+ #include "scsi_transport_srp_internal.h"
+ struct srp_host_attrs {
+-      atomic_t next_port_id;
++      atomic_unchecked_t next_port_id;
+ };
+ #define to_srp_host_attrs(host)       ((struct srp_host_attrs *)(host)->shost_data)
+@@ -62,7 +62,7 @@ static int srp_host_setup(struct transport_container *tc, struct device *dev,
+       struct Scsi_Host *shost = dev_to_shost(dev);
+       struct srp_host_attrs *srp_host = to_srp_host_attrs(shost);
+-      atomic_set(&srp_host->next_port_id, 0);
++      atomic_set_unchecked(&srp_host->next_port_id, 0);
+       return 0;
+ }
+@@ -211,7 +211,7 @@ struct srp_rport *srp_rport_add(struct Scsi_Host *shost,
+       memcpy(rport->port_id, ids->port_id, sizeof(rport->port_id));
+       rport->roles = ids->roles;
+-      id = atomic_inc_return(&to_srp_host_attrs(shost)->next_port_id);
++      id = atomic_inc_return_unchecked(&to_srp_host_attrs(shost)->next_port_id);
+       dev_set_name(&rport->dev, "port-%d:%d", shost->host_no, id);
+       transport_setup_device(&rport->dev);
+diff --git a/drivers/scsi/sg.c b/drivers/scsi/sg.c
+index 040f751..98a5ed2 100644
+--- a/drivers/scsi/sg.c
++++ b/drivers/scsi/sg.c
+@@ -1064,7 +1064,7 @@ sg_ioctl(struct inode *inode, struct file *filp,
+                                      sdp->disk->disk_name,
+                                      MKDEV(SCSI_GENERIC_MAJOR, sdp->index),
+                                      NULL,
+-                                     (char *)arg);
++                                     (char __user *)arg);
+       case BLKTRACESTART:
+               return blk_trace_startstop(sdp->device->request_queue, 1);
+       case BLKTRACESTOP:
+@@ -2292,7 +2292,7 @@ struct sg_proc_leaf {
+       const struct file_operations * fops;
+ };
+-static struct sg_proc_leaf sg_proc_leaf_arr[] = {
++static const struct sg_proc_leaf sg_proc_leaf_arr[] = {
+       {"allow_dio", &adio_fops},
+       {"debug", &debug_fops},
+       {"def_reserved_size", &dressz_fops},
+@@ -2307,7 +2307,7 @@ sg_proc_init(void)
+ {
+       int k, mask;
+       int num_leaves = ARRAY_SIZE(sg_proc_leaf_arr);
+-      struct sg_proc_leaf * leaf;
++      const struct sg_proc_leaf * leaf;
+       sg_proc_sgp = proc_mkdir(sg_proc_sg_dirname, NULL);
+       if (!sg_proc_sgp)
+diff --git a/drivers/scsi/sym53c8xx_2/sym_glue.c b/drivers/scsi/sym53c8xx_2/sym_glue.c
+index c19ca5e..3eb5959 100644
+--- a/drivers/scsi/sym53c8xx_2/sym_glue.c
++++ b/drivers/scsi/sym53c8xx_2/sym_glue.c
+@@ -1758,6 +1758,8 @@ static int __devinit sym2_probe(struct pci_dev *pdev,
+       int do_iounmap = 0;
+       int do_disable_device = 1;
++      pax_track_stack();
++
+       memset(&sym_dev, 0, sizeof(sym_dev));
+       memset(&nvram, 0, sizeof(nvram));
+       sym_dev.pdev = pdev;
+diff --git a/drivers/serial/kgdboc.c b/drivers/serial/kgdboc.c
+index eadc1ab..2d81457 100644
+--- a/drivers/serial/kgdboc.c
++++ b/drivers/serial/kgdboc.c
+@@ -18,7 +18,7 @@
+ #define MAX_CONFIG_LEN                40
+-static struct kgdb_io         kgdboc_io_ops;
++static const struct kgdb_io   kgdboc_io_ops;
+ /* -1 = init not run yet, 0 = unconfigured, 1 = configured. */
+ static int configured         = -1;
+@@ -154,7 +154,7 @@ static void kgdboc_post_exp_handler(void)
+               module_put(THIS_MODULE);
+ }
+-static struct kgdb_io kgdboc_io_ops = {
++static const struct kgdb_io kgdboc_io_ops = {
+       .name                   = "kgdboc",
+       .read_char              = kgdboc_get_char,
+       .write_char             = kgdboc_put_char,
+diff --git a/drivers/spi/spi.c b/drivers/spi/spi.c
+index b76f246..7f41af7 100644
+--- a/drivers/spi/spi.c
++++ b/drivers/spi/spi.c
+@@ -774,7 +774,7 @@ int spi_sync(struct spi_device *spi, struct spi_message *message)
+ EXPORT_SYMBOL_GPL(spi_sync);
+ /* portable code must never pass more than 32 bytes */
+-#define       SPI_BUFSIZ      max(32,SMP_CACHE_BYTES)
++#define       SPI_BUFSIZ      max(32U,SMP_CACHE_BYTES)
+ static u8     *buf;
+diff --git a/drivers/staging/android/binder.c b/drivers/staging/android/binder.c
+index 99010d4..6bad87b 100644
+--- a/drivers/staging/android/binder.c
++++ b/drivers/staging/android/binder.c
+@@ -2756,7 +2756,7 @@ static void binder_vma_close(struct vm_area_struct *vma)
+       binder_defer_work(proc, BINDER_DEFERRED_PUT_FILES);
+ }
+-static struct vm_operations_struct binder_vm_ops = {
++static const struct vm_operations_struct binder_vm_ops = {
+       .open = binder_vma_open,
+       .close = binder_vma_close,
+ };
+diff --git a/drivers/staging/b3dfg/b3dfg.c b/drivers/staging/b3dfg/b3dfg.c
+index cda26bb..39fed3f 100644
+--- a/drivers/staging/b3dfg/b3dfg.c
++++ b/drivers/staging/b3dfg/b3dfg.c
+@@ -455,7 +455,7 @@ static int b3dfg_vma_fault(struct vm_area_struct *vma,
+       return VM_FAULT_NOPAGE;
+ }
+-static struct vm_operations_struct b3dfg_vm_ops = {
++static const struct vm_operations_struct b3dfg_vm_ops = {
+       .fault = b3dfg_vma_fault,
+ };
+@@ -848,7 +848,7 @@ static int b3dfg_mmap(struct file *filp, struct vm_area_struct *vma)
+       return r;
+ }
+-static struct file_operations b3dfg_fops = {
++static const struct file_operations b3dfg_fops = {
+       .owner = THIS_MODULE,
+       .open = b3dfg_open,
+       .release = b3dfg_release,
+diff --git a/drivers/staging/comedi/comedi_fops.c b/drivers/staging/comedi/comedi_fops.c
+index 908f25a..c9a579b 100644
+--- a/drivers/staging/comedi/comedi_fops.c
++++ b/drivers/staging/comedi/comedi_fops.c
+@@ -1389,7 +1389,7 @@ void comedi_unmap(struct vm_area_struct *area)
+       mutex_unlock(&dev->mutex);
+ }
+-static struct vm_operations_struct comedi_vm_ops = {
++static const struct vm_operations_struct comedi_vm_ops = {
+       .close = comedi_unmap,
+ };
+diff --git a/drivers/staging/dream/qdsp5/adsp_driver.c b/drivers/staging/dream/qdsp5/adsp_driver.c
+index e55a0db..577b776 100644
+--- a/drivers/staging/dream/qdsp5/adsp_driver.c
++++ b/drivers/staging/dream/qdsp5/adsp_driver.c
+@@ -576,7 +576,7 @@ static struct adsp_device *inode_to_device(struct inode *inode)
+ static dev_t adsp_devno;
+ static struct class *adsp_class;
+-static struct file_operations adsp_fops = {
++static const struct file_operations adsp_fops = {
+       .owner = THIS_MODULE,
+       .open = adsp_open,
+       .unlocked_ioctl = adsp_ioctl,
+diff --git a/drivers/staging/dream/qdsp5/audio_aac.c b/drivers/staging/dream/qdsp5/audio_aac.c
+index ad2390f..4116ee8 100644
+--- a/drivers/staging/dream/qdsp5/audio_aac.c
++++ b/drivers/staging/dream/qdsp5/audio_aac.c
+@@ -1022,7 +1022,7 @@ done:
+       return rc;
+ }
+-static struct file_operations audio_aac_fops = {
++static const struct file_operations audio_aac_fops = {
+       .owner = THIS_MODULE,
+       .open = audio_open,
+       .release = audio_release,
+diff --git a/drivers/staging/dream/qdsp5/audio_amrnb.c b/drivers/staging/dream/qdsp5/audio_amrnb.c
+index cd818a5..870b37b 100644
+--- a/drivers/staging/dream/qdsp5/audio_amrnb.c
++++ b/drivers/staging/dream/qdsp5/audio_amrnb.c
+@@ -833,7 +833,7 @@ done:
+       return rc;
+ }
+-static struct file_operations audio_amrnb_fops = {
++static const struct file_operations audio_amrnb_fops = {
+       .owner = THIS_MODULE,
+       .open = audamrnb_open,
+       .release = audamrnb_release,
+diff --git a/drivers/staging/dream/qdsp5/audio_evrc.c b/drivers/staging/dream/qdsp5/audio_evrc.c
+index 4b43e18..cedafda 100644
+--- a/drivers/staging/dream/qdsp5/audio_evrc.c
++++ b/drivers/staging/dream/qdsp5/audio_evrc.c
+@@ -805,7 +805,7 @@ dma_fail:
+       return rc;
+ }
+-static struct file_operations audio_evrc_fops = {
++static const struct file_operations audio_evrc_fops = {
+       .owner = THIS_MODULE,
+       .open = audevrc_open,
+       .release = audevrc_release,
+diff --git a/drivers/staging/dream/qdsp5/audio_in.c b/drivers/staging/dream/qdsp5/audio_in.c
+index 3d950a2..9431118 100644
+--- a/drivers/staging/dream/qdsp5/audio_in.c
++++ b/drivers/staging/dream/qdsp5/audio_in.c
+@@ -913,7 +913,7 @@ static int audpre_open(struct inode *inode, struct file *file)
+       return 0;
+ }
+-static struct file_operations audio_fops = {
++static const struct file_operations audio_fops = {
+       .owner          = THIS_MODULE,
+       .open           = audio_in_open,
+       .release        = audio_in_release,
+@@ -922,7 +922,7 @@ static struct file_operations audio_fops = {
+       .unlocked_ioctl = audio_in_ioctl,
+ };
+-static struct file_operations audpre_fops = {
++static const struct file_operations audpre_fops = {
+       .owner          = THIS_MODULE,
+       .open           = audpre_open,
+       .unlocked_ioctl = audpre_ioctl,
+diff --git a/drivers/staging/dream/qdsp5/audio_mp3.c b/drivers/staging/dream/qdsp5/audio_mp3.c
+index b95574f..286c2f4 100644
+--- a/drivers/staging/dream/qdsp5/audio_mp3.c
++++ b/drivers/staging/dream/qdsp5/audio_mp3.c
+@@ -941,7 +941,7 @@ done:
+       return rc;
+ }
+-static struct file_operations audio_mp3_fops = {
++static const struct file_operations audio_mp3_fops = {
+       .owner          = THIS_MODULE,
+       .open           = audio_open,
+       .release        = audio_release,
+diff --git a/drivers/staging/dream/qdsp5/audio_out.c b/drivers/staging/dream/qdsp5/audio_out.c
+index d1adcf6..f8f9833 100644
+--- a/drivers/staging/dream/qdsp5/audio_out.c
++++ b/drivers/staging/dream/qdsp5/audio_out.c
+@@ -810,7 +810,7 @@ static int audpp_open(struct inode *inode, struct file *file)
+       return 0;
+ }
+-static struct file_operations audio_fops = {
++static const struct file_operations audio_fops = {
+       .owner          = THIS_MODULE,
+       .open           = audio_open,
+       .release        = audio_release,
+@@ -819,7 +819,7 @@ static struct file_operations audio_fops = {
+       .unlocked_ioctl = audio_ioctl,
+ };
+-static struct file_operations audpp_fops = {
++static const struct file_operations audpp_fops = {
+       .owner          = THIS_MODULE,
+       .open           = audpp_open,
+       .unlocked_ioctl = audpp_ioctl,
+diff --git a/drivers/staging/dream/qdsp5/audio_qcelp.c b/drivers/staging/dream/qdsp5/audio_qcelp.c
+index f0f50e3..f6b9dbc 100644
+--- a/drivers/staging/dream/qdsp5/audio_qcelp.c
++++ b/drivers/staging/dream/qdsp5/audio_qcelp.c
+@@ -816,7 +816,7 @@ err:
+       return rc;
+ }
+-static struct file_operations audio_qcelp_fops = {
++static const struct file_operations audio_qcelp_fops = {
+       .owner = THIS_MODULE,
+       .open = audqcelp_open,
+       .release = audqcelp_release,
+diff --git a/drivers/staging/dream/qdsp5/snd.c b/drivers/staging/dream/qdsp5/snd.c
+index 037d7ff..5469ec3 100644
+--- a/drivers/staging/dream/qdsp5/snd.c
++++ b/drivers/staging/dream/qdsp5/snd.c
+@@ -242,7 +242,7 @@ err:
+       return rc;
+ }
+-static struct file_operations snd_fops = {
++static const struct file_operations snd_fops = {
+       .owner          = THIS_MODULE,
+       .open           = snd_open,
+       .release        = snd_release,
+diff --git a/drivers/staging/dream/smd/smd_qmi.c b/drivers/staging/dream/smd/smd_qmi.c
+index d4e7d88..0ea632a 100644
+--- a/drivers/staging/dream/smd/smd_qmi.c
++++ b/drivers/staging/dream/smd/smd_qmi.c
+@@ -793,7 +793,7 @@ static int qmi_release(struct inode *ip, struct file *fp)
+       return 0;
+ }
+-static struct file_operations qmi_fops = {
++static const struct file_operations qmi_fops = {
+       .owner = THIS_MODULE,
+       .read = qmi_read,
+       .write = qmi_write,
+diff --git a/drivers/staging/dream/smd/smd_rpcrouter_device.c b/drivers/staging/dream/smd/smd_rpcrouter_device.c
+index cd3910b..ff053d3 100644
+--- a/drivers/staging/dream/smd/smd_rpcrouter_device.c
++++ b/drivers/staging/dream/smd/smd_rpcrouter_device.c
+@@ -214,7 +214,7 @@ static long rpcrouter_ioctl(struct file *filp, unsigned int cmd,
+       return rc;
+ }
+-static struct file_operations rpcrouter_server_fops = {
++static const struct file_operations rpcrouter_server_fops = {
+       .owner   = THIS_MODULE,
+       .open    = rpcrouter_open,
+       .release = rpcrouter_release,
+@@ -224,7 +224,7 @@ static struct file_operations rpcrouter_server_fops = {
+       .unlocked_ioctl  = rpcrouter_ioctl,
+ };
+-static struct file_operations rpcrouter_router_fops = {
++static const struct file_operations rpcrouter_router_fops = {
+       .owner   = THIS_MODULE,
+       .open    = rpcrouter_open,
+       .release = rpcrouter_release,
+diff --git a/drivers/staging/dst/dcore.c b/drivers/staging/dst/dcore.c
+index c24e4e0..07665be 100644
+--- a/drivers/staging/dst/dcore.c
++++ b/drivers/staging/dst/dcore.c
+@@ -149,7 +149,7 @@ static int dst_bdev_release(struct gendisk *disk, fmode_t mode)
+       return 0;
+ }
+-static struct block_device_operations dst_blk_ops = {
++static const struct block_device_operations dst_blk_ops = {
+       .open           = dst_bdev_open,
+       .release        = dst_bdev_release,
+       .owner          = THIS_MODULE,
+@@ -588,7 +588,7 @@ static struct dst_node *dst_alloc_node(struct dst_ctl *ctl,
+       n->size = ctl->size;
+       atomic_set(&n->refcnt, 1);
+-      atomic_long_set(&n->gen, 0);
++      atomic_long_set_unchecked(&n->gen, 0);
+       snprintf(n->name, sizeof(n->name), "%s", ctl->name);
+       err = dst_node_sysfs_init(n);
+diff --git a/drivers/staging/dst/trans.c b/drivers/staging/dst/trans.c
+index 557d372..8d84422 100644
+--- a/drivers/staging/dst/trans.c
++++ b/drivers/staging/dst/trans.c
+@@ -169,7 +169,7 @@ int dst_process_bio(struct dst_node *n, struct bio *bio)
+       t->error = 0;
+       t->retries = 0;
+       atomic_set(&t->refcnt, 1);
+-      t->gen = atomic_long_inc_return(&n->gen);
++      t->gen = atomic_long_inc_return_unchecked(&n->gen);
+       t->enc = bio_data_dir(bio);
+       dst_bio_to_cmd(bio, &t->cmd, DST_IO, t->gen);
+diff --git a/drivers/staging/et131x/et1310_tx.c b/drivers/staging/et131x/et1310_tx.c
+index 94f7752..d051514 100644
+--- a/drivers/staging/et131x/et1310_tx.c
++++ b/drivers/staging/et131x/et1310_tx.c
+@@ -710,11 +710,11 @@ inline void et131x_free_send_packet(struct et131x_adapter *etdev,
+       struct net_device_stats *stats = &etdev->net_stats;
+       if (pMpTcb->Flags & fMP_DEST_BROAD)
+-              atomic_inc(&etdev->Stats.brdcstxmt);
++              atomic_inc_unchecked(&etdev->Stats.brdcstxmt);
+       else if (pMpTcb->Flags & fMP_DEST_MULTI)
+-              atomic_inc(&etdev->Stats.multixmt);
++              atomic_inc_unchecked(&etdev->Stats.multixmt);
+       else
+-              atomic_inc(&etdev->Stats.unixmt);
++              atomic_inc_unchecked(&etdev->Stats.unixmt);
+       if (pMpTcb->Packet) {
+               stats->tx_bytes += pMpTcb->Packet->len;
+diff --git a/drivers/staging/et131x/et131x_adapter.h b/drivers/staging/et131x/et131x_adapter.h
+index 1dfe06f..f469b4d 100644
+--- a/drivers/staging/et131x/et131x_adapter.h
++++ b/drivers/staging/et131x/et131x_adapter.h
+@@ -145,11 +145,11 @@ typedef struct _ce_stats_t {
+        * operations
+        */
+       u32 unircv;     /* # multicast packets received */
+-      atomic_t unixmt;        /* # multicast packets for Tx */
++      atomic_unchecked_t unixmt;      /* # multicast packets for Tx */
+       u32 multircv;   /* # multicast packets received */
+-      atomic_t multixmt;      /* # multicast packets for Tx */
++      atomic_unchecked_t multixmt;    /* # multicast packets for Tx */
+       u32 brdcstrcv;  /* # broadcast packets received */
+-      atomic_t brdcstxmt;     /* # broadcast packets for Tx */
++      atomic_unchecked_t brdcstxmt;   /* # broadcast packets for Tx */
+       u32 norcvbuf;   /* # Rx packets discarded */
+       u32 noxmtbuf;   /* # Tx packets discarded */
+diff --git a/drivers/staging/go7007/go7007-v4l2.c b/drivers/staging/go7007/go7007-v4l2.c
+index 4bd353a..e28f455 100644
+--- a/drivers/staging/go7007/go7007-v4l2.c
++++ b/drivers/staging/go7007/go7007-v4l2.c
+@@ -1700,7 +1700,7 @@ static int go7007_vm_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
+       return 0;
+ }
+-static struct vm_operations_struct go7007_vm_ops = {
++static const struct vm_operations_struct go7007_vm_ops = {
+       .open   = go7007_vm_open,
+       .close  = go7007_vm_close,
+       .fault  = go7007_vm_fault,
+diff --git a/drivers/staging/hv/Channel.c b/drivers/staging/hv/Channel.c
+index 366dc95..b974d87 100644
+--- a/drivers/staging/hv/Channel.c
++++ b/drivers/staging/hv/Channel.c
+@@ -464,8 +464,8 @@ int VmbusChannelEstablishGpadl(struct vmbus_channel *Channel, void *Kbuffer,
+       DPRINT_ENTER(VMBUS);
+-      nextGpadlHandle = atomic_read(&gVmbusConnection.NextGpadlHandle);
+-      atomic_inc(&gVmbusConnection.NextGpadlHandle);
++      nextGpadlHandle = atomic_read_unchecked(&gVmbusConnection.NextGpadlHandle);
++      atomic_inc_unchecked(&gVmbusConnection.NextGpadlHandle);
+       VmbusChannelCreateGpadlHeader(Kbuffer, Size, &msgInfo, &msgCount);
+       ASSERT(msgInfo != NULL);
+diff --git a/drivers/staging/hv/Hv.c b/drivers/staging/hv/Hv.c
+index b12237f..01ae28a 100644
+--- a/drivers/staging/hv/Hv.c
++++ b/drivers/staging/hv/Hv.c
+@@ -161,7 +161,7 @@ static u64 HvDoHypercall(u64 Control, void *Input, void *Output)
+       u64 outputAddress = (Output) ? virt_to_phys(Output) : 0;
+       u32 outputAddressHi = outputAddress >> 32;
+       u32 outputAddressLo = outputAddress & 0xFFFFFFFF;
+-      volatile void *hypercallPage = gHvContext.HypercallPage;
++      volatile void *hypercallPage = ktva_ktla(gHvContext.HypercallPage);
+       DPRINT_DBG(VMBUS, "Hypercall <control %llx input %p output %p>",
+                  Control, Input, Output);
+diff --git a/drivers/staging/hv/VmbusApi.h b/drivers/staging/hv/VmbusApi.h
+index d089bb1..2ebc158 100644
+--- a/drivers/staging/hv/VmbusApi.h
++++ b/drivers/staging/hv/VmbusApi.h
+@@ -109,7 +109,7 @@ struct vmbus_channel_interface {
+                             u32 *GpadlHandle);
+       int (*TeardownGpadl)(struct hv_device *device, u32 GpadlHandle);
+       void (*GetInfo)(struct hv_device *dev, struct hv_device_info *devinfo);
+-};
++} __no_const;
+ /* Base driver object */
+ struct hv_driver {
+diff --git a/drivers/staging/hv/VmbusPrivate.h b/drivers/staging/hv/VmbusPrivate.h
+index 5a37cce..6ecc88c 100644
+--- a/drivers/staging/hv/VmbusPrivate.h
++++ b/drivers/staging/hv/VmbusPrivate.h
+@@ -59,7 +59,7 @@ enum VMBUS_CONNECT_STATE {
+ struct VMBUS_CONNECTION {
+       enum VMBUS_CONNECT_STATE ConnectState;
+-      atomic_t NextGpadlHandle;
++      atomic_unchecked_t NextGpadlHandle;
+       /*
+        * Represents channel interrupts. Each bit position represents a
+diff --git a/drivers/staging/hv/blkvsc_drv.c b/drivers/staging/hv/blkvsc_drv.c
+index 871a202..ca50ddf 100644
+--- a/drivers/staging/hv/blkvsc_drv.c
++++ b/drivers/staging/hv/blkvsc_drv.c
+@@ -153,7 +153,7 @@ static int blkvsc_ringbuffer_size = BLKVSC_RING_BUFFER_SIZE;
+ /* The one and only one */
+ static struct blkvsc_driver_context g_blkvsc_drv;
+-static struct block_device_operations block_ops = {
++static const struct block_device_operations block_ops = {
+       .owner = THIS_MODULE,
+       .open = blkvsc_open,
+       .release = blkvsc_release,
+diff --git a/drivers/staging/hv/vmbus_drv.c b/drivers/staging/hv/vmbus_drv.c
+index 6acc49a..fbc8d46 100644
+--- a/drivers/staging/hv/vmbus_drv.c
++++ b/drivers/staging/hv/vmbus_drv.c
+@@ -532,7 +532,7 @@ static int vmbus_child_device_register(struct hv_device *root_device_obj,
+                               to_device_context(root_device_obj);
+       struct device_context *child_device_ctx =
+                               to_device_context(child_device_obj);
+-      static atomic_t device_num = ATOMIC_INIT(0);
++      static atomic_unchecked_t device_num = ATOMIC_INIT(0);
+       DPRINT_ENTER(VMBUS_DRV);
+@@ -541,7 +541,7 @@ static int vmbus_child_device_register(struct hv_device *root_device_obj,
+       /* Set the device name. Otherwise, device_register() will fail. */
+       dev_set_name(&child_device_ctx->device, "vmbus_0_%d",
+-                   atomic_inc_return(&device_num));
++                   atomic_inc_return_unchecked(&device_num));
+       /* The new device belongs to this bus */
+       child_device_ctx->device.bus = &g_vmbus_drv.bus; /* device->dev.bus; */
+diff --git a/drivers/staging/iio/ring_generic.h b/drivers/staging/iio/ring_generic.h
+index d926189..17b19fd 100644
+--- a/drivers/staging/iio/ring_generic.h
++++ b/drivers/staging/iio/ring_generic.h
+@@ -87,7 +87,7 @@ struct iio_ring_access_funcs {
+       int (*is_enabled)(struct iio_ring_buffer *ring);
+       int (*enable)(struct iio_ring_buffer *ring);
+-};
++} __no_const;
+ /**
+  * struct iio_ring_buffer - general ring buffer structure
+diff --git a/drivers/staging/octeon/ethernet-rx.c b/drivers/staging/octeon/ethernet-rx.c
+index 1b237b7..88c624e 100644
+--- a/drivers/staging/octeon/ethernet-rx.c
++++ b/drivers/staging/octeon/ethernet-rx.c
+@@ -406,11 +406,11 @@ void cvm_oct_tasklet_rx(unsigned long unused)
+                               /* Increment RX stats for virtual ports */
+                               if (work->ipprt >= CVMX_PIP_NUM_INPUT_PORTS) {
+ #ifdef CONFIG_64BIT
+-                                      atomic64_add(1, (atomic64_t *)&priv->stats.rx_packets);
+-                                      atomic64_add(skb->len, (atomic64_t *)&priv->stats.rx_bytes);
++                                      atomic64_add_unchecked(1, (atomic64_unchecked_t *)&priv->stats.rx_packets);
++                                      atomic64_add_unchecked(skb->len, (atomic64_unchecked_t *)&priv->stats.rx_bytes);
+ #else
+-                                      atomic_add(1, (atomic_t *)&priv->stats.rx_packets);
+-                                      atomic_add(skb->len, (atomic_t *)&priv->stats.rx_bytes);
++                                      atomic_add_unchecked(1, (atomic_unchecked_t *)&priv->stats.rx_packets);
++                                      atomic_add_unchecked(skb->len, (atomic_unchecked_t *)&priv->stats.rx_bytes);
+ #endif
+                               }
+                               netif_receive_skb(skb);
+@@ -424,9 +424,9 @@ void cvm_oct_tasklet_rx(unsigned long unused)
+                                  dev->name);
+                                */
+ #ifdef CONFIG_64BIT
+-                              atomic64_add(1, (atomic64_t *)&priv->stats.rx_dropped);
++                              atomic64_add_unchecked(1, (atomic64_t *)&priv->stats.rx_dropped);
+ #else
+-                              atomic_add(1, (atomic_t *)&priv->stats.rx_dropped);
++                              atomic_add_unchecked(1, (atomic_t *)&priv->stats.rx_dropped);
+ #endif
+                               dev_kfree_skb_irq(skb);
+                       }
+diff --git a/drivers/staging/octeon/ethernet.c b/drivers/staging/octeon/ethernet.c
+index 492c502..d9909f1 100644
+--- a/drivers/staging/octeon/ethernet.c
++++ b/drivers/staging/octeon/ethernet.c
+@@ -294,11 +294,11 @@ static struct net_device_stats *cvm_oct_common_get_stats(struct net_device *dev)
+                * since the RX tasklet also increments it.
+                */
+ #ifdef CONFIG_64BIT
+-              atomic64_add(rx_status.dropped_packets,
+-                           (atomic64_t *)&priv->stats.rx_dropped);
++              atomic64_add_unchecked(rx_status.dropped_packets,
++                           (atomic64_unchecked_t *)&priv->stats.rx_dropped);
+ #else
+-              atomic_add(rx_status.dropped_packets,
+-                           (atomic_t *)&priv->stats.rx_dropped);
++              atomic_add_unchecked(rx_status.dropped_packets,
++                           (atomic_unchecked_t *)&priv->stats.rx_dropped);
+ #endif
+       }
+diff --git a/drivers/staging/otus/80211core/pub_zfi.h b/drivers/staging/otus/80211core/pub_zfi.h
+index a35bd5d..28fff45 100644
+--- a/drivers/staging/otus/80211core/pub_zfi.h
++++ b/drivers/staging/otus/80211core/pub_zfi.h
+@@ -531,7 +531,7 @@ struct zsCbFuncTbl
+     u8_t (*zfcbClassifyTxPacket)(zdev_t* dev, zbuf_t* buf);
+     void (*zfcbHwWatchDogNotify)(zdev_t* dev);
+-};
++} __no_const;
+ extern void zfZeroMemory(u8_t* va, u16_t length);
+ #define ZM_INIT_CB_FUNC_TABLE(p)        zfZeroMemory((u8_t *)p, sizeof(struct zsCbFuncTbl));
+diff --git a/drivers/staging/panel/panel.c b/drivers/staging/panel/panel.c
+index c39a25f..696f5aa 100644
+--- a/drivers/staging/panel/panel.c
++++ b/drivers/staging/panel/panel.c
+@@ -1305,7 +1305,7 @@ static int lcd_release(struct inode *inode, struct file *file)
+       return 0;
+ }
+-static struct file_operations lcd_fops = {
++static const struct file_operations lcd_fops = {
+       .write   = lcd_write,
+       .open    = lcd_open,
+       .release = lcd_release,
+@@ -1565,7 +1565,7 @@ static int keypad_release(struct inode *inode, struct file *file)
+       return 0;
+ }
+-static struct file_operations keypad_fops = {
++static const struct file_operations keypad_fops = {
+       .read    = keypad_read,         /* read */
+       .open    = keypad_open,         /* open */
+       .release = keypad_release,      /* close */
+diff --git a/drivers/staging/phison/phison.c b/drivers/staging/phison/phison.c
+index 270ebcb..37e46af 100644
+--- a/drivers/staging/phison/phison.c
++++ b/drivers/staging/phison/phison.c
+@@ -43,7 +43,7 @@ static struct scsi_host_template phison_sht = {
+       ATA_BMDMA_SHT(DRV_NAME),
+ };
+-static struct ata_port_operations phison_ops = {
++static const struct ata_port_operations phison_ops = {
+       .inherits               = &ata_bmdma_port_ops,
+       .prereset               = phison_pre_reset,
+ };
+diff --git a/drivers/staging/poch/poch.c b/drivers/staging/poch/poch.c
+index 2eb8e3d..57616a7 100644
+--- a/drivers/staging/poch/poch.c
++++ b/drivers/staging/poch/poch.c
+@@ -1057,7 +1057,7 @@ static int poch_ioctl(struct inode *inode, struct file *filp,
+       return 0;
+ }
+-static struct file_operations poch_fops = {
++static const struct file_operations poch_fops = {
+       .owner = THIS_MODULE,
+       .open = poch_open,
+       .release = poch_release,
+diff --git a/drivers/staging/pohmelfs/inode.c b/drivers/staging/pohmelfs/inode.c
+index c94de31..19402bc 100644
+--- a/drivers/staging/pohmelfs/inode.c
++++ b/drivers/staging/pohmelfs/inode.c
+@@ -1850,7 +1850,7 @@ static int pohmelfs_fill_super(struct super_block *sb, void *data, int silent)
+       mutex_init(&psb->mcache_lock);
+       psb->mcache_root = RB_ROOT;
+       psb->mcache_timeout = msecs_to_jiffies(5000);
+-      atomic_long_set(&psb->mcache_gen, 0);
++      atomic_long_set_unchecked(&psb->mcache_gen, 0);
+       psb->trans_max_pages = 100;
+@@ -1865,7 +1865,7 @@ static int pohmelfs_fill_super(struct super_block *sb, void *data, int silent)
+       INIT_LIST_HEAD(&psb->crypto_ready_list);
+       INIT_LIST_HEAD(&psb->crypto_active_list);
+-      atomic_set(&psb->trans_gen, 1);
++      atomic_set_unchecked(&psb->trans_gen, 1);
+       atomic_long_set(&psb->total_inodes, 0);
+       mutex_init(&psb->state_lock);
+diff --git a/drivers/staging/pohmelfs/mcache.c b/drivers/staging/pohmelfs/mcache.c
+index e22665c..a2a9390 100644
+--- a/drivers/staging/pohmelfs/mcache.c
++++ b/drivers/staging/pohmelfs/mcache.c
+@@ -121,7 +121,7 @@ struct pohmelfs_mcache *pohmelfs_mcache_alloc(struct pohmelfs_sb *psb, u64 start
+       m->data = data;
+       m->start = start;
+       m->size = size;
+-      m->gen = atomic_long_inc_return(&psb->mcache_gen);
++      m->gen = atomic_long_inc_return_unchecked(&psb->mcache_gen);
+       mutex_lock(&psb->mcache_lock);
+       err = pohmelfs_mcache_insert(psb, m);
+diff --git a/drivers/staging/pohmelfs/netfs.h b/drivers/staging/pohmelfs/netfs.h
+index 623a07d..4035c19 100644
+--- a/drivers/staging/pohmelfs/netfs.h
++++ b/drivers/staging/pohmelfs/netfs.h
+@@ -570,14 +570,14 @@ struct pohmelfs_config;
+ struct pohmelfs_sb {
+       struct rb_root          mcache_root;
+       struct mutex            mcache_lock;
+-      atomic_long_t           mcache_gen;
++      atomic_long_unchecked_t mcache_gen;
+       unsigned long           mcache_timeout;
+       unsigned int            idx;
+       unsigned int            trans_retries;
+-      atomic_t                trans_gen;
++      atomic_unchecked_t      trans_gen;
+       unsigned int            crypto_attached_size;
+       unsigned int            crypto_align_size;
+diff --git a/drivers/staging/pohmelfs/trans.c b/drivers/staging/pohmelfs/trans.c
+index 36a2535..0591bf4 100644
+--- a/drivers/staging/pohmelfs/trans.c
++++ b/drivers/staging/pohmelfs/trans.c
+@@ -492,7 +492,7 @@ int netfs_trans_finish(struct netfs_trans *t, struct pohmelfs_sb *psb)
+       int err;
+       struct netfs_cmd *cmd = t->iovec.iov_base;
+-      t->gen = atomic_inc_return(&psb->trans_gen);
++      t->gen = atomic_inc_return_unchecked(&psb->trans_gen);
+       cmd->size = t->iovec.iov_len - sizeof(struct netfs_cmd) +
+               t->attached_size + t->attached_pages * sizeof(struct netfs_cmd);
+diff --git a/drivers/staging/sep/sep_driver.c b/drivers/staging/sep/sep_driver.c
+index f890a16..509ece8 100644
+--- a/drivers/staging/sep/sep_driver.c
++++ b/drivers/staging/sep/sep_driver.c
+@@ -2603,7 +2603,7 @@ static struct pci_driver sep_pci_driver = {
+ static dev_t sep_devno;
+ /* the files operations structure of the driver */
+-static struct file_operations sep_file_operations = {
++static const struct file_operations sep_file_operations = {
+       .owner = THIS_MODULE,
+       .ioctl = sep_ioctl,
+       .poll = sep_poll,
+diff --git a/drivers/staging/usbip/usbip_common.h b/drivers/staging/usbip/usbip_common.h
+index 5e16bc3..7655b10 100644
+--- a/drivers/staging/usbip/usbip_common.h
++++ b/drivers/staging/usbip/usbip_common.h
+@@ -374,7 +374,7 @@ struct usbip_device {
+               void (*shutdown)(struct usbip_device *);
+               void (*reset)(struct usbip_device *);
+               void (*unusable)(struct usbip_device *);
+-      } eh_ops;
++      } __no_const eh_ops;
+ };
+diff --git a/drivers/staging/usbip/vhci.h b/drivers/staging/usbip/vhci.h
+index 57f7946..d9df23d 100644
+--- a/drivers/staging/usbip/vhci.h
++++ b/drivers/staging/usbip/vhci.h
+@@ -92,7 +92,7 @@ struct vhci_hcd {
+       unsigned        resuming:1;
+       unsigned long   re_timeout;
+-      atomic_t seqnum;
++      atomic_unchecked_t seqnum;
+       /*
+        * NOTE:
+diff --git a/drivers/staging/usbip/vhci_hcd.c b/drivers/staging/usbip/vhci_hcd.c
+index 20cd7db..c2693ff 100644
+--- a/drivers/staging/usbip/vhci_hcd.c
++++ b/drivers/staging/usbip/vhci_hcd.c
+@@ -534,7 +534,7 @@ static void vhci_tx_urb(struct urb *urb)
+               return;
+       }
+-      priv->seqnum = atomic_inc_return(&the_controller->seqnum);
++      priv->seqnum = atomic_inc_return_unchecked(&the_controller->seqnum);
+       if (priv->seqnum == 0xffff)
+               usbip_uinfo("seqnum max\n");
+@@ -793,7 +793,7 @@ static int vhci_urb_dequeue(struct usb_hcd *hcd, struct urb *urb, int status)
+                       return -ENOMEM;
+               }
+-              unlink->seqnum = atomic_inc_return(&the_controller->seqnum);
++              unlink->seqnum = atomic_inc_return_unchecked(&the_controller->seqnum);
+               if (unlink->seqnum == 0xffff)
+                       usbip_uinfo("seqnum max\n");
+@@ -988,7 +988,7 @@ static int vhci_start(struct usb_hcd *hcd)
+               vdev->rhport = rhport;
+       }
+-      atomic_set(&vhci->seqnum, 0);
++      atomic_set_unchecked(&vhci->seqnum, 0);
+       spin_lock_init(&vhci->lock);
+diff --git a/drivers/staging/usbip/vhci_rx.c b/drivers/staging/usbip/vhci_rx.c
+index 7fd76fe..673695a 100644
+--- a/drivers/staging/usbip/vhci_rx.c
++++ b/drivers/staging/usbip/vhci_rx.c
+@@ -79,7 +79,7 @@ static void vhci_recv_ret_submit(struct vhci_device *vdev,
+               usbip_uerr("cannot find a urb of seqnum %u\n",
+                                                       pdu->base.seqnum);
+               usbip_uinfo("max seqnum %d\n",
+-                                      atomic_read(&the_controller->seqnum));
++                                      atomic_read_unchecked(&the_controller->seqnum));
+               usbip_event_add(ud, VDEV_EVENT_ERROR_TCP);
+               return;
+       }
+diff --git a/drivers/staging/vme/devices/vme_user.c b/drivers/staging/vme/devices/vme_user.c
+index 7891288..8e31300 100644
+--- a/drivers/staging/vme/devices/vme_user.c
++++ b/drivers/staging/vme/devices/vme_user.c
+@@ -136,7 +136,7 @@ static int vme_user_ioctl(struct inode *, struct file *, unsigned int,
+ static int __init vme_user_probe(struct device *, int, int);
+ static int __exit vme_user_remove(struct device *, int, int);
+-static struct file_operations vme_user_fops = {
++static const struct file_operations vme_user_fops = {
+         .open = vme_user_open,
+         .release = vme_user_release,
+         .read = vme_user_read,
+diff --git a/drivers/staging/vt6655/hostap.c b/drivers/staging/vt6655/hostap.c
+index 58abf44..00c1fc8 100644
+--- a/drivers/staging/vt6655/hostap.c
++++ b/drivers/staging/vt6655/hostap.c
+@@ -84,7 +84,7 @@ static int hostap_enable_hostapd(PSDevice pDevice, int rtnl_locked)
+     PSDevice apdev_priv;
+       struct net_device *dev = pDevice->dev;
+       int ret;
+-      const struct net_device_ops apdev_netdev_ops = {
++      net_device_ops_no_const apdev_netdev_ops = {
+               .ndo_start_xmit         = pDevice->tx_80211,
+       };
+diff --git a/drivers/staging/vt6656/hostap.c b/drivers/staging/vt6656/hostap.c
+index 0c8267a..db1f363 100644
+--- a/drivers/staging/vt6656/hostap.c
++++ b/drivers/staging/vt6656/hostap.c
+@@ -86,7 +86,7 @@ static int hostap_enable_hostapd(PSDevice pDevice, int rtnl_locked)
+     PSDevice apdev_priv;
+       struct net_device *dev = pDevice->dev;
+       int ret;
+-      const struct net_device_ops apdev_netdev_ops = {
++      net_device_ops_no_const apdev_netdev_ops = {
+               .ndo_start_xmit         = pDevice->tx_80211,
+       };
+diff --git a/drivers/staging/wlan-ng/hfa384x_usb.c b/drivers/staging/wlan-ng/hfa384x_usb.c
+index 925678b..da7f5ed 100644
+--- a/drivers/staging/wlan-ng/hfa384x_usb.c
++++ b/drivers/staging/wlan-ng/hfa384x_usb.c
+@@ -205,7 +205,7 @@ static void unlocked_usbctlx_complete(hfa384x_t *hw, hfa384x_usbctlx_t *ctlx);
+ struct usbctlx_completor {
+       int (*complete) (struct usbctlx_completor *);
+-};
++} __no_const;
+ typedef struct usbctlx_completor usbctlx_completor_t;
+ static int
+diff --git a/drivers/telephony/ixj.c b/drivers/telephony/ixj.c
+index 40de151..924f268 100644
+--- a/drivers/telephony/ixj.c
++++ b/drivers/telephony/ixj.c
+@@ -4976,6 +4976,8 @@ static int ixj_daa_cid_read(IXJ *j)
+       bool mContinue;
+       char *pIn, *pOut;
++      pax_track_stack();
++
+       if (!SCI_Prepare(j))
+               return 0;
+diff --git a/drivers/uio/uio.c b/drivers/uio/uio.c
+index e941367..b631f5a 100644
+--- a/drivers/uio/uio.c
++++ b/drivers/uio/uio.c
+@@ -23,6 +23,7 @@
+ #include <linux/string.h>
+ #include <linux/kobject.h>
+ #include <linux/uio_driver.h>
++#include <asm/local.h>
+ #define UIO_MAX_DEVICES 255
+@@ -30,10 +31,10 @@ struct uio_device {
+       struct module           *owner;
+       struct device           *dev;
+       int                     minor;
+-      atomic_t                event;
++      atomic_unchecked_t      event;
+       struct fasync_struct    *async_queue;
+       wait_queue_head_t       wait;
+-      int                     vma_count;
++      local_t                 vma_count;
+       struct uio_info         *info;
+       struct kobject          *map_dir;
+       struct kobject          *portio_dir;
+@@ -129,7 +130,7 @@ static ssize_t map_type_show(struct kobject *kobj, struct attribute *attr,
+       return entry->show(mem, buf);
+ }
+-static struct sysfs_ops map_sysfs_ops = {
++static const struct sysfs_ops map_sysfs_ops = {
+       .show = map_type_show,
+ };
+@@ -217,7 +218,7 @@ static ssize_t portio_type_show(struct kobject *kobj, struct attribute *attr,
+       return entry->show(port, buf);
+ }
+-static struct sysfs_ops portio_sysfs_ops = {
++static const struct sysfs_ops portio_sysfs_ops = {
+       .show = portio_type_show,
+ };
+@@ -255,7 +256,7 @@ static ssize_t show_event(struct device *dev,
+       struct uio_device *idev = dev_get_drvdata(dev);
+       if (idev)
+               return sprintf(buf, "%u\n",
+-                              (unsigned int)atomic_read(&idev->event));
++                              (unsigned int)atomic_read_unchecked(&idev->event));
+       else
+               return -ENODEV;
+ }
+@@ -424,7 +425,7 @@ void uio_event_notify(struct uio_info *info)
+ {
+       struct uio_device *idev = info->uio_dev;
+-      atomic_inc(&idev->event);
++      atomic_inc_unchecked(&idev->event);
+       wake_up_interruptible(&idev->wait);
+       kill_fasync(&idev->async_queue, SIGIO, POLL_IN);
+ }
+@@ -477,7 +478,7 @@ static int uio_open(struct inode *inode, struct file *filep)
+       }
+       listener->dev = idev;
+-      listener->event_count = atomic_read(&idev->event);
++      listener->event_count = atomic_read_unchecked(&idev->event);
+       filep->private_data = listener;
+       if (idev->info->open) {
+@@ -528,7 +529,7 @@ static unsigned int uio_poll(struct file *filep, poll_table *wait)
+               return -EIO;
+       poll_wait(filep, &idev->wait, wait);
+-      if (listener->event_count != atomic_read(&idev->event))
++      if (listener->event_count != atomic_read_unchecked(&idev->event))
+               return POLLIN | POLLRDNORM;
+       return 0;
+ }
+@@ -553,7 +554,7 @@ static ssize_t uio_read(struct file *filep, char __user *buf,
+       do {
+               set_current_state(TASK_INTERRUPTIBLE);
+-              event_count = atomic_read(&idev->event);
++              event_count = atomic_read_unchecked(&idev->event);
+               if (event_count != listener->event_count) {
+                       if (copy_to_user(buf, &event_count, count))
+                               retval = -EFAULT;
+@@ -624,13 +625,13 @@ static int uio_find_mem_index(struct vm_area_struct *vma)
+ static void uio_vma_open(struct vm_area_struct *vma)
+ {
+       struct uio_device *idev = vma->vm_private_data;
+-      idev->vma_count++;
++      local_inc(&idev->vma_count);
+ }
+ static void uio_vma_close(struct vm_area_struct *vma)
+ {
+       struct uio_device *idev = vma->vm_private_data;
+-      idev->vma_count--;
++      local_dec(&idev->vma_count);
+ }
+ static int uio_vma_fault(struct vm_area_struct *vma, struct vm_fault *vmf)
+@@ -840,7 +841,7 @@ int __uio_register_device(struct module *owner,
+       idev->owner = owner;
+       idev->info = info;
+       init_waitqueue_head(&idev->wait);
+-      atomic_set(&idev->event, 0);
++      atomic_set_unchecked(&idev->event, 0);
+       ret = uio_get_minor(idev);
+       if (ret)
+diff --git a/drivers/usb/atm/usbatm.c b/drivers/usb/atm/usbatm.c
+index fbea856..06efea6 100644
+--- a/drivers/usb/atm/usbatm.c
++++ b/drivers/usb/atm/usbatm.c
+@@ -333,7 +333,7 @@ static void usbatm_extract_one_cell(struct usbatm_data *instance, unsigned char
+               if (printk_ratelimit())
+                       atm_warn(instance, "%s: OAM not supported (vpi %d, vci %d)!\n",
+                               __func__, vpi, vci);
+-              atomic_inc(&vcc->stats->rx_err);
++              atomic_inc_unchecked(&vcc->stats->rx_err);
+               return;
+       }
+@@ -361,7 +361,7 @@ static void usbatm_extract_one_cell(struct usbatm_data *instance, unsigned char
+               if (length > ATM_MAX_AAL5_PDU) {
+                       atm_rldbg(instance, "%s: bogus length %u (vcc: 0x%p)!\n",
+                                 __func__, length, vcc);
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+                       goto out;
+               }
+@@ -370,14 +370,14 @@ static void usbatm_extract_one_cell(struct usbatm_data *instance, unsigned char
+               if (sarb->len < pdu_length) {
+                       atm_rldbg(instance, "%s: bogus pdu_length %u (sarb->len: %u, vcc: 0x%p)!\n",
+                                 __func__, pdu_length, sarb->len, vcc);
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+                       goto out;
+               }
+               if (crc32_be(~0, skb_tail_pointer(sarb) - pdu_length, pdu_length) != 0xc704dd7b) {
+                       atm_rldbg(instance, "%s: packet failed crc check (vcc: 0x%p)!\n",
+                                 __func__, vcc);
+-                      atomic_inc(&vcc->stats->rx_err);
++                      atomic_inc_unchecked(&vcc->stats->rx_err);
+                       goto out;
+               }
+@@ -387,7 +387,7 @@ static void usbatm_extract_one_cell(struct usbatm_data *instance, unsigned char
+                       if (printk_ratelimit())
+                               atm_err(instance, "%s: no memory for skb (length: %u)!\n",
+                                       __func__, length);
+-                      atomic_inc(&vcc->stats->rx_drop);
++                      atomic_inc_unchecked(&vcc->stats->rx_drop);
+                       goto out;
+               }
+@@ -412,7 +412,7 @@ static void usbatm_extract_one_cell(struct usbatm_data *instance, unsigned char
+               vcc->push(vcc, skb);
+-              atomic_inc(&vcc->stats->rx);
++              atomic_inc_unchecked(&vcc->stats->rx);
+       out:
+               skb_trim(sarb, 0);
+       }
+@@ -616,7 +616,7 @@ static void usbatm_tx_process(unsigned long data)
+                       struct atm_vcc *vcc = UDSL_SKB(skb)->atm.vcc;
+                       usbatm_pop(vcc, skb);
+-                      atomic_inc(&vcc->stats->tx);
++                      atomic_inc_unchecked(&vcc->stats->tx);
+                       skb = skb_dequeue(&instance->sndqueue);
+               }
+@@ -775,11 +775,11 @@ static int usbatm_atm_proc_read(struct atm_dev *atm_dev, loff_t * pos, char *pag
+       if (!left--)
+               return sprintf(page,
+                              "AAL5: tx %d ( %d err ), rx %d ( %d err, %d drop )\n",
+-                             atomic_read(&atm_dev->stats.aal5.tx),
+-                             atomic_read(&atm_dev->stats.aal5.tx_err),
+-                             atomic_read(&atm_dev->stats.aal5.rx),
+-                             atomic_read(&atm_dev->stats.aal5.rx_err),
+-                             atomic_read(&atm_dev->stats.aal5.rx_drop));
++                             atomic_read_unchecked(&atm_dev->stats.aal5.tx),
++                             atomic_read_unchecked(&atm_dev->stats.aal5.tx_err),
++                             atomic_read_unchecked(&atm_dev->stats.aal5.rx),
++                             atomic_read_unchecked(&atm_dev->stats.aal5.rx_err),
++                             atomic_read_unchecked(&atm_dev->stats.aal5.rx_drop));
+       if (!left--) {
+               if (instance->disconnected)
+diff --git a/drivers/usb/core/hcd.c b/drivers/usb/core/hcd.c
+index 24e6205..fe5a5d4 100644
+--- a/drivers/usb/core/hcd.c
++++ b/drivers/usb/core/hcd.c
+@@ -2216,7 +2216,7 @@ EXPORT_SYMBOL_GPL(usb_hcd_platform_shutdown);
+ #if defined(CONFIG_USB_MON) || defined(CONFIG_USB_MON_MODULE)
+-struct usb_mon_operations *mon_ops;
++const struct usb_mon_operations *mon_ops;
+ /*
+  * The registration is unlocked.
+@@ -2226,7 +2226,7 @@ struct usb_mon_operations *mon_ops;
+  * symbols from usbcore, usbcore gets referenced and cannot be unloaded first.
+  */
+  
+-int usb_mon_register (struct usb_mon_operations *ops)
++int usb_mon_register (const struct usb_mon_operations *ops)
+ {
+       if (mon_ops)
+diff --git a/drivers/usb/core/hcd.h b/drivers/usb/core/hcd.h
+index bcbe104..9cfd1c6 100644
+--- a/drivers/usb/core/hcd.h
++++ b/drivers/usb/core/hcd.h
+@@ -486,13 +486,13 @@ static inline void usbfs_cleanup(void) { }
+ #if defined(CONFIG_USB_MON) || defined(CONFIG_USB_MON_MODULE)
+ struct usb_mon_operations {
+-      void (*urb_submit)(struct usb_bus *bus, struct urb *urb);
+-      void (*urb_submit_error)(struct usb_bus *bus, struct urb *urb, int err);
+-      void (*urb_complete)(struct usb_bus *bus, struct urb *urb, int status);
++      void (* const urb_submit)(struct usb_bus *bus, struct urb *urb);
++      void (* const urb_submit_error)(struct usb_bus *bus, struct urb *urb, int err);
++      void (* const urb_complete)(struct usb_bus *bus, struct urb *urb, int status);
+       /* void (*urb_unlink)(struct usb_bus *bus, struct urb *urb); */
+ };
+-extern struct usb_mon_operations *mon_ops;
++extern const struct usb_mon_operations *mon_ops;
+ static inline void usbmon_urb_submit(struct usb_bus *bus, struct urb *urb)
+ {
+@@ -514,7 +514,7 @@ static inline void usbmon_urb_complete(struct usb_bus *bus, struct urb *urb,
+               (*mon_ops->urb_complete)(bus, urb, status);
+ }
+-int usb_mon_register(struct usb_mon_operations *ops);
++int usb_mon_register(const struct usb_mon_operations *ops);
+ void usb_mon_deregister(void);
+ #else
+diff --git a/drivers/usb/core/message.c b/drivers/usb/core/message.c
+index 409cc94..a673bad 100644
+--- a/drivers/usb/core/message.c
++++ b/drivers/usb/core/message.c
+@@ -914,8 +914,8 @@ char *usb_cache_string(struct usb_device *udev, int index)
+       buf = kmalloc(MAX_USB_STRING_SIZE, GFP_NOIO);
+       if (buf) {
+               len = usb_string(udev, index, buf, MAX_USB_STRING_SIZE);
+-              if (len > 0) {
+-                      smallbuf = kmalloc(++len, GFP_NOIO);
++              if (len++ > 0) {
++                      smallbuf = kmalloc(len, GFP_NOIO);
+                       if (!smallbuf)
+                               return buf;
+                       memcpy(smallbuf, buf, len);
+diff --git a/drivers/usb/misc/appledisplay.c b/drivers/usb/misc/appledisplay.c
+index 62ff5e7..530b74e 100644
+--- a/drivers/usb/misc/appledisplay.c
++++ b/drivers/usb/misc/appledisplay.c
+@@ -178,7 +178,7 @@ static int appledisplay_bl_get_brightness(struct backlight_device *bd)
+               return pdata->msgdata[1];
+ }
+-static struct backlight_ops appledisplay_bl_data = {
++static const struct backlight_ops appledisplay_bl_data = {
+       .get_brightness = appledisplay_bl_get_brightness,
+       .update_status  = appledisplay_bl_update_status,
+ };
+diff --git a/drivers/usb/mon/mon_main.c b/drivers/usb/mon/mon_main.c
+index e0c2db3..bd8cb66 100644
+--- a/drivers/usb/mon/mon_main.c
++++ b/drivers/usb/mon/mon_main.c
+@@ -238,7 +238,7 @@ static struct notifier_block mon_nb = {
+ /*
+  * Ops
+  */
+-static struct usb_mon_operations mon_ops_0 = {
++static const struct usb_mon_operations mon_ops_0 = {
+       .urb_submit =   mon_submit,
+       .urb_submit_error = mon_submit_error,
+       .urb_complete = mon_complete,
+diff --git a/drivers/usb/wusbcore/wa-hc.h b/drivers/usb/wusbcore/wa-hc.h
+index d6bea3e..60b250e 100644
+--- a/drivers/usb/wusbcore/wa-hc.h
++++ b/drivers/usb/wusbcore/wa-hc.h
+@@ -192,7 +192,7 @@ struct wahc {
+       struct list_head xfer_delayed_list;
+       spinlock_t xfer_list_lock;
+       struct work_struct xfer_work;
+-      atomic_t xfer_id_count;
++      atomic_unchecked_t xfer_id_count;
+ };
+@@ -246,7 +246,7 @@ static inline void wa_init(struct wahc *wa)
+       INIT_LIST_HEAD(&wa->xfer_delayed_list);
+       spin_lock_init(&wa->xfer_list_lock);
+       INIT_WORK(&wa->xfer_work, wa_urb_enqueue_run);
+-      atomic_set(&wa->xfer_id_count, 1);
++      atomic_set_unchecked(&wa->xfer_id_count, 1);
+ }
+ /**
+diff --git a/drivers/usb/wusbcore/wa-xfer.c b/drivers/usb/wusbcore/wa-xfer.c
+index 613a5fc..3174865 100644
+--- a/drivers/usb/wusbcore/wa-xfer.c
++++ b/drivers/usb/wusbcore/wa-xfer.c
+@@ -293,7 +293,7 @@ out:
+  */
+ static void wa_xfer_id_init(struct wa_xfer *xfer)
+ {
+-      xfer->id = atomic_add_return(1, &xfer->wa->xfer_id_count);
++      xfer->id = atomic_add_return_unchecked(1, &xfer->wa->xfer_id_count);
+ }
+ /*
+diff --git a/drivers/uwb/wlp/messages.c b/drivers/uwb/wlp/messages.c
+index aa42fce..f8a828c 100644
+--- a/drivers/uwb/wlp/messages.c
++++ b/drivers/uwb/wlp/messages.c
+@@ -903,7 +903,7 @@ int wlp_parse_f0(struct wlp *wlp, struct sk_buff *skb)
+       size_t len = skb->len;
+       size_t used;
+       ssize_t result;
+-      struct wlp_nonce enonce, rnonce;
++      struct wlp_nonce enonce = {{0}}, rnonce = {{0}};
+       enum wlp_assc_error assc_err;
+       char enonce_buf[WLP_WSS_NONCE_STRSIZE];
+       char rnonce_buf[WLP_WSS_NONCE_STRSIZE];
+diff --git a/drivers/uwb/wlp/sysfs.c b/drivers/uwb/wlp/sysfs.c
+index 0370399..6627c94 100644
+--- a/drivers/uwb/wlp/sysfs.c
++++ b/drivers/uwb/wlp/sysfs.c
+@@ -615,8 +615,7 @@ ssize_t wlp_wss_attr_store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-static
+-struct sysfs_ops wss_sysfs_ops = {
++static const struct sysfs_ops wss_sysfs_ops = {
+       .show   = wlp_wss_attr_show,
+       .store  = wlp_wss_attr_store,
+ };
+diff --git a/drivers/video/atmel_lcdfb.c b/drivers/video/atmel_lcdfb.c
+index d5e8010..5687b56 100644
+--- a/drivers/video/atmel_lcdfb.c
++++ b/drivers/video/atmel_lcdfb.c
+@@ -110,7 +110,7 @@ static int atmel_bl_get_brightness(struct backlight_device *bl)
+       return lcdc_readl(sinfo, ATMEL_LCDC_CONTRAST_VAL);
+ }
+-static struct backlight_ops atmel_lcdc_bl_ops = {
++static const struct backlight_ops atmel_lcdc_bl_ops = {
+       .update_status = atmel_bl_update_status,
+       .get_brightness = atmel_bl_get_brightness,
+ };
+diff --git a/drivers/video/aty/aty128fb.c b/drivers/video/aty/aty128fb.c
+index e4e4d43..66bcbcc 100644
+--- a/drivers/video/aty/aty128fb.c
++++ b/drivers/video/aty/aty128fb.c
+@@ -149,7 +149,7 @@ enum {
+ };
+ /* Must match above enum */
+-static const char *r128_family[] __devinitdata = {
++static const char *r128_family[] __devinitconst = {
+       "AGP",
+       "PCI",
+       "PRO AGP",
+@@ -1787,7 +1787,7 @@ static int aty128_bl_get_brightness(struct backlight_device *bd)
+       return bd->props.brightness;
+ }
+-static struct backlight_ops aty128_bl_data = {
++static const struct backlight_ops aty128_bl_data = {
+       .get_brightness = aty128_bl_get_brightness,
+       .update_status  = aty128_bl_update_status,
+ };
+diff --git a/drivers/video/aty/atyfb_base.c b/drivers/video/aty/atyfb_base.c
+index 913b4a4..9295a38 100644
+--- a/drivers/video/aty/atyfb_base.c
++++ b/drivers/video/aty/atyfb_base.c
+@@ -2225,7 +2225,7 @@ static int aty_bl_get_brightness(struct backlight_device *bd)
+       return bd->props.brightness;
+ }
+-static struct backlight_ops aty_bl_data = {
++static const struct backlight_ops aty_bl_data = {
+       .get_brightness = aty_bl_get_brightness,
+       .update_status  = aty_bl_update_status,
+ };
+diff --git a/drivers/video/aty/radeon_backlight.c b/drivers/video/aty/radeon_backlight.c
+index 1a056ad..221bd6a 100644
+--- a/drivers/video/aty/radeon_backlight.c
++++ b/drivers/video/aty/radeon_backlight.c
+@@ -127,7 +127,7 @@ static int radeon_bl_get_brightness(struct backlight_device *bd)
+       return bd->props.brightness;
+ }
+-static struct backlight_ops radeon_bl_data = {
++static const struct backlight_ops radeon_bl_data = {
+       .get_brightness = radeon_bl_get_brightness,
+       .update_status  = radeon_bl_update_status,
+ };
+diff --git a/drivers/video/backlight/adp5520_bl.c b/drivers/video/backlight/adp5520_bl.c
+index ad05da5..3cb2cb9 100644
+--- a/drivers/video/backlight/adp5520_bl.c
++++ b/drivers/video/backlight/adp5520_bl.c
+@@ -84,7 +84,7 @@ static int adp5520_bl_get_brightness(struct backlight_device *bl)
+       return error ? data->current_brightness : reg_val;
+ }
+-static struct backlight_ops adp5520_bl_ops = {
++static const struct backlight_ops adp5520_bl_ops = {
+       .update_status  = adp5520_bl_update_status,
+       .get_brightness = adp5520_bl_get_brightness,
+ };
+diff --git a/drivers/video/backlight/adx_bl.c b/drivers/video/backlight/adx_bl.c
+index 2c3bdfc..d769b0b 100644
+--- a/drivers/video/backlight/adx_bl.c
++++ b/drivers/video/backlight/adx_bl.c
+@@ -61,7 +61,7 @@ static int adx_backlight_check_fb(struct fb_info *fb)
+       return 1;
+ }
+-static struct backlight_ops adx_backlight_ops = {
++static const struct backlight_ops adx_backlight_ops = {
+       .options = 0,
+       .update_status = adx_backlight_update_status,
+       .get_brightness = adx_backlight_get_brightness,
+diff --git a/drivers/video/backlight/atmel-pwm-bl.c b/drivers/video/backlight/atmel-pwm-bl.c
+index 505c082..6b6b3cc 100644
+--- a/drivers/video/backlight/atmel-pwm-bl.c
++++ b/drivers/video/backlight/atmel-pwm-bl.c
+@@ -113,7 +113,7 @@ static int atmel_pwm_bl_init_pwm(struct atmel_pwm_bl *pwmbl)
+       return pwm_channel_enable(&pwmbl->pwmc);
+ }
+-static struct backlight_ops atmel_pwm_bl_ops = {
++static const struct backlight_ops atmel_pwm_bl_ops = {
+       .get_brightness = atmel_pwm_bl_get_intensity,
+       .update_status  = atmel_pwm_bl_set_intensity,
+ };
+diff --git a/drivers/video/backlight/backlight.c b/drivers/video/backlight/backlight.c
+index 5e20e6e..89025e6 100644
+--- a/drivers/video/backlight/backlight.c
++++ b/drivers/video/backlight/backlight.c
+@@ -269,7 +269,7 @@ EXPORT_SYMBOL(backlight_force_update);
+  * ERR_PTR() or a pointer to the newly allocated device.
+  */
+ struct backlight_device *backlight_device_register(const char *name,
+-              struct device *parent, void *devdata, struct backlight_ops *ops)
++              struct device *parent, void *devdata, const struct backlight_ops *ops)
+ {
+       struct backlight_device *new_bd;
+       int rc;
+diff --git a/drivers/video/backlight/corgi_lcd.c b/drivers/video/backlight/corgi_lcd.c
+index 9677494..b4bcf80 100644
+--- a/drivers/video/backlight/corgi_lcd.c
++++ b/drivers/video/backlight/corgi_lcd.c
+@@ -451,7 +451,7 @@ void corgi_lcd_limit_intensity(int limit)
+ }
+ EXPORT_SYMBOL(corgi_lcd_limit_intensity);
+-static struct backlight_ops corgi_bl_ops = {
++static const struct backlight_ops corgi_bl_ops = {
+       .get_brightness = corgi_bl_get_intensity,
+       .update_status  = corgi_bl_update_status,
+ };
+diff --git a/drivers/video/backlight/cr_bllcd.c b/drivers/video/backlight/cr_bllcd.c
+index b9fe62b..2914bf1 100644
+--- a/drivers/video/backlight/cr_bllcd.c
++++ b/drivers/video/backlight/cr_bllcd.c
+@@ -108,7 +108,7 @@ static int cr_backlight_get_intensity(struct backlight_device *bd)
+       return intensity;
+ }
+-static struct backlight_ops cr_backlight_ops = {
++static const struct backlight_ops cr_backlight_ops = {
+       .get_brightness = cr_backlight_get_intensity,
+       .update_status = cr_backlight_set_intensity,
+ };
+diff --git a/drivers/video/backlight/da903x_bl.c b/drivers/video/backlight/da903x_bl.c
+index 701a108..feacfd5 100644
+--- a/drivers/video/backlight/da903x_bl.c
++++ b/drivers/video/backlight/da903x_bl.c
+@@ -94,7 +94,7 @@ static int da903x_backlight_get_brightness(struct backlight_device *bl)
+       return data->current_brightness;
+ }
+-static struct backlight_ops da903x_backlight_ops = {
++static const struct backlight_ops da903x_backlight_ops = {
+       .update_status  = da903x_backlight_update_status,
+       .get_brightness = da903x_backlight_get_brightness,
+ };
+diff --git a/drivers/video/backlight/generic_bl.c b/drivers/video/backlight/generic_bl.c
+index 6d27f62..e6d348e 100644
+--- a/drivers/video/backlight/generic_bl.c
++++ b/drivers/video/backlight/generic_bl.c
+@@ -70,7 +70,7 @@ void corgibl_limit_intensity(int limit)
+ }
+ EXPORT_SYMBOL(corgibl_limit_intensity);
+-static struct backlight_ops genericbl_ops = {
++static const struct backlight_ops genericbl_ops = {
+       .options = BL_CORE_SUSPENDRESUME,
+       .get_brightness = genericbl_get_intensity,
+       .update_status  = genericbl_send_intensity,
+diff --git a/drivers/video/backlight/hp680_bl.c b/drivers/video/backlight/hp680_bl.c
+index 7fb4eef..f7cc528 100644
+--- a/drivers/video/backlight/hp680_bl.c
++++ b/drivers/video/backlight/hp680_bl.c
+@@ -98,7 +98,7 @@ static int hp680bl_get_intensity(struct backlight_device *bd)
+       return current_intensity;
+ }
+-static struct backlight_ops hp680bl_ops = {
++static const struct backlight_ops hp680bl_ops = {
+       .get_brightness = hp680bl_get_intensity,
+       .update_status  = hp680bl_set_intensity,
+ };
+diff --git a/drivers/video/backlight/jornada720_bl.c b/drivers/video/backlight/jornada720_bl.c
+index 7aed256..db9071f 100644
+--- a/drivers/video/backlight/jornada720_bl.c
++++ b/drivers/video/backlight/jornada720_bl.c
+@@ -93,7 +93,7 @@ out:
+       return ret;
+ }
+-static struct backlight_ops jornada_bl_ops = {
++static const struct backlight_ops jornada_bl_ops = {
+       .get_brightness = jornada_bl_get_brightness,
+       .update_status = jornada_bl_update_status,
+       .options = BL_CORE_SUSPENDRESUME,
+diff --git a/drivers/video/backlight/kb3886_bl.c b/drivers/video/backlight/kb3886_bl.c
+index a38fda1..939e7b8 100644
+--- a/drivers/video/backlight/kb3886_bl.c
++++ b/drivers/video/backlight/kb3886_bl.c
+@@ -134,7 +134,7 @@ static int kb3886bl_get_intensity(struct backlight_device *bd)
+       return kb3886bl_intensity;
+ }
+-static struct backlight_ops kb3886bl_ops = {
++static const struct backlight_ops kb3886bl_ops = {
+       .get_brightness = kb3886bl_get_intensity,
+       .update_status  = kb3886bl_send_intensity,
+ };
+diff --git a/drivers/video/backlight/locomolcd.c b/drivers/video/backlight/locomolcd.c
+index 6b488b8..00a9591 100644
+--- a/drivers/video/backlight/locomolcd.c
++++ b/drivers/video/backlight/locomolcd.c
+@@ -141,7 +141,7 @@ static int locomolcd_get_intensity(struct backlight_device *bd)
+       return current_intensity;
+ }
+-static struct backlight_ops locomobl_data = {
++static const struct backlight_ops locomobl_data = {
+       .get_brightness = locomolcd_get_intensity,
+       .update_status  = locomolcd_set_intensity,
+ };
+diff --git a/drivers/video/backlight/mbp_nvidia_bl.c b/drivers/video/backlight/mbp_nvidia_bl.c
+index 99bdfa8..3dac448 100644
+--- a/drivers/video/backlight/mbp_nvidia_bl.c
++++ b/drivers/video/backlight/mbp_nvidia_bl.c
+@@ -33,7 +33,7 @@ struct dmi_match_data {
+       unsigned long iostart;
+       unsigned long iolen;
+       /* Backlight operations structure. */
+-      struct backlight_ops backlight_ops;
++      const struct backlight_ops backlight_ops;
+ };
+ /* Module parameters. */
+diff --git a/drivers/video/backlight/omap1_bl.c b/drivers/video/backlight/omap1_bl.c
+index cbad67e..3cf900e 100644
+--- a/drivers/video/backlight/omap1_bl.c
++++ b/drivers/video/backlight/omap1_bl.c
+@@ -125,7 +125,7 @@ static int omapbl_get_intensity(struct backlight_device *dev)
+       return bl->current_intensity;
+ }
+-static struct backlight_ops omapbl_ops = {
++static const struct backlight_ops omapbl_ops = {
+       .get_brightness = omapbl_get_intensity,
+       .update_status  = omapbl_update_status,
+ };
+diff --git a/drivers/video/backlight/progear_bl.c b/drivers/video/backlight/progear_bl.c
+index 9edaf24..075786e 100644
+--- a/drivers/video/backlight/progear_bl.c
++++ b/drivers/video/backlight/progear_bl.c
+@@ -54,7 +54,7 @@ static int progearbl_get_intensity(struct backlight_device *bd)
+       return intensity - HW_LEVEL_MIN;
+ }
+-static struct backlight_ops progearbl_ops = {
++static const struct backlight_ops progearbl_ops = {
+       .get_brightness = progearbl_get_intensity,
+       .update_status = progearbl_set_intensity,
+ };
+diff --git a/drivers/video/backlight/pwm_bl.c b/drivers/video/backlight/pwm_bl.c
+index 8871662..df9e0b3 100644
+--- a/drivers/video/backlight/pwm_bl.c
++++ b/drivers/video/backlight/pwm_bl.c
+@@ -56,7 +56,7 @@ static int pwm_backlight_get_brightness(struct backlight_device *bl)
+       return bl->props.brightness;
+ }
+-static struct backlight_ops pwm_backlight_ops = {
++static const struct backlight_ops pwm_backlight_ops = {
+       .update_status  = pwm_backlight_update_status,
+       .get_brightness = pwm_backlight_get_brightness,
+ };
+diff --git a/drivers/video/backlight/tosa_bl.c b/drivers/video/backlight/tosa_bl.c
+index 43edbad..e14ce4d 100644
+--- a/drivers/video/backlight/tosa_bl.c
++++ b/drivers/video/backlight/tosa_bl.c
+@@ -72,7 +72,7 @@ static int tosa_bl_get_brightness(struct backlight_device *dev)
+       return props->brightness;
+ }
+-static struct backlight_ops bl_ops = {
++static const struct backlight_ops bl_ops = {
+       .get_brightness         = tosa_bl_get_brightness,
+       .update_status          = tosa_bl_update_status,
+ };
+diff --git a/drivers/video/backlight/wm831x_bl.c b/drivers/video/backlight/wm831x_bl.c
+index 467bdb7..e32add3 100644
+--- a/drivers/video/backlight/wm831x_bl.c
++++ b/drivers/video/backlight/wm831x_bl.c
+@@ -112,7 +112,7 @@ static int wm831x_backlight_get_brightness(struct backlight_device *bl)
+       return data->current_brightness;
+ }
+-static struct backlight_ops wm831x_backlight_ops = {
++static const struct backlight_ops wm831x_backlight_ops = {
+       .options = BL_CORE_SUSPENDRESUME,
+       .update_status  = wm831x_backlight_update_status,
+       .get_brightness = wm831x_backlight_get_brightness,
+diff --git a/drivers/video/bf54x-lq043fb.c b/drivers/video/bf54x-lq043fb.c
+index e49ae5e..db4e6f7 100644
+--- a/drivers/video/bf54x-lq043fb.c
++++ b/drivers/video/bf54x-lq043fb.c
+@@ -463,7 +463,7 @@ static int bl_get_brightness(struct backlight_device *bd)
+       return 0;
+ }
+-static struct backlight_ops bfin_lq043fb_bl_ops = {
++static const struct backlight_ops bfin_lq043fb_bl_ops = {
+       .get_brightness = bl_get_brightness,
+ };
+diff --git a/drivers/video/bfin-t350mcqb-fb.c b/drivers/video/bfin-t350mcqb-fb.c
+index 2c72a7c..d523e52 100644
+--- a/drivers/video/bfin-t350mcqb-fb.c
++++ b/drivers/video/bfin-t350mcqb-fb.c
+@@ -381,7 +381,7 @@ static int bl_get_brightness(struct backlight_device *bd)
+       return 0;
+ }
+-static struct backlight_ops bfin_lq043fb_bl_ops = {
++static const struct backlight_ops bfin_lq043fb_bl_ops = {
+       .get_brightness = bl_get_brightness,
+ };
+diff --git a/drivers/video/fbcmap.c b/drivers/video/fbcmap.c
+index f53b9f1..958bf4e 100644
+--- a/drivers/video/fbcmap.c
++++ b/drivers/video/fbcmap.c
+@@ -266,8 +266,7 @@ int fb_set_user_cmap(struct fb_cmap_user *cmap, struct fb_info *info)
+               rc = -ENODEV;
+               goto out;
+       }
+-      if (cmap->start < 0 || (!info->fbops->fb_setcolreg &&
+-                              !info->fbops->fb_setcmap)) {
++      if (!info->fbops->fb_setcolreg && !info->fbops->fb_setcmap) {
+               rc = -EINVAL;
+               goto out1;
+       }
+diff --git a/drivers/video/fbmem.c b/drivers/video/fbmem.c
+index 99bbd28..ad3829e 100644
+--- a/drivers/video/fbmem.c
++++ b/drivers/video/fbmem.c
+@@ -403,7 +403,7 @@ static void fb_do_show_logo(struct fb_info *info, struct fb_image *image,
+                       image->dx += image->width + 8;
+               }
+       } else if (rotate == FB_ROTATE_UD) {
+-              for (x = 0; x < num && image->dx >= 0; x++) {
++              for (x = 0; x < num && (__s32)image->dx >= 0; x++) {
+                       info->fbops->fb_imageblit(info, image);
+                       image->dx -= image->width + 8;
+               }
+@@ -415,7 +415,7 @@ static void fb_do_show_logo(struct fb_info *info, struct fb_image *image,
+                       image->dy += image->height + 8;
+               }
+       } else if (rotate == FB_ROTATE_CCW) {
+-              for (x = 0; x < num && image->dy >= 0; x++) {
++              for (x = 0; x < num && (__s32)image->dy >= 0; x++) {
+                       info->fbops->fb_imageblit(info, image);
+                       image->dy -= image->height + 8;
+               }
+@@ -915,6 +915,8 @@ fb_set_var(struct fb_info *info, struct fb_var_screeninfo *var)
+       int flags = info->flags;
+       int ret = 0;
++      pax_track_stack();
++
+       if (var->activate & FB_ACTIVATE_INV_MODE) {
+               struct fb_videomode mode1, mode2;
+@@ -1040,6 +1042,8 @@ static long do_fb_ioctl(struct fb_info *info, unsigned int cmd,
+       void __user *argp = (void __user *)arg;
+       long ret = 0;
++      pax_track_stack();
++
+       switch (cmd) {
+       case FBIOGET_VSCREENINFO:
+               if (!lock_fb_info(info))
+@@ -1119,7 +1123,7 @@ static long do_fb_ioctl(struct fb_info *info, unsigned int cmd,
+                       return -EFAULT;
+               if (con2fb.console < 1 || con2fb.console > MAX_NR_CONSOLES)
+                       return -EINVAL;
+-              if (con2fb.framebuffer < 0 || con2fb.framebuffer >= FB_MAX)
++              if (con2fb.framebuffer >= FB_MAX)
+                       return -EINVAL;
+               if (!registered_fb[con2fb.framebuffer])
+                       request_module("fb%d", con2fb.framebuffer);
+diff --git a/drivers/video/geode/gx1fb_core.c b/drivers/video/geode/gx1fb_core.c
+index f20eff8..3e4f622 100644
+--- a/drivers/video/geode/gx1fb_core.c
++++ b/drivers/video/geode/gx1fb_core.c
+@@ -30,7 +30,7 @@ static int  crt_option = 1;
+ static char panel_option[32] = "";
+ /* Modes relevant to the GX1 (taken from modedb.c) */
+-static const struct fb_videomode __initdata gx1_modedb[] = {
++static const struct fb_videomode __initconst gx1_modedb[] = {
+       /* 640x480-60 VESA */
+       { NULL, 60, 640, 480, 39682,  48, 16, 33, 10, 96, 2,
+         0, FB_VMODE_NONINTERLACED, FB_MODE_IS_VESA },
+diff --git a/drivers/video/gxt4500.c b/drivers/video/gxt4500.c
+index 896e53d..4d87d0b 100644
+--- a/drivers/video/gxt4500.c
++++ b/drivers/video/gxt4500.c
+@@ -156,7 +156,7 @@ struct gxt4500_par {
+ static char *mode_option;
+ /* default mode: 1280x1024 @ 60 Hz, 8 bpp */
+-static const struct fb_videomode defaultmode __devinitdata = {
++static const struct fb_videomode defaultmode __devinitconst = {
+       .refresh = 60,
+       .xres = 1280,
+       .yres = 1024,
+@@ -581,7 +581,7 @@ static int gxt4500_blank(int blank, struct fb_info *info)
+       return 0;
+ }
+-static const struct fb_fix_screeninfo gxt4500_fix __devinitdata = {
++static const struct fb_fix_screeninfo gxt4500_fix __devinitconst = {
+       .id = "IBM GXT4500P",
+       .type = FB_TYPE_PACKED_PIXELS,
+       .visual = FB_VISUAL_PSEUDOCOLOR,
+diff --git a/drivers/video/i810/i810_accel.c b/drivers/video/i810/i810_accel.c
+index f5bedee..28c6028 100644
+--- a/drivers/video/i810/i810_accel.c
++++ b/drivers/video/i810/i810_accel.c
+@@ -73,6 +73,7 @@ static inline int wait_for_space(struct fb_info *info, u32 space)
+               }
+       }
+       printk("ringbuffer lockup!!!\n");
++      printk("head:%u tail:%u iring.size:%u space:%u\n", head, tail, par->iring.size, space);
+       i810_report_error(mmio); 
+       par->dev_flags |= LOCKUP;
+       info->pixmap.scan_align = 1;
+diff --git a/drivers/video/i810/i810_main.c b/drivers/video/i810/i810_main.c
+index 5743ea2..457f82c 100644
+--- a/drivers/video/i810/i810_main.c
++++ b/drivers/video/i810/i810_main.c
+@@ -97,7 +97,7 @@ static int i810fb_blank      (int blank_mode, struct fb_info *info);
+ static void i810fb_release_resource       (struct fb_info *info, struct i810fb_par *par);
+ /* PCI */
+-static const char *i810_pci_list[] __devinitdata = {
++static const char *i810_pci_list[] __devinitconst = {
+       "Intel(R) 810 Framebuffer Device"                                 ,
+       "Intel(R) 810-DC100 Framebuffer Device"                           ,
+       "Intel(R) 810E Framebuffer Device"                                ,
+diff --git a/drivers/video/logo/logo_linux_clut224.ppm b/drivers/video/logo/logo_linux_clut224.ppm
+index 3c14e43..eafa544 100644
+--- a/drivers/video/logo/logo_linux_clut224.ppm
++++ b/drivers/video/logo/logo_linux_clut224.ppm
+@@ -1,1604 +1,1123 @@
+ P3
+-# Standard 224-color Linux logo
+ 80 80
+ 255
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6   6   6   6  10  10  10  10  10  10
+- 10  10  10   6   6   6   6   6   6   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6  10  10  10  14  14  14
+- 22  22  22  26  26  26  30  30  30  34  34  34
+- 30  30  30  30  30  30  26  26  26  18  18  18
+- 14  14  14  10  10  10   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  14  14  14  26  26  26  42  42  42
+- 54  54  54  66  66  66  78  78  78  78  78  78
+- 78  78  78  74  74  74  66  66  66  54  54  54
+- 42  42  42  26  26  26  18  18  18  10  10  10
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 22  22  22  42  42  42  66  66  66  86  86  86
+- 66  66  66  38  38  38  38  38  38  22  22  22
+- 26  26  26  34  34  34  54  54  54  66  66  66
+- 86  86  86  70  70  70  46  46  46  26  26  26
+- 14  14  14   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0  10  10  10  26  26  26
+- 50  50  50  82  82  82  58  58  58   6   6   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  6   6   6  54  54  54  86  86  86  66  66  66
+- 38  38  38  18  18  18   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6  22  22  22  50  50  50
+- 78  78  78  34  34  34   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   6   6   6  70  70  70
+- 78  78  78  46  46  46  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  18  18  18  42  42  42  82  82  82
+- 26  26  26   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  14  14  14
+- 46  46  46  34  34  34   6   6   6   2   2   6
+- 42  42  42  78  78  78  42  42  42  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   0   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+- 10  10  10  30  30  30  66  66  66  58  58  58
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  26  26  26
+- 86  86  86 101 101 101  46  46  46  10  10  10
+-  2   2   6  58  58  58  70  70  70  34  34  34
+- 10  10  10   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+- 14  14  14  42  42  42  86  86  86  10  10  10
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  30  30  30
+- 94  94  94  94  94  94  58  58  58  26  26  26
+-  2   2   6   6   6   6  78  78  78  54  54  54
+- 22  22  22   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 22  22  22  62  62  62  62  62  62   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  26  26  26
+- 54  54  54  38  38  38  18  18  18  10  10  10
+-  2   2   6   2   2   6  34  34  34  82  82  82
+- 38  38  38  14  14  14   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 30  30  30  78  78  78  30  30  30   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  10  10  10
+- 10  10  10   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  78  78  78
+- 50  50  50  18  18  18   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 38  38  38  86  86  86  14  14  14   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  54  54  54
+- 66  66  66  26  26  26   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 42  42  42  82  82  82   2   2   6   2   2   6
+-  2   2   6   6   6   6  10  10  10   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   6   6   6
+- 14  14  14  10  10  10   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  18  18  18
+- 82  82  82  34  34  34  10  10  10   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 46  46  46  86  86  86   2   2   6   2   2   6
+-  6   6   6   6   6   6  22  22  22  34  34  34
+-  6   6   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6  18  18  18  34  34  34
+- 10  10  10  50  50  50  22  22  22   2   2   6
+-  2   2   6   2   2   6   2   2   6  10  10  10
+- 86  86  86  42  42  42  14  14  14   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   1   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 46  46  46  86  86  86   2   2   6   2   2   6
+- 38  38  38 116 116 116  94  94  94  22  22  22
+- 22  22  22   2   2   6   2   2   6   2   2   6
+- 14  14  14  86  86  86 138 138 138 162 162 162
+-154 154 154  38  38  38  26  26  26   6   6   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 86  86  86  46  46  46  14  14  14   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 46  46  46  86  86  86   2   2   6  14  14  14
+-134 134 134 198 198 198 195 195 195 116 116 116
+- 10  10  10   2   2   6   2   2   6   6   6   6
+-101  98  89 187 187 187 210 210 210 218 218 218
+-214 214 214 134 134 134  14  14  14   6   6   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 86  86  86  50  50  50  18  18  18   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   1   0   0   0
+-  0   0   1   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 46  46  46  86  86  86   2   2   6  54  54  54
+-218 218 218 195 195 195 226 226 226 246 246 246
+- 58  58  58   2   2   6   2   2   6  30  30  30
+-210 210 210 253 253 253 174 174 174 123 123 123
+-221 221 221 234 234 234  74  74  74   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 70  70  70  58  58  58  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 46  46  46  82  82  82   2   2   6 106 106 106
+-170 170 170  26  26  26  86  86  86 226 226 226
+-123 123 123  10  10  10  14  14  14  46  46  46
+-231 231 231 190 190 190   6   6   6  70  70  70
+- 90  90  90 238 238 238 158 158 158   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 70  70  70  58  58  58  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   1   0   0   0
+-  0   0   1   0   0   1   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 42  42  42  86  86  86   6   6   6 116 116 116
+-106 106 106   6   6   6  70  70  70 149 149 149
+-128 128 128  18  18  18  38  38  38  54  54  54
+-221 221 221 106 106 106   2   2   6  14  14  14
+- 46  46  46 190 190 190 198 198 198   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 74  74  74  62  62  62  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   1   0   0   0
+-  0   0   1   0   0   0   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 42  42  42  94  94  94  14  14  14 101 101 101
+-128 128 128   2   2   6  18  18  18 116 116 116
+-118  98  46 121  92   8 121  92   8  98  78  10
+-162 162 162 106 106 106   2   2   6   2   2   6
+-  2   2   6 195 195 195 195 195 195   6   6   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 74  74  74  62  62  62  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   1   0   0   1
+-  0   0   1   0   0   0   0   0   1   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 38  38  38  90  90  90  14  14  14  58  58  58
+-210 210 210  26  26  26  54  38   6 154 114  10
+-226 170  11 236 186  11 225 175  15 184 144  12
+-215 174  15 175 146  61  37  26   9   2   2   6
+- 70  70  70 246 246 246 138 138 138   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 70  70  70  66  66  66  26  26  26   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 38  38  38  86  86  86  14  14  14  10  10  10
+-195 195 195 188 164 115 192 133   9 225 175  15
+-239 182  13 234 190  10 232 195  16 232 200  30
+-245 207  45 241 208  19 232 195  16 184 144  12
+-218 194 134 211 206 186  42  42  42   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 50  50  50  74  74  74  30  30  30   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 34  34  34  86  86  86  14  14  14   2   2   6
+-121  87  25 192 133   9 219 162  10 239 182  13
+-236 186  11 232 195  16 241 208  19 244 214  54
+-246 218  60 246 218  38 246 215  20 241 208  19
+-241 208  19 226 184  13 121  87  25   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 50  50  50  82  82  82  34  34  34  10  10  10
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 34  34  34  82  82  82  30  30  30  61  42   6
+-180 123   7 206 145  10 230 174  11 239 182  13
+-234 190  10 238 202  15 241 208  19 246 218  74
+-246 218  38 246 215  20 246 215  20 246 215  20
+-226 184  13 215 174  15 184 144  12   6   6   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 26  26  26  94  94  94  42  42  42  14  14  14
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 30  30  30  78  78  78  50  50  50 104  69   6
+-192 133   9 216 158  10 236 178  12 236 186  11
+-232 195  16 241 208  19 244 214  54 245 215  43
+-246 215  20 246 215  20 241 208  19 198 155  10
+-200 144  11 216 158  10 156 118  10   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  6   6   6  90  90  90  54  54  54  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 30  30  30  78  78  78  46  46  46  22  22  22
+-137  92   6 210 162  10 239 182  13 238 190  10
+-238 202  15 241 208  19 246 215  20 246 215  20
+-241 208  19 203 166  17 185 133  11 210 150  10
+-216 158  10 210 150  10 102  78  10   2   2   6
+-  6   6   6  54  54  54  14  14  14   2   2   6
+-  2   2   6  62  62  62  74  74  74  30  30  30
+- 10  10  10   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 34  34  34  78  78  78  50  50  50   6   6   6
+- 94  70  30 139 102  15 190 146  13 226 184  13
+-232 200  30 232 195  16 215 174  15 190 146  13
+-168 122  10 192 133   9 210 150  10 213 154  11
+-202 150  34 182 157 106 101  98  89   2   2   6
+-  2   2   6  78  78  78 116 116 116  58  58  58
+-  2   2   6  22  22  22  90  90  90  46  46  46
+- 18  18  18   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 38  38  38  86  86  86  50  50  50   6   6   6
+-128 128 128 174 154 114 156 107  11 168 122  10
+-198 155  10 184 144  12 197 138  11 200 144  11
+-206 145  10 206 145  10 197 138  11 188 164 115
+-195 195 195 198 198 198 174 174 174  14  14  14
+-  2   2   6  22  22  22 116 116 116 116 116 116
+- 22  22  22   2   2   6  74  74  74  70  70  70
+- 30  30  30  10  10  10   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  18  18  18
+- 50  50  50 101 101 101  26  26  26  10  10  10
+-138 138 138 190 190 190 174 154 114 156 107  11
+-197 138  11 200 144  11 197 138  11 192 133   9
+-180 123   7 190 142  34 190 178 144 187 187 187
+-202 202 202 221 221 221 214 214 214  66  66  66
+-  2   2   6   2   2   6  50  50  50  62  62  62
+-  6   6   6   2   2   6  10  10  10  90  90  90
+- 50  50  50  18  18  18   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0  10  10  10  34  34  34
+- 74  74  74  74  74  74   2   2   6   6   6   6
+-144 144 144 198 198 198 190 190 190 178 166 146
+-154 121  60 156 107  11 156 107  11 168 124  44
+-174 154 114 187 187 187 190 190 190 210 210 210
+-246 246 246 253 253 253 253 253 253 182 182 182
+-  6   6   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  62  62  62
+- 74  74  74  34  34  34  14  14  14   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0  10  10  10  22  22  22  54  54  54
+- 94  94  94  18  18  18   2   2   6  46  46  46
+-234 234 234 221 221 221 190 190 190 190 190 190
+-190 190 190 187 187 187 187 187 187 190 190 190
+-190 190 190 195 195 195 214 214 214 242 242 242
+-253 253 253 253 253 253 253 253 253 253 253 253
+- 82  82  82   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  14  14  14
+- 86  86  86  54  54  54  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  18  18  18  46  46  46  90  90  90
+- 46  46  46  18  18  18   6   6   6 182 182 182
+-253 253 253 246 246 246 206 206 206 190 190 190
+-190 190 190 190 190 190 190 190 190 190 190 190
+-206 206 206 231 231 231 250 250 250 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-202 202 202  14  14  14   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 42  42  42  86  86  86  42  42  42  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 14  14  14  38  38  38  74  74  74  66  66  66
+-  2   2   6   6   6   6  90  90  90 250 250 250
+-253 253 253 253 253 253 238 238 238 198 198 198
+-190 190 190 190 190 190 195 195 195 221 221 221
+-246 246 246 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253  82  82  82   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  78  78  78  70  70  70  34  34  34
+- 14  14  14   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 34  34  34  66  66  66  78  78  78   6   6   6
+-  2   2   6  18  18  18 218 218 218 253 253 253
+-253 253 253 253 253 253 253 253 253 246 246 246
+-226 226 226 231 231 231 246 246 246 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 178 178 178   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  18  18  18  90  90  90  62  62  62
+- 30  30  30  10  10  10   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0  10  10  10  26  26  26
+- 58  58  58  90  90  90  18  18  18   2   2   6
+-  2   2   6 110 110 110 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-250 250 250 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 231 231 231  18  18  18   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6  18  18  18  94  94  94
+- 54  54  54  26  26  26  10  10  10   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6  22  22  22  50  50  50
+- 90  90  90  26  26  26   2   2   6   2   2   6
+- 14  14  14 195 195 195 250 250 250 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-250 250 250 242 242 242  54  54  54   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6  38  38  38
+- 86  86  86  50  50  50  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  14  14  14  38  38  38  82  82  82
+- 34  34  34   2   2   6   2   2   6   2   2   6
+- 42  42  42 195 195 195 246 246 246 253 253 253
+-253 253 253 253 253 253 253 253 253 250 250 250
+-242 242 242 242 242 242 250 250 250 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 250 250 250 246 246 246 238 238 238
+-226 226 226 231 231 231 101 101 101   6   6   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 38  38  38  82  82  82  42  42  42  14  14  14
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+- 10  10  10  26  26  26  62  62  62  66  66  66
+-  2   2   6   2   2   6   2   2   6   6   6   6
+- 70  70  70 170 170 170 206 206 206 234 234 234
+-246 246 246 250 250 250 250 250 250 238 238 238
+-226 226 226 231 231 231 238 238 238 250 250 250
+-250 250 250 250 250 250 246 246 246 231 231 231
+-214 214 214 206 206 206 202 202 202 202 202 202
+-198 198 198 202 202 202 182 182 182  18  18  18
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  62  62  62  66  66  66  30  30  30
+- 10  10  10   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+- 14  14  14  42  42  42  82  82  82  18  18  18
+-  2   2   6   2   2   6   2   2   6  10  10  10
+- 94  94  94 182 182 182 218 218 218 242 242 242
+-250 250 250 253 253 253 253 253 253 250 250 250
+-234 234 234 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 246 246 246
+-238 238 238 226 226 226 210 210 210 202 202 202
+-195 195 195 195 195 195 210 210 210 158 158 158
+-  6   6   6  14  14  14  50  50  50  14  14  14
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   6   6   6  86  86  86  46  46  46
+- 18  18  18   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 22  22  22  54  54  54  70  70  70   2   2   6
+-  2   2   6  10  10  10   2   2   6  22  22  22
+-166 166 166 231 231 231 250 250 250 253 253 253
+-253 253 253 253 253 253 253 253 253 250 250 250
+-242 242 242 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 246 246 246
+-231 231 231 206 206 206 198 198 198 226 226 226
+- 94  94  94   2   2   6   6   6   6  38  38  38
+- 30  30  30   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6  62  62  62  66  66  66
+- 26  26  26  10  10  10   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 30  30  30  74  74  74  50  50  50   2   2   6
+- 26  26  26  26  26  26   2   2   6 106 106 106
+-238 238 238 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 246 246 246 218 218 218 202 202 202
+-210 210 210  14  14  14   2   2   6   2   2   6
+- 30  30  30  22  22  22   2   2   6   2   2   6
+-  2   2   6   2   2   6  18  18  18  86  86  86
+- 42  42  42  14  14  14   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 42  42  42  90  90  90  22  22  22   2   2   6
+- 42  42  42   2   2   6  18  18  18 218 218 218
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 250 250 250 221 221 221
+-218 218 218 101 101 101   2   2   6  14  14  14
+- 18  18  18  38  38  38  10  10  10   2   2   6
+-  2   2   6   2   2   6   2   2   6  78  78  78
+- 58  58  58  22  22  22   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  18  18  18
+- 54  54  54  82  82  82   2   2   6  26  26  26
+- 22  22  22   2   2   6 123 123 123 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 250 250 250
+-238 238 238 198 198 198   6   6   6  38  38  38
+- 58  58  58  26  26  26  38  38  38   2   2   6
+-  2   2   6   2   2   6   2   2   6  46  46  46
+- 78  78  78  30  30  30  10  10  10   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0  10  10  10  30  30  30
+- 74  74  74  58  58  58   2   2   6  42  42  42
+-  2   2   6  22  22  22 231 231 231 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 250 250 250
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 246 246 246  46  46  46  38  38  38
+- 42  42  42  14  14  14  38  38  38  14  14  14
+-  2   2   6   2   2   6   2   2   6   6   6   6
+- 86  86  86  46  46  46  14  14  14   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6  14  14  14  42  42  42
+- 90  90  90  18  18  18  18  18  18  26  26  26
+-  2   2   6 116 116 116 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 250 250 250 238 238 238
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253  94  94  94   6   6   6
+-  2   2   6   2   2   6  10  10  10  34  34  34
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 74  74  74  58  58  58  22  22  22   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0  10  10  10  26  26  26  66  66  66
+- 82  82  82   2   2   6  38  38  38   6   6   6
+- 14  14  14 210 210 210 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 246 246 246 242 242 242
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 144 144 144   2   2   6
+-  2   2   6   2   2   6   2   2   6  46  46  46
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 42  42  42  74  74  74  30  30  30  10  10  10
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  14  14  14  42  42  42  90  90  90
+- 26  26  26   6   6   6  42  42  42   2   2   6
+- 74  74  74 250 250 250 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 242 242 242 242 242 242
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 182 182 182   2   2   6
+-  2   2   6   2   2   6   2   2   6  46  46  46
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 10  10  10  86  86  86  38  38  38  10  10  10
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+- 10  10  10  26  26  26  66  66  66  82  82  82
+-  2   2   6  22  22  22  18  18  18   2   2   6
+-149 149 149 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 234 234 234 242 242 242
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 206 206 206   2   2   6
+-  2   2   6   2   2   6   2   2   6  38  38  38
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  6   6   6  86  86  86  46  46  46  14  14  14
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 18  18  18  46  46  46  86  86  86  18  18  18
+-  2   2   6  34  34  34  10  10  10   6   6   6
+-210 210 210 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 234 234 234 242 242 242
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 221 221 221   6   6   6
+-  2   2   6   2   2   6   6   6   6  30  30  30
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  82  82  82  54  54  54  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 26  26  26  66  66  66  62  62  62   2   2   6
+-  2   2   6  38  38  38  10  10  10  26  26  26
+-238 238 238 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 238 238 238
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231   6   6   6
+-  2   2   6   2   2   6  10  10  10  30  30  30
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  66  66  66  58  58  58  22  22  22
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 38  38  38  78  78  78   6   6   6   2   2   6
+-  2   2   6  46  46  46  14  14  14  42  42  42
+-246 246 246 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 242 242 242
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 234 234 234  10  10  10
+-  2   2   6   2   2   6  22  22  22  14  14  14
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  66  66  66  62  62  62  22  22  22
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  18  18  18
+- 50  50  50  74  74  74   2   2   6   2   2   6
+- 14  14  14  70  70  70  34  34  34  62  62  62
+-250 250 250 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 246 246 246
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 234 234 234  14  14  14
+-  2   2   6   2   2   6  30  30  30   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  66  66  66  62  62  62  22  22  22
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  18  18  18
+- 54  54  54  62  62  62   2   2   6   2   2   6
+-  2   2   6  30  30  30  46  46  46  70  70  70
+-250 250 250 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 246 246 246
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 226 226 226  10  10  10
+-  2   2   6   6   6   6  30  30  30   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6  66  66  66  58  58  58  22  22  22
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  22  22  22
+- 58  58  58  62  62  62   2   2   6   2   2   6
+-  2   2   6   2   2   6  30  30  30  78  78  78
+-250 250 250 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 246 246 246
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 206 206 206   2   2   6
+- 22  22  22  34  34  34  18  14   6  22  22  22
+- 26  26  26  18  18  18   6   6   6   2   2   6
+-  2   2   6  82  82  82  54  54  54  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  26  26  26
+- 62  62  62 106 106 106  74  54  14 185 133  11
+-210 162  10 121  92   8   6   6   6  62  62  62
+-238 238 238 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 246 246 246
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 158 158 158  18  18  18
+- 14  14  14   2   2   6   2   2   6   2   2   6
+-  6   6   6  18  18  18  66  66  66  38  38  38
+-  6   6   6  94  94  94  50  50  50  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 10  10  10  10  10  10  18  18  18  38  38  38
+- 78  78  78 142 134 106 216 158  10 242 186  14
+-246 190  14 246 190  14 156 118  10  10  10  10
+- 90  90  90 238 238 238 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 250 250 250
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 246 230 190
+-238 204  91 238 204  91 181 142  44  37  26   9
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6  38  38  38  46  46  46
+- 26  26  26 106 106 106  54  54  54  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6  14  14  14  22  22  22
+- 30  30  30  38  38  38  50  50  50  70  70  70
+-106 106 106 190 142  34 226 170  11 242 186  14
+-246 190  14 246 190  14 246 190  14 154 114  10
+-  6   6   6  74  74  74 226 226 226 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 231 231 231 250 250 250
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 228 184  62
+-241 196  14 241 208  19 232 195  16  38  30  10
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   6   6   6  30  30  30  26  26  26
+-203 166  17 154 142  90  66  66  66  26  26  26
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  18  18  18  38  38  38  58  58  58
+- 78  78  78  86  86  86 101 101 101 123 123 123
+-175 146  61 210 150  10 234 174  13 246 186  14
+-246 190  14 246 190  14 246 190  14 238 190  10
+-102  78  10   2   2   6  46  46  46 198 198 198
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 234 234 234 242 242 242
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 224 178  62
+-242 186  14 241 196  14 210 166  10  22  18   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   6   6   6 121  92   8
+-238 202  15 232 195  16  82  82  82  34  34  34
+- 10  10  10   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+- 14  14  14  38  38  38  70  70  70 154 122  46
+-190 142  34 200 144  11 197 138  11 197 138  11
+-213 154  11 226 170  11 242 186  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-225 175  15  46  32   6   2   2   6  22  22  22
+-158 158 158 250 250 250 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 250 250 250 242 242 242 224 178  62
+-239 182  13 236 186  11 213 154  11  46  32   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6  61  42   6 225 175  15
+-238 190  10 236 186  11 112 100  78  42  42  42
+- 14  14  14   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 22  22  22  54  54  54 154 122  46 213 154  11
+-226 170  11 230 174  11 226 170  11 226 170  11
+-236 178  12 242 186  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-241 196  14 184 144  12  10  10  10   2   2   6
+-  6   6   6 116 116 116 242 242 242 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 231 231 231 198 198 198 214 170  54
+-236 178  12 236 178  12 210 150  10 137  92   6
+- 18  14   6   2   2   6   2   2   6   2   2   6
+-  6   6   6  70  47   6 200 144  11 236 178  12
+-239 182  13 239 182  13 124 112  88  58  58  58
+- 22  22  22   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 30  30  30  70  70  70 180 133  36 226 170  11
+-239 182  13 242 186  14 242 186  14 246 186  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 232 195  16  98  70   6   2   2   6
+-  2   2   6   2   2   6  66  66  66 221 221 221
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 206 206 206 198 198 198 214 166  58
+-230 174  11 230 174  11 216 158  10 192 133   9
+-163 110   8 116  81   8 102  78  10 116  81   8
+-167 114   7 197 138  11 226 170  11 239 182  13
+-242 186  14 242 186  14 162 146  94  78  78  78
+- 34  34  34  14  14  14   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 30  30  30  78  78  78 190 142  34 226 170  11
+-239 182  13 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 241 196  14 203 166  17  22  18   6
+-  2   2   6   2   2   6   2   2   6  38  38  38
+-218 218 218 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-250 250 250 206 206 206 198 198 198 202 162  69
+-226 170  11 236 178  12 224 166  10 210 150  10
+-200 144  11 197 138  11 192 133   9 197 138  11
+-210 150  10 226 170  11 242 186  14 246 190  14
+-246 190  14 246 186  14 225 175  15 124 112  88
+- 62  62  62  30  30  30  14  14  14   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 30  30  30  78  78  78 174 135  50 224 166  10
+-239 182  13 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 241 196  14 139 102  15
+-  2   2   6   2   2   6   2   2   6   2   2   6
+- 78  78  78 250 250 250 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-250 250 250 214 214 214 198 198 198 190 150  46
+-219 162  10 236 178  12 234 174  13 224 166  10
+-216 158  10 213 154  11 213 154  11 216 158  10
+-226 170  11 239 182  13 246 190  14 246 190  14
+-246 190  14 246 190  14 242 186  14 206 162  42
+-101 101 101  58  58  58  30  30  30  14  14  14
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 30  30  30  74  74  74 174 135  50 216 158  10
+-236 178  12 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 241 196  14 226 184  13
+- 61  42   6   2   2   6   2   2   6   2   2   6
+- 22  22  22 238 238 238 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 226 226 226 187 187 187 180 133  36
+-216 158  10 236 178  12 239 182  13 236 178  12
+-230 174  11 226 170  11 226 170  11 230 174  11
+-236 178  12 242 186  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 186  14 239 182  13
+-206 162  42 106 106 106  66  66  66  34  34  34
+- 14  14  14   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 26  26  26  70  70  70 163 133  67 213 154  11
+-236 178  12 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 241 196  14
+-190 146  13  18  14   6   2   2   6   2   2   6
+- 46  46  46 246 246 246 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 221 221 221  86  86  86 156 107  11
+-216 158  10 236 178  12 242 186  14 246 186  14
+-242 186  14 239 182  13 239 182  13 242 186  14
+-242 186  14 246 186  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-242 186  14 225 175  15 142 122  72  66  66  66
+- 30  30  30  10  10  10   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 26  26  26  70  70  70 163 133  67 210 150  10
+-236 178  12 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-232 195  16 121  92   8  34  34  34 106 106 106
+-221 221 221 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-242 242 242  82  82  82  18  14   6 163 110   8
+-216 158  10 236 178  12 242 186  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 242 186  14 163 133  67
+- 46  46  46  18  18  18   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  10  10  10
+- 30  30  30  78  78  78 163 133  67 210 150  10
+-236 178  12 246 186  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-241 196  14 215 174  15 190 178 144 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 218 218 218
+- 58  58  58   2   2   6  22  18   6 167 114   7
+-216 158  10 236 178  12 246 186  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 186  14 242 186  14 190 150  46
+- 54  54  54  22  22  22   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 38  38  38  86  86  86 180 133  36 213 154  11
+-236 178  12 246 186  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 232 195  16 190 146  13 214 214 214
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 250 250 250 170 170 170  26  26  26
+-  2   2   6   2   2   6  37  26   9 163 110   8
+-219 162  10 239 182  13 246 186  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 186  14 236 178  12 224 166  10 142 122  72
+- 46  46  46  18  18  18   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  18  18  18
+- 50  50  50 109 106  95 192 133   9 224 166  10
+-242 186  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-242 186  14 226 184  13 210 162  10 142 110  46
+-226 226 226 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-253 253 253 253 253 253 253 253 253 253 253 253
+-198 198 198  66  66  66   2   2   6   2   2   6
+-  2   2   6   2   2   6  50  34   6 156 107  11
+-219 162  10 239 182  13 246 186  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 242 186  14
+-234 174  13 213 154  11 154 122  46  66  66  66
+- 30  30  30  10  10  10   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  22  22  22
+- 58  58  58 154 121  60 206 145  10 234 174  13
+-242 186  14 246 186  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 186  14 236 178  12 210 162  10 163 110   8
+- 61  42   6 138 138 138 218 218 218 250 250 250
+-253 253 253 253 253 253 253 253 253 250 250 250
+-242 242 242 210 210 210 144 144 144  66  66  66
+-  6   6   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6  61  42   6 163 110   8
+-216 158  10 236 178  12 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 239 182  13 230 174  11 216 158  10
+-190 142  34 124 112  88  70  70  70  38  38  38
+- 18  18  18   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  22  22  22
+- 62  62  62 168 124  44 206 145  10 224 166  10
+-236 178  12 239 182  13 242 186  14 242 186  14
+-246 186  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 236 178  12 216 158  10 175 118   6
+- 80  54   7   2   2   6   6   6   6  30  30  30
+- 54  54  54  62  62  62  50  50  50  38  38  38
+- 14  14  14   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   6   6   6  80  54   7 167 114   7
+-213 154  11 236 178  12 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 190  14 242 186  14 239 182  13 239 182  13
+-230 174  11 210 150  10 174 135  50 124 112  88
+- 82  82  82  54  54  54  34  34  34  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  18  18  18
+- 50  50  50 158 118  36 192 133   9 200 144  11
+-216 158  10 219 162  10 224 166  10 226 170  11
+-230 174  11 236 178  12 239 182  13 239 182  13
+-242 186  14 246 186  14 246 190  14 246 190  14
+-246 190  14 246 190  14 246 190  14 246 190  14
+-246 186  14 230 174  11 210 150  10 163 110   8
+-104  69   6  10  10  10   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   6   6   6  91  60   6 167 114   7
+-206 145  10 230 174  11 242 186  14 246 190  14
+-246 190  14 246 190  14 246 186  14 242 186  14
+-239 182  13 230 174  11 224 166  10 213 154  11
+-180 133  36 124 112  88  86  86  86  58  58  58
+- 38  38  38  22  22  22  10  10  10   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0  14  14  14
+- 34  34  34  70  70  70 138 110  50 158 118  36
+-167 114   7 180 123   7 192 133   9 197 138  11
+-200 144  11 206 145  10 213 154  11 219 162  10
+-224 166  10 230 174  11 239 182  13 242 186  14
+-246 186  14 246 186  14 246 186  14 246 186  14
+-239 182  13 216 158  10 185 133  11 152  99   6
+-104  69   6  18  14   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   2   2   6   2   2   6   2   2   6
+-  2   2   6   6   6   6  80  54   7 152  99   6
+-192 133   9 219 162  10 236 178  12 239 182  13
+-246 186  14 242 186  14 239 182  13 236 178  12
+-224 166  10 206 145  10 192 133   9 154 121  60
+- 94  94  94  62  62  62  42  42  42  22  22  22
+- 14  14  14   6   6   6   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 18  18  18  34  34  34  58  58  58  78  78  78
+-101  98  89 124 112  88 142 110  46 156 107  11
+-163 110   8 167 114   7 175 118   6 180 123   7
+-185 133  11 197 138  11 210 150  10 219 162  10
+-226 170  11 236 178  12 236 178  12 234 174  13
+-219 162  10 197 138  11 163 110   8 130  83   6
+- 91  60   6  10  10  10   2   2   6   2   2   6
+- 18  18  18  38  38  38  38  38  38  38  38  38
+- 38  38  38  38  38  38  38  38  38  38  38  38
+- 38  38  38  38  38  38  26  26  26   2   2   6
+-  2   2   6   6   6   6  70  47   6 137  92   6
+-175 118   6 200 144  11 219 162  10 230 174  11
+-234 174  13 230 174  11 219 162  10 210 150  10
+-192 133   9 163 110   8 124 112  88  82  82  82
+- 50  50  50  30  30  30  14  14  14   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  14  14  14  22  22  22  34  34  34
+- 42  42  42  58  58  58  74  74  74  86  86  86
+-101  98  89 122 102  70 130  98  46 121  87  25
+-137  92   6 152  99   6 163 110   8 180 123   7
+-185 133  11 197 138  11 206 145  10 200 144  11
+-180 123   7 156 107  11 130  83   6 104  69   6
+- 50  34   6  54  54  54 110 110 110 101  98  89
+- 86  86  86  82  82  82  78  78  78  78  78  78
+- 78  78  78  78  78  78  78  78  78  78  78  78
+- 78  78  78  82  82  82  86  86  86  94  94  94
+-106 106 106 101 101 101  86  66  34 124  80   6
+-156 107  11 180 123   7 192 133   9 200 144  11
+-206 145  10 200 144  11 192 133   9 175 118   6
+-139 102  15 109 106  95  70  70  70  42  42  42
+- 22  22  22  10  10  10   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   6   6   6  10  10  10
+- 14  14  14  22  22  22  30  30  30  38  38  38
+- 50  50  50  62  62  62  74  74  74  90  90  90
+-101  98  89 112 100  78 121  87  25 124  80   6
+-137  92   6 152  99   6 152  99   6 152  99   6
+-138  86   6 124  80   6  98  70   6  86  66  30
+-101  98  89  82  82  82  58  58  58  46  46  46
+- 38  38  38  34  34  34  34  34  34  34  34  34
+- 34  34  34  34  34  34  34  34  34  34  34  34
+- 34  34  34  34  34  34  38  38  38  42  42  42
+- 54  54  54  82  82  82  94  86  76  91  60   6
+-134  86   6 156 107  11 167 114   7 175 118   6
+-175 118   6 167 114   7 152  99   6 121  87  25
+-101  98  89  62  62  62  34  34  34  18  18  18
+-  6   6   6   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6   6   6   6  10  10  10
+- 18  18  18  22  22  22  30  30  30  42  42  42
+- 50  50  50  66  66  66  86  86  86 101  98  89
+-106  86  58  98  70   6 104  69   6 104  69   6
+-104  69   6  91  60   6  82  62  34  90  90  90
+- 62  62  62  38  38  38  22  22  22  14  14  14
+- 10  10  10  10  10  10  10  10  10  10  10  10
+- 10  10  10  10  10  10   6   6   6  10  10  10
+- 10  10  10  10  10  10  10  10  10  14  14  14
+- 22  22  22  42  42  42  70  70  70  89  81  66
+- 80  54   7 104  69   6 124  80   6 137  92   6
+-134  86   6 116  81   8 100  82  52  86  86  86
+- 58  58  58  30  30  30  14  14  14   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6  10  10  10  14  14  14
+- 18  18  18  26  26  26  38  38  38  54  54  54
+- 70  70  70  86  86  86  94  86  76  89  81  66
+- 89  81  66  86  86  86  74  74  74  50  50  50
+- 30  30  30  14  14  14   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6  18  18  18  34  34  34  58  58  58
+- 82  82  82  89  81  66  89  81  66  89  81  66
+- 94  86  66  94  86  76  74  74  74  50  50  50
+- 26  26  26  14  14  14   6   6   6   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  6   6   6   6   6   6  14  14  14  18  18  18
+- 30  30  30  38  38  38  46  46  46  54  54  54
+- 50  50  50  42  42  42  30  30  30  18  18  18
+- 10  10  10   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   6   6   6  14  14  14  26  26  26
+- 38  38  38  50  50  50  58  58  58  58  58  58
+- 54  54  54  42  42  42  30  30  30  18  18  18
+- 10  10  10   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+-  6   6   6  10  10  10  14  14  14  18  18  18
+- 18  18  18  14  14  14  10  10  10   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   6   6   6
+- 14  14  14  18  18  18  22  22  22  22  22  22
+- 18  18  18  14  14  14  10  10  10   6   6   6
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
+-  0   0   0   0   0   0   0   0   0   0   0   0
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  3 3 3  0 0 0  0 0 0
++0 0 0  0 0 0  0 0 0  0 0 0  3 3 3  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  1 1 1  0 0 0
++0 0 0  3 3 3  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  2 1 0  2 1 0  3 2 2
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  2 2 2  0 0 0  3 4 3  26 28 28
++37 38 37  37 38 37  14 17 19  2 2 2  0 0 0  2 2 2
++5 5 5  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  3 3 3  0 0 0  1 1 1  6 6 6
++2 2 2  0 0 0  3 3 3  4 4 4  4 4 4  4 4 4
++4 4 5  3 3 3  1 0 0  0 0 0  1 0 0  0 0 0
++1 1 1  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++2 2 2  0 0 0  0 0 0  14 17 19  60 74 84  137 136 137
++153 152 153  137 136 137  125 124 125  60 73 81  6 6 6  3 1 0
++0 0 0  3 3 3  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  0 0 0  4 4 4  41 54 63  125 124 125
++60 73 81  6 6 6  4 0 0  3 3 3  4 4 4  4 4 4
++4 4 4  0 0 0  6 9 11  41 54 63  41 65 82  22 30 35
++2 2 2  2 1 0  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  5 5 5  5 5 5  2 2 2  0 0 0
++4 0 0  6 6 6  41 54 63  137 136 137  174 174 174  167 166 167
++165 164 165  165 164 165  163 162 163  163 162 163  125 124 125  41 54 63
++1 1 1  0 0 0  0 0 0  3 3 3  5 5 5  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  5 5 5  5 5 5
++3 3 3  2 0 0  4 0 0  60 73 81  156 155 156  167 166 167
++163 162 163  85 115 134  5 7 8  0 0 0  4 4 4  5 5 5
++0 0 0  2 5 5  55 98 126  90 154 193  90 154 193  72 125 159
++37 51 59  2 0 0  1 1 1  4 5 5  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  4 4 4  1 1 1  0 0 0  3 3 3
++37 38 37  125 124 125  163 162 163  174 174 174  158 157 158  158 157 158
++156 155 156  156 155 156  158 157 158  165 164 165  174 174 174  166 165 166
++125 124 125  16 19 21  1 0 0  0 0 0  0 0 0  4 4 4
++5 5 5  5 5 5  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  5 5 5  5 5 5  1 1 1
++0 0 0  0 0 0  37 38 37  153 152 153  174 174 174  158 157 158
++174 174 174  163 162 163  37 38 37  4 3 3  4 0 0  1 1 1
++0 0 0  22 40 52  101 161 196  101 161 196  90 154 193  101 161 196
++64 123 161  14 17 19  0 0 0  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  5 5 5
++5 5 5  2 2 2  0 0 0  4 0 0  24 26 27  85 115 134
++156 155 156  174 174 174  167 166 167  156 155 156  154 153 154  157 156 157
++156 155 156  156 155 156  155 154 155  153 152 153  158 157 158  167 166 167
++174 174 174  156 155 156  60 74 84  16 19 21  0 0 0  0 0 0
++1 1 1  5 5 5  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  6 6 6  3 3 3  0 0 0  4 0 0
++13 16 17  60 73 81  137 136 137  165 164 165  156 155 156  153 152 153
++174 174 174  177 184 187  60 73 81  3 1 0  0 0 0  1 1 2
++22 30 35  64 123 161  136 185 209  90 154 193  90 154 193  90 154 193
++90 154 193  21 29 34  0 0 0  3 2 2  4 4 5  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  5 5 5  3 3 3
++0 0 0  0 0 0  10 13 16  60 74 84  157 156 157  174 174 174
++174 174 174  158 157 158  153 152 153  154 153 154  156 155 156  155 154 155
++156 155 156  155 154 155  154 153 154  157 156 157  154 153 154  153 152 153
++163 162 163  174 174 174  177 184 187  137 136 137  60 73 81  13 16 17
++4 0 0  0 0 0  3 3 3  5 5 5  4 4 4  4 4 4
++5 5 5  4 4 4  1 1 1  0 0 0  3 3 3  41 54 63
++131 129 131  174 174 174  174 174 174  174 174 174  167 166 167  174 174 174
++190 197 201  137 136 137  24 26 27  4 0 0  16 21 25  50 82 103
++90 154 193  136 185 209  90 154 193  101 161 196  101 161 196  101 161 196
++31 91 132  3 6 7  0 0 0  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  2 2 2  0 0 0  4 0 0
++4 0 0  43 57 68  137 136 137  177 184 187  174 174 174  163 162 163
++155 154 155  155 154 155  156 155 156  155 154 155  158 157 158  165 164 165
++167 166 167  166 165 166  163 162 163  157 156 157  155 154 155  155 154 155
++153 152 153  156 155 156  167 166 167  174 174 174  174 174 174  131 129 131
++41 54 63  5 5 5  0 0 0  0 0 0  3 3 3  4 4 4
++1 1 1  0 0 0  1 0 0  26 28 28  125 124 125  174 174 174
++177 184 187  174 174 174  174 174 174  156 155 156  131 129 131  137 136 137
++125 124 125  24 26 27  4 0 0  41 65 82  90 154 193  136 185 209
++136 185 209  101 161 196  53 118 160  37 112 160  90 154 193  34 86 122
++7 12 15  0 0 0  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  3 3 3  0 0 0  0 0 0  5 5 5  37 38 37
++125 124 125  167 166 167  174 174 174  167 166 167  158 157 158  155 154 155
++156 155 156  156 155 156  156 155 156  163 162 163  167 166 167  155 154 155
++137 136 137  153 152 153  156 155 156  165 164 165  163 162 163  156 155 156
++156 155 156  156 155 156  155 154 155  158 157 158  166 165 166  174 174 174
++167 166 167  125 124 125  37 38 37  1 0 0  0 0 0  0 0 0
++0 0 0  24 26 27  60 74 84  158 157 158  174 174 174  174 174 174
++166 165 166  158 157 158  125 124 125  41 54 63  13 16 17  6 6 6
++6 6 6  37 38 37  80 127 157  136 185 209  101 161 196  101 161 196
++90 154 193  28 67 93  6 10 14  13 20 25  13 20 25  6 10 14
++1 1 2  4 3 3  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++1 1 1  1 0 0  4 3 3  37 38 37  60 74 84  153 152 153
++167 166 167  167 166 167  158 157 158  154 153 154  155 154 155  156 155 156
++157 156 157  158 157 158  167 166 167  167 166 167  131 129 131  43 57 68
++26 28 28  37 38 37  60 73 81  131 129 131  165 164 165  166 165 166
++158 157 158  155 154 155  156 155 156  156 155 156  156 155 156  158 157 158
++165 164 165  174 174 174  163 162 163  60 74 84  16 19 21  13 16 17
++60 73 81  131 129 131  174 174 174  174 174 174  167 166 167  165 164 165
++137 136 137  60 73 81  24 26 27  4 0 0  4 0 0  16 19 21
++52 104 138  101 161 196  136 185 209  136 185 209  90 154 193  27 99 146
++13 20 25  4 5 7  2 5 5  4 5 7  1 1 2  0 0 0
++4 4 4  4 4 4  3 3 3  2 2 2  2 2 2  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  3 3 3  0 0 0
++0 0 0  13 16 17  60 73 81  137 136 137  174 174 174  166 165 166
++158 157 158  156 155 156  157 156 157  156 155 156  155 154 155  158 157 158
++167 166 167  174 174 174  153 152 153  60 73 81  16 19 21  4 0 0
++4 0 0  4 0 0  6 6 6  26 28 28  60 74 84  158 157 158
++174 174 174  166 165 166  157 156 157  155 154 155  156 155 156  156 155 156
++155 154 155  158 157 158  167 166 167  167 166 167  131 129 131  125 124 125
++137 136 137  167 166 167  167 166 167  174 174 174  158 157 158  125 124 125
++16 19 21  4 0 0  4 0 0  10 13 16  49 76 92  107 159 188
++136 185 209  136 185 209  90 154 193  26 108 161  22 40 52  6 10 14
++2 3 3  1 1 2  1 1 2  4 4 5  4 4 5  4 4 5
++4 4 5  2 2 1  0 0 0  0 0 0  0 0 0  2 2 2
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  3 3 3  0 0 0  1 0 0  4 0 0
++37 51 59  131 129 131  167 166 167  167 166 167  163 162 163  157 156 157
++157 156 157  155 154 155  153 152 153  157 156 157  167 166 167  174 174 174
++153 152 153  125 124 125  37 38 37  4 0 0  4 0 0  4 0 0
++4 3 3  4 3 3  4 0 0  6 6 6  4 0 0  37 38 37
++125 124 125  174 174 174  174 174 174  165 164 165  156 155 156  154 153 154
++156 155 156  156 155 156  155 154 155  163 162 163  158 157 158  163 162 163
++174 174 174  174 174 174  174 174 174  125 124 125  37 38 37  0 0 0
++4 0 0  6 9 11  41 54 63  90 154 193  136 185 209  146 190 211
++136 185 209  37 112 160  22 40 52  6 10 14  3 6 7  1 1 2
++1 1 2  3 3 3  1 1 2  3 3 3  4 4 4  4 4 4
++2 2 2  2 0 0  16 19 21  37 38 37  24 26 27  0 0 0
++0 0 0  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  5 5 5  5 5 5
++4 4 4  0 0 0  0 0 0  0 0 0  26 28 28  120 125 127
++158 157 158  174 174 174  165 164 165  157 156 157  155 154 155  156 155 156
++153 152 153  153 152 153  167 166 167  174 174 174  174 174 174  125 124 125
++37 38 37  4 0 0  0 0 0  4 0 0  4 3 3  4 4 4
++4 4 4  4 4 4  5 5 5  4 0 0  4 0 0  4 0 0
++4 3 3  43 57 68  137 136 137  174 174 174  174 174 174  165 164 165
++154 153 154  153 152 153  153 152 153  153 152 153  163 162 163  174 174 174
++174 174 174  153 152 153  60 73 81  6 6 6  4 0 0  4 3 3
++32 43 50  80 127 157  136 185 209  146 190 211  146 190 211  90 154 193
++28 67 93  28 67 93  40 71 93  3 6 7  1 1 2  2 5 5
++50 82 103  79 117 143  26 37 45  0 0 0  3 3 3  1 1 1
++0 0 0  41 54 63  137 136 137  174 174 174  153 152 153  60 73 81
++2 0 0  0 0 0
++4 4 4  4 4 4  4 4 4  4 4 4  6 6 6  2 2 2
++0 0 0  2 0 0  24 26 27  60 74 84  153 152 153  174 174 174
++174 174 174  157 156 157  154 153 154  156 155 156  154 153 154  153 152 153
++165 164 165  174 174 174  177 184 187  137 136 137  43 57 68  6 6 6
++4 0 0  2 0 0  3 3 3  5 5 5  5 5 5  4 4 4
++4 4 4  4 4 4  4 4 4  5 5 5  6 6 6  4 3 3
++4 0 0  4 0 0  24 26 27  60 73 81  153 152 153  174 174 174
++174 174 174  158 157 158  158 157 158  174 174 174  174 174 174  158 157 158
++60 74 84  24 26 27  4 0 0  4 0 0  17 23 27  59 113 148
++136 185 209  191 222 234  146 190 211  136 185 209  31 91 132  7 11 13
++22 40 52  101 161 196  90 154 193  6 9 11  3 4 4  43 95 132
++136 185 209  172 205 220  55 98 126  0 0 0  0 0 0  2 0 0
++26 28 28  153 152 153  177 184 187  167 166 167  177 184 187  165 164 165
++37 38 37  0 0 0
++4 4 4  4 4 4  5 5 5  5 5 5  1 1 1  0 0 0
++13 16 17  60 73 81  137 136 137  174 174 174  174 174 174  165 164 165
++153 152 153  153 152 153  155 154 155  154 153 154  158 157 158  174 174 174
++177 184 187  163 162 163  60 73 81  16 19 21  4 0 0  4 0 0
++4 3 3  4 4 4  5 5 5  5 5 5  4 4 4  5 5 5
++5 5 5  5 5 5  5 5 5  4 4 4  4 4 4  5 5 5
++6 6 6  4 0 0  4 0 0  4 0 0  24 26 27  60 74 84
++166 165 166  174 174 174  177 184 187  165 164 165  125 124 125  24 26 27
++4 0 0  4 0 0  5 5 5  50 82 103  136 185 209  172 205 220
++146 190 211  136 185 209  26 108 161  22 40 52  7 12 15  44 81 103
++71 116 144  28 67 93  37 51 59  41 65 82  100 139 164  101 161 196
++90 154 193  90 154 193  28 67 93  0 0 0  0 0 0  26 28 28
++125 124 125  167 166 167  163 162 163  153 152 153  163 162 163  174 174 174
++85 115 134  4 0 0
++4 4 4  5 5 5  4 4 4  1 0 0  4 0 0  34 47 55
++125 124 125  174 174 174  174 174 174  167 166 167  157 156 157  153 152 153
++155 154 155  155 154 155  158 157 158  166 165 166  167 166 167  154 153 154
++125 124 125  26 28 28  4 0 0  4 0 0  4 0 0  5 5 5
++5 5 5  4 4 4  4 4 4  4 4 4  4 4 4  1 1 1
++0 0 0  0 0 0  1 1 1  4 4 4  4 4 4  4 4 4
++5 5 5  5 5 5  4 3 3  4 0 0  4 0 0  6 6 6
++37 38 37  131 129 131  137 136 137  37 38 37  0 0 0  4 0 0
++4 5 5  43 61 72  90 154 193  172 205 220  146 190 211  136 185 209
++90 154 193  28 67 93  13 20 25  43 61 72  71 116 144  44 81 103
++2 5 5  7 11 13  59 113 148  101 161 196  90 154 193  28 67 93
++13 20 25  6 10 14  0 0 0  13 16 17  60 73 81  137 136 137
++166 165 166  158 157 158  156 155 156  154 153 154  167 166 167  174 174 174
++60 73 81  4 0 0
++4 4 4  4 4 4  0 0 0  3 3 3  60 74 84  174 174 174
++174 174 174  167 166 167  163 162 163  155 154 155  157 156 157  155 154 155
++156 155 156  163 162 163  167 166 167  158 157 158  125 124 125  37 38 37
++4 3 3  4 0 0  4 0 0  6 6 6  6 6 6  5 5 5
++4 4 4  4 4 4  4 4 4  1 1 1  0 0 0  2 3 3
++10 13 16  7 11 13  1 0 0  0 0 0  2 2 1  4 4 4
++4 4 4  4 4 4  4 4 4  5 5 5  4 3 3  4 0 0
++4 0 0  7 11 13  13 16 17  4 0 0  3 3 3  34 47 55
++80 127 157  146 190 211  172 205 220  136 185 209  136 185 209  136 185 209
++28 67 93  22 40 52  55 98 126  55 98 126  21 29 34  7 11 13
++50 82 103  101 161 196  101 161 196  35 83 115  13 20 25  2 2 1
++1 1 2  1 1 2  37 51 59  131 129 131  174 174 174  174 174 174
++167 166 167  163 162 163  163 162 163  167 166 167  174 174 174  125 124 125
++16 19 21  4 0 0
++4 4 4  4 0 0  4 0 0  60 74 84  174 174 174  174 174 174
++158 157 158  155 154 155  155 154 155  156 155 156  155 154 155  158 157 158
++167 166 167  165 164 165  131 129 131  60 73 81  13 16 17  4 0 0
++4 0 0  4 3 3  6 6 6  4 3 3  5 5 5  4 4 4
++4 4 4  3 2 2  0 0 0  0 0 0  7 11 13  45 69 86
++80 127 157  71 116 144  43 61 72  7 11 13  0 0 0  1 1 1
++4 3 3  4 4 4  4 4 4  4 4 4  6 6 6  5 5 5
++3 2 2  4 0 0  1 0 0  21 29 34  59 113 148  136 185 209
++146 190 211  136 185 209  136 185 209  136 185 209  136 185 209  136 185 209
++68 124 159  44 81 103  22 40 52  13 16 17  43 61 72  90 154 193
++136 185 209  59 113 148  21 29 34  3 4 3  1 1 1  0 0 0
++24 26 27  125 124 125  163 162 163  174 174 174  166 165 166  165 164 165
++163 162 163  125 124 125  125 124 125  125 124 125  125 124 125  26 28 28
++4 0 0  4 3 3
++3 3 3  0 0 0  24 26 27  153 152 153  177 184 187  158 157 158
++156 155 156  156 155 156  155 154 155  155 154 155  165 164 165  174 174 174
++155 154 155  60 74 84  26 28 28  4 0 0  4 0 0  3 1 0
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 3 3
++2 0 0  0 0 0  0 0 0  32 43 50  72 125 159  101 161 196
++136 185 209  101 161 196  101 161 196  79 117 143  32 43 50  0 0 0
++0 0 0  2 2 2  4 4 4  4 4 4  3 3 3  1 0 0
++0 0 0  4 5 5  49 76 92  101 161 196  146 190 211  146 190 211
++136 185 209  136 185 209  136 185 209  136 185 209  136 185 209  90 154 193
++28 67 93  13 16 17  37 51 59  80 127 157  136 185 209  90 154 193
++22 40 52  6 9 11  3 4 3  2 2 1  16 19 21  60 73 81
++137 136 137  163 162 163  158 157 158  166 165 166  167 166 167  153 152 153
++60 74 84  37 38 37  6 6 6  13 16 17  4 0 0  1 0 0
++3 2 2  4 4 4
++3 2 2  4 0 0  37 38 37  137 136 137  167 166 167  158 157 158
++157 156 157  154 153 154  157 156 157  167 166 167  174 174 174  125 124 125
++37 38 37  4 0 0  4 0 0  4 0 0  4 3 3  4 4 4
++4 4 4  4 4 4  5 5 5  5 5 5  1 1 1  0 0 0
++0 0 0  16 21 25  55 98 126  90 154 193  136 185 209  101 161 196
++101 161 196  101 161 196  136 185 209  136 185 209  101 161 196  55 98 126
++14 17 19  0 0 0  0 0 0  0 0 0  0 0 0  0 0 0
++22 40 52  90 154 193  146 190 211  146 190 211  136 185 209  136 185 209
++136 185 209  136 185 209  136 185 209  101 161 196  35 83 115  7 11 13
++17 23 27  59 113 148  136 185 209  101 161 196  34 86 122  7 12 15
++2 5 5  3 4 3  6 6 6  60 73 81  131 129 131  163 162 163
++166 165 166  174 174 174  174 174 174  163 162 163  125 124 125  41 54 63
++13 16 17  4 0 0  4 0 0  4 0 0  1 0 0  2 2 2
++4 4 4  4 4 4
++1 1 1  2 1 0  43 57 68  137 136 137  153 152 153  153 152 153
++163 162 163  156 155 156  165 164 165  167 166 167  60 74 84  6 6 6
++4 0 0  4 0 0  5 5 5  4 4 4  4 4 4  4 4 4
++4 5 5  6 6 6  4 3 3  0 0 0  0 0 0  11 15 18
++40 71 93  100 139 164  101 161 196  101 161 196  101 161 196  101 161 196
++101 161 196  101 161 196  101 161 196  101 161 196  136 185 209  136 185 209
++101 161 196  45 69 86  6 6 6  0 0 0  17 23 27  55 98 126
++136 185 209  146 190 211  136 185 209  136 185 209  136 185 209  136 185 209
++136 185 209  136 185 209  90 154 193  22 40 52  7 11 13  50 82 103
++136 185 209  136 185 209  53 118 160  22 40 52  7 11 13  2 5 5
++3 4 3  37 38 37  125 124 125  157 156 157  166 165 166  167 166 167
++174 174 174  174 174 174  137 136 137  60 73 81  4 0 0  4 0 0
++4 0 0  4 0 0  5 5 5  3 3 3  3 3 3  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  41 54 63  137 136 137  125 124 125  131 129 131
++155 154 155  167 166 167  174 174 174  60 74 84  6 6 6  4 0 0
++4 3 3  6 6 6  4 4 4  4 4 4  4 4 4  5 5 5
++4 4 4  1 1 1  0 0 0  3 6 7  41 65 82  72 125 159
++101 161 196  101 161 196  101 161 196  90 154 193  90 154 193  101 161 196
++101 161 196  101 161 196  101 161 196  101 161 196  101 161 196  136 185 209
++136 185 209  136 185 209  80 127 157  55 98 126  101 161 196  146 190 211
++136 185 209  136 185 209  136 185 209  101 161 196  136 185 209  101 161 196
++136 185 209  101 161 196  35 83 115  22 30 35  101 161 196  172 205 220
++90 154 193  28 67 93  7 11 13  2 5 5  3 4 3  13 16 17
++85 115 134  167 166 167  174 174 174  174 174 174  174 174 174  174 174 174
++167 166 167  60 74 84  13 16 17  4 0 0  4 0 0  4 3 3
++6 6 6  5 5 5  4 4 4  5 5 5  4 4 4  5 5 5
++5 5 5  5 5 5
++1 1 1  4 0 0  41 54 63  137 136 137  137 136 137  125 124 125
++131 129 131  167 166 167  157 156 157  37 38 37  6 6 6  4 0 0
++6 6 6  5 5 5  4 4 4  4 4 4  4 5 5  2 2 1
++0 0 0  0 0 0  26 37 45  58 111 146  101 161 196  101 161 196
++101 161 196  90 154 193  90 154 193  90 154 193  101 161 196  101 161 196
++101 161 196  101 161 196  101 161 196  101 161 196  101 161 196  101 161 196
++101 161 196  136 185 209  136 185 209  136 185 209  146 190 211  136 185 209
++136 185 209  101 161 196  136 185 209  136 185 209  101 161 196  136 185 209
++101 161 196  136 185 209  136 185 209  136 185 209  136 185 209  16 89 141
++7 11 13  2 5 5  2 5 5  13 16 17  60 73 81  154 154 154
++174 174 174  174 174 174  174 174 174  174 174 174  163 162 163  125 124 125
++24 26 27  4 0 0  4 0 0  4 0 0  5 5 5  5 5 5
++4 4 4  4 4 4  4 4 4  5 5 5  5 5 5  5 5 5
++5 5 5  4 4 4
++4 0 0  6 6 6  37 38 37  137 136 137  137 136 137  131 129 131
++131 129 131  153 152 153  131 129 131  26 28 28  4 0 0  4 3 3
++6 6 6  4 4 4  4 4 4  4 4 4  0 0 0  0 0 0
++13 20 25  51 88 114  90 154 193  101 161 196  101 161 196  90 154 193
++90 154 193  90 154 193  90 154 193  90 154 193  90 154 193  101 161 196
++101 161 196  101 161 196  101 161 196  101 161 196  136 185 209  101 161 196
++101 161 196  136 185 209  101 161 196  136 185 209  136 185 209  101 161 196
++136 185 209  101 161 196  136 185 209  101 161 196  101 161 196  101 161 196
++136 185 209  136 185 209  136 185 209  37 112 160  21 29 34  5 7 8
++2 5 5  13 16 17  43 57 68  131 129 131  174 174 174  174 174 174
++174 174 174  167 166 167  157 156 157  125 124 125  37 38 37  4 0 0
++4 0 0  4 0 0  5 5 5  5 5 5  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++1 1 1  4 0 0  41 54 63  153 152 153  137 136 137  137 136 137
++137 136 137  153 152 153  125 124 125  24 26 27  4 0 0  3 2 2
++4 4 4  4 4 4  4 3 3  4 0 0  3 6 7  43 61 72
++64 123 161  101 161 196  90 154 193  90 154 193  90 154 193  90 154 193
++90 154 193  90 154 193  90 154 193  90 154 193  101 161 196  90 154 193
++101 161 196  101 161 196  101 161 196  101 161 196  101 161 196  101 161 196
++101 161 196  101 161 196  101 161 196  101 161 196  101 161 196  101 161 196
++136 185 209  101 161 196  101 161 196  136 185 209  136 185 209  101 161 196
++101 161 196  90 154 193  28 67 93  13 16 17  7 11 13  3 6 7
++37 51 59  125 124 125  163 162 163  174 174 174  167 166 167  166 165 166
++167 166 167  131 129 131  60 73 81  4 0 0  4 0 0  4 0 0
++3 3 3  5 5 5  6 6 6  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  41 54 63  137 136 137  153 152 153  137 136 137
++153 152 153  157 156 157  125 124 125  24 26 27  0 0 0  2 2 2
++4 4 4  4 4 4  2 0 0  0 0 0  28 67 93  90 154 193
++90 154 193  90 154 193  90 154 193  90 154 193  64 123 161  90 154 193
++90 154 193  90 154 193  90 154 193  90 154 193  90 154 193  101 161 196
++90 154 193  101 161 196  101 161 196  101 161 196  90 154 193  136 185 209
++101 161 196  101 161 196  136 185 209  101 161 196  136 185 209  101 161 196
++101 161 196  101 161 196  136 185 209  101 161 196  101 161 196  90 154 193
++35 83 115  13 16 17  3 6 7  2 5 5  13 16 17  60 74 84
++154 154 154  166 165 166  165 164 165  158 157 158  163 162 163  157 156 157
++60 74 84  13 16 17  4 0 0  4 0 0  3 2 2  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++1 1 1  4 0 0  41 54 63  157 156 157  155 154 155  137 136 137
++153 152 153  158 157 158  137 136 137  26 28 28  2 0 0  2 2 2
++4 4 4  4 4 4  1 0 0  6 10 14  34 86 122  90 154 193
++64 123 161  90 154 193  64 123 161  90 154 193  90 154 193  90 154 193
++64 123 161  90 154 193  90 154 193  90 154 193  90 154 193  90 154 193
++101 161 196  101 161 196  101 161 196  101 161 196  101 161 196  101 161 196
++101 161 196  101 161 196  101 161 196  101 161 196  101 161 196  101 161 196
++136 185 209  101 161 196  136 185 209  90 154 193  26 108 161  22 40 52
++13 16 17  5 7 8  2 5 5  2 5 5  37 38 37  165 164 165
++174 174 174  163 162 163  154 154 154  165 164 165  167 166 167  60 73 81
++6 6 6  4 0 0  4 0 0  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  6 6 6  41 54 63  156 155 156  158 157 158  153 152 153
++156 155 156  165 164 165  137 136 137  26 28 28  0 0 0  2 2 2
++4 4 5  4 4 4  2 0 0  7 12 15  31 96 139  64 123 161
++90 154 193  64 123 161  90 154 193  90 154 193  64 123 161  90 154 193
++90 154 193  90 154 193  90 154 193  90 154 193  90 154 193  90 154 193
++90 154 193  90 154 193  90 154 193  101 161 196  101 161 196  101 161 196
++101 161 196  101 161 196  101 161 196  101 161 196  101 161 196  136 185 209
++101 161 196  136 185 209  26 108 161  22 40 52  7 11 13  5 7 8
++2 5 5  2 5 5  2 5 5  2 2 1  37 38 37  158 157 158
++174 174 174  154 154 154  156 155 156  167 166 167  165 164 165  37 38 37
++4 0 0  4 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++3 1 0  4 0 0  60 73 81  157 156 157  163 162 163  153 152 153
++158 157 158  167 166 167  137 136 137  26 28 28  2 0 0  2 2 2
++4 5 5  4 4 4  4 0 0  7 12 15  24 86 132  26 108 161
++37 112 160  64 123 161  90 154 193  64 123 161  90 154 193  90 154 193
++90 154 193  90 154 193  90 154 193  90 154 193  90 154 193  90 154 193
++90 154 193  101 161 196  90 154 193  101 161 196  101 161 196  101 161 196
++101 161 196  101 161 196  101 161 196  136 185 209  101 161 196  136 185 209
++90 154 193  35 83 115  13 16 17  13 16 17  7 11 13  3 6 7
++5 7 8  6 6 6  3 4 3  2 2 1  30 32 34  154 154 154
++167 166 167  154 154 154  154 154 154  174 174 174  165 164 165  37 38 37
++6 6 6  4 0 0  6 6 6  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  41 54 63  163 162 163  166 165 166  154 154 154
++163 162 163  174 174 174  137 136 137  26 28 28  0 0 0  2 2 2
++4 5 5  4 4 5  1 1 2  6 10 14  28 67 93  18 97 151
++18 97 151  18 97 151  26 108 161  37 112 160  37 112 160  90 154 193
++64 123 161  90 154 193  90 154 193  90 154 193  90 154 193  101 161 196
++90 154 193  101 161 196  101 161 196  90 154 193  101 161 196  101 161 196
++101 161 196  101 161 196  101 161 196  136 185 209  90 154 193  16 89 141
++13 20 25  7 11 13  5 7 8  5 7 8  2 5 5  4 5 5
++3 4 3  4 5 5  3 4 3  0 0 0  37 38 37  158 157 158
++174 174 174  158 157 158  158 157 158  167 166 167  174 174 174  41 54 63
++4 0 0  3 2 2  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++1 1 1  4 0 0  60 73 81  165 164 165  174 174 174  158 157 158
++167 166 167  174 174 174  153 152 153  26 28 28  2 0 0  2 2 2
++4 5 5  4 4 4  4 0 0  7 12 15  10 87 144  10 87 144
++18 97 151  18 97 151  18 97 151  26 108 161  26 108 161  26 108 161
++26 108 161  37 112 160  53 118 160  90 154 193  90 154 193  90 154 193
++90 154 193  90 154 193  101 161 196  101 161 196  101 161 196  101 161 196
++101 161 196  136 185 209  90 154 193  26 108 161  22 40 52  13 16 17
++7 11 13  3 6 7  5 7 8  5 7 8  2 5 5  4 5 5
++4 5 5  6 6 6  3 4 3  0 0 0  30 32 34  158 157 158
++174 174 174  156 155 156  155 154 155  165 164 165  154 153 154  37 38 37
++4 0 0  4 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  60 73 81  167 166 167  174 174 174  163 162 163
++174 174 174  174 174 174  153 152 153  26 28 28  0 0 0  3 3 3
++5 5 5  4 4 4  1 1 2  7 12 15  28 67 93  18 97 151
++18 97 151  18 97 151  18 97 151  18 97 151  18 97 151  26 108 161
++26 108 161  26 108 161  26 108 161  26 108 161  26 108 161  26 108 161
++90 154 193  26 108 161  90 154 193  90 154 193  90 154 193  101 161 196
++101 161 196  26 108 161  22 40 52  13 16 17  7 11 13  2 5 5
++2 5 5  6 6 6  2 5 5  4 5 5  4 5 5  4 5 5
++3 4 3  5 5 5  3 4 3  2 0 0  30 32 34  137 136 137
++153 152 153  137 136 137  131 129 131  137 136 137  131 129 131  37 38 37
++4 0 0  4 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++1 1 1  4 0 0  60 73 81  167 166 167  174 174 174  166 165 166
++174 174 174  177 184 187  153 152 153  30 32 34  1 0 0  3 3 3
++5 5 5  4 3 3  4 0 0  7 12 15  10 87 144  10 87 144
++18 97 151  18 97 151  18 97 151  26 108 161  26 108 161  26 108 161
++26 108 161  26 108 161  26 108 161  26 108 161  26 108 161  26 108 161
++26 108 161  26 108 161  26 108 161  90 154 193  90 154 193  26 108 161
++35 83 115  13 16 17  7 11 13  5 7 8  3 6 7  5 7 8
++2 5 5  6 6 6  4 5 5  4 5 5  3 4 3  4 5 5
++3 4 3  6 6 6  3 4 3  0 0 0  26 28 28  125 124 125
++131 129 131  125 124 125  125 124 125  131 129 131  131 129 131  37 38 37
++4 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++3 1 0  4 0 0  60 73 81  174 174 174  177 184 187  167 166 167
++174 174 174  177 184 187  153 152 153  30 32 34  0 0 0  3 3 3
++5 5 5  4 4 4  1 1 2  6 10 14  28 67 93  18 97 151
++18 97 151  18 97 151  18 97 151  18 97 151  18 97 151  26 108 161
++26 108 161  26 108 161  26 108 161  26 108 161  26 108 161  26 108 161
++26 108 161  90 154 193  26 108 161  26 108 161  24 86 132  13 20 25
++7 11 13  13 20 25  22 40 52  5 7 8  3 4 3  3 4 3
++4 5 5  3 4 3  4 5 5  3 4 3  4 5 5  3 4 3
++4 4 4  5 5 5  3 3 3  2 0 0  26 28 28  125 124 125
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++1 1 1  4 0 0  60 73 81  174 174 174  177 184 187  174 174 174
++174 174 174  190 197 201  157 156 157  30 32 34  1 0 0  3 3 3
++5 5 5  4 3 3  4 0 0  7 12 15  10 87 144  10 87 144
++18 97 151  19 95 150  19 95 150  18 97 151  18 97 151  26 108 161
++18 97 151  26 108 161  26 108 161  26 108 161  26 108 161  90 154 193
++26 108 161  26 108 161  26 108 161  22 40 52  2 5 5  3 4 3
++28 67 93  37 112 160  34 86 122  2 5 5  3 4 3  3 4 3
++3 4 3  3 4 3  3 4 3  2 2 1  3 4 3  4 4 4
++4 5 5  5 5 5  3 3 3  0 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  60 73 81  174 174 174  177 184 187  174 174 174
++174 174 174  190 197 201  158 157 158  30 32 34  0 0 0  2 2 2
++5 5 5  4 4 4  1 1 2  6 10 14  28 67 93  18 97 151
++10 87 144  19 95 150  19 95 150  18 97 151  18 97 151  18 97 151
++26 108 161  26 108 161  26 108 161  26 108 161  26 108 161  26 108 161
++18 97 151  22 40 52  2 5 5  2 2 1  22 40 52  26 108 161
++90 154 193  37 112 160  22 40 52  3 4 3  13 20 25  22 30 35
++3 6 7  1 1 1  2 2 2  6 9 11  5 5 5  4 3 3
++4 4 4  5 5 5  3 3 3  2 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++1 1 1  4 0 0  60 73 81  177 184 187  193 200 203  174 174 174
++177 184 187  193 200 203  163 162 163  30 32 34  4 0 0  2 2 2
++5 5 5  4 3 3  4 0 0  6 10 14  24 86 132  10 87 144
++10 87 144  10 87 144  19 95 150  19 95 150  19 95 150  18 97 151
++26 108 161  26 108 161  26 108 161  90 154 193  26 108 161  28 67 93
++6 10 14  2 5 5  13 20 25  24 86 132  37 112 160  90 154 193
++10 87 144  7 12 15  2 5 5  28 67 93  37 112 160  28 67 93
++2 2 1  7 12 15  35 83 115  28 67 93  3 6 7  1 0 0
++4 4 4  5 5 5  3 3 3  0 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  60 73 81  174 174 174  190 197 201  174 174 174
++177 184 187  193 200 203  163 162 163  30 32 34  0 0 0  2 2 2
++5 5 5  4 4 4  1 1 2  6 10 14  28 67 93  10 87 144
++10 87 144  16 89 141  19 95 150  10 87 144  26 108 161  26 108 161
++26 108 161  26 108 161  26 108 161  28 67 93  6 10 14  1 1 2
++7 12 15  28 67 93  26 108 161  16 89 141  24 86 132  21 29 34
++3 4 3  21 29 34  37 112 160  37 112 160  27 99 146  21 29 34
++21 29 34  26 108 161  90 154 193  35 83 115  1 1 2  2 0 0
++4 4 4  5 5 5  3 3 3  2 0 0  26 28 28  125 124 125
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++3 1 0  4 0 0  60 73 81  193 200 203  193 200 203  174 174 174
++190 197 201  193 200 203  165 164 165  37 38 37  4 0 0  2 2 2
++5 5 5  4 3 3  4 0 0  6 10 14  24 86 132  10 87 144
++10 87 144  10 87 144  16 89 141  18 97 151  18 97 151  10 87 144
++24 86 132  24 86 132  13 20 25  4 5 7  4 5 7  22 40 52
++18 97 151  37 112 160  26 108 161  7 12 15  1 1 1  0 0 0
++28 67 93  37 112 160  26 108 161  28 67 93  22 40 52  28 67 93
++26 108 161  90 154 193  26 108 161  10 87 144  0 0 0  2 0 0
++4 4 4  5 5 5  3 3 3  0 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  6 6 6  60 73 81  174 174 174  193 200 203  174 174 174
++190 197 201  193 200 203  165 164 165  30 32 34  0 0 0  2 2 2
++5 5 5  4 4 4  1 1 2  6 10 14  28 67 93  10 87 144
++10 87 144  10 87 144  10 87 144  18 97 151  28 67 93  6 10 14
++0 0 0  1 1 2  4 5 7  13 20 25  16 89 141  26 108 161
++26 108 161  26 108 161  24 86 132  6 9 11  2 3 3  22 40 52
++37 112 160  16 89 141  22 40 52  28 67 93  26 108 161  26 108 161
++90 154 193  26 108 161  26 108 161  28 67 93  1 1 1  4 0 0
++4 4 4  5 5 5  3 3 3  4 0 0  26 28 28  124 126 130
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  60 73 81  193 200 203  193 200 203  174 174 174
++193 200 203  193 200 203  167 166 167  37 38 37  4 0 0  2 2 2
++5 5 5  4 4 4  4 0 0  6 10 14  28 67 93  10 87 144
++10 87 144  10 87 144  18 97 151  10 87 144  13 20 25  4 5 7
++1 1 2  1 1 1  22 40 52  26 108 161  26 108 161  26 108 161
++26 108 161  26 108 161  26 108 161  24 86 132  22 40 52  22 40 52
++22 40 52  22 40 52  10 87 144  26 108 161  26 108 161  26 108 161
++26 108 161  26 108 161  90 154 193  10 87 144  0 0 0  4 0 0
++4 4 4  5 5 5  3 3 3  0 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  6 6 6  60 73 81  174 174 174  220 221 221  174 174 174
++190 197 201  205 212 215  167 166 167  30 32 34  0 0 0  2 2 2
++5 5 5  4 4 4  1 1 2  6 10 14  28 67 93  10 87 144
++10 87 144  10 87 144  10 87 144  10 87 144  22 40 52  1 1 2
++2 0 0  1 1 2  24 86 132  26 108 161  26 108 161  26 108 161
++26 108 161  19 95 150  16 89 141  10 87 144  22 40 52  22 40 52
++10 87 144  26 108 161  37 112 160  26 108 161  26 108 161  26 108 161
++26 108 161  26 108 161  26 108 161  28 67 93  2 0 0  3 1 0
++4 4 4  5 5 5  3 3 3  2 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  60 73 81  220 221 221  190 197 201  174 174 174
++193 200 203  193 200 203  174 174 174  37 38 37  4 0 0  2 2 2
++5 5 5  4 4 4  3 2 2  1 1 2  13 20 25  10 87 144
++10 87 144  10 87 144  10 87 144  10 87 144  10 87 144  13 20 25
++13 20 25  22 40 52  10 87 144  18 97 151  18 97 151  26 108 161
++10 87 144  13 20 25  6 10 14  21 29 34  24 86 132  18 97 151
++26 108 161  26 108 161  26 108 161  26 108 161  26 108 161  26 108 161
++26 108 161  90 154 193  18 97 151  13 20 25  0 0 0  4 3 3
++4 4 4  5 5 5  3 3 3  0 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  6 6 6  60 73 81  174 174 174  220 221 221  174 174 174
++190 197 201  220 221 221  167 166 167  30 32 34  1 0 0  2 2 2
++5 5 5  4 4 4  4 4 5  2 5 5  4 5 7  13 20 25
++28 67 93  10 87 144  10 87 144  10 87 144  10 87 144  10 87 144
++10 87 144  10 87 144  18 97 151  10 87 144  18 97 151  18 97 151
++28 67 93  2 3 3  0 0 0  28 67 93  26 108 161  26 108 161
++26 108 161  26 108 161  26 108 161  26 108 161  26 108 161  26 108 161
++26 108 161  10 87 144  13 20 25  1 1 2  3 2 2  4 4 4
++4 4 4  5 5 5  3 3 3  2 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  60 73 81  220 221 221  190 197 201  174 174 174
++193 200 203  193 200 203  174 174 174  26 28 28  4 0 0  4 3 3
++5 5 5  4 4 4  4 4 4  4 4 5  1 1 2  2 5 5
++4 5 7  22 40 52  10 87 144  10 87 144  18 97 151  10 87 144
++10 87 144  10 87 144  10 87 144  10 87 144  10 87 144  18 97 151
++10 87 144  28 67 93  22 40 52  10 87 144  26 108 161  18 97 151
++18 97 151  18 97 151  26 108 161  26 108 161  26 108 161  26 108 161
++22 40 52  1 1 2  0 0 0  2 3 3  4 4 4  4 4 4
++4 4 4  5 5 5  4 4 4  0 0 0  26 28 28  131 129 131
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  6 6 6  60 73 81  174 174 174  220 221 221  174 174 174
++190 197 201  220 221 221  190 197 201  41 54 63  4 0 0  2 2 2
++6 6 6  4 4 4  4 4 4  4 4 5  4 4 5  3 3 3
++1 1 2  1 1 2  6 10 14  22 40 52  10 87 144  18 97 151
++18 97 151  10 87 144  10 87 144  10 87 144  18 97 151  10 87 144
++10 87 144  18 97 151  26 108 161  18 97 151  18 97 151  10 87 144
++26 108 161  26 108 161  26 108 161  10 87 144  28 67 93  6 10 14
++1 1 2  1 1 2  4 3 3  4 4 5  4 4 4  4 4 4
++5 5 5  5 5 5  1 1 1  4 0 0  37 51 59  137 136 137
++137 136 137  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  4 0 0  60 73 81  220 221 221  193 200 203  174 174 174
++193 200 203  193 200 203  220 221 221  137 136 137  13 16 17  4 0 0
++2 2 2  4 4 4  4 4 4  4 4 4  4 4 4  4 4 5
++4 4 5  4 3 3  1 1 2  4 5 7  13 20 25  28 67 93
++10 87 144  10 87 144  10 87 144  10 87 144  10 87 144  10 87 144
++10 87 144  18 97 151  18 97 151  10 87 144  18 97 151  26 108 161
++26 108 161  18 97 151  28 67 93  6 10 14  0 0 0  0 0 0
++2 3 3  4 5 5  4 4 5  4 4 4  4 4 4  5 5 5
++3 3 3  1 1 1  0 0 0  16 19 21  125 124 125  137 136 137
++131 129 131  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  6 6 6  60 73 81  174 174 174  220 221 221  174 174 174
++193 200 203  190 197 201  220 221 221  220 221 221  153 152 153  30 32 34
++0 0 0  0 0 0  2 2 2  4 4 4  4 4 4  4 4 4
++4 4 4  4 5 5  4 5 7  1 1 2  1 1 2  4 5 7
++13 20 25  28 67 93  10 87 144  18 97 151  10 87 144  10 87 144
++10 87 144  10 87 144  10 87 144  18 97 151  26 108 161  18 97 151
++28 67 93  7 12 15  0 0 0  0 0 0  2 2 1  4 4 4
++4 5 5  4 5 5  4 4 4  4 4 4  3 3 3  0 0 0
++0 0 0  0 0 0  37 38 37  125 124 125  158 157 158  131 129 131
++125 124 125  125 124 125  125 124 125  137 136 137  131 129 131  37 38 37
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 3 3  4 0 0  41 54 63  193 200 203  220 221 221  174 174 174
++193 200 203  193 200 203  193 200 203  220 221 221  244 246 246  193 200 203
++120 125 127  5 5 5  1 0 0  0 0 0  1 1 1  4 4 4
++4 4 4  4 4 4  4 5 5  4 5 5  4 4 5  1 1 2
++4 5 7  4 5 7  22 40 52  10 87 144  10 87 144  10 87 144
++10 87 144  10 87 144  18 97 151  10 87 144  10 87 144  13 20 25
++4 5 7  2 3 3  1 1 2  4 4 4  4 5 5  4 4 4
++4 4 4  4 4 4  4 4 4  1 1 1  0 0 0  1 1 2
++24 26 27  60 74 84  153 152 153  163 162 163  137 136 137  125 124 125
++125 124 125  125 124 125  125 124 125  137 136 137  125 124 125  26 28 28
++0 0 0  3 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 0 0  6 6 6  26 28 28  156 155 156  220 221 221  220 221 221
++174 174 174  193 200 203  193 200 203  193 200 203  205 212 215  220 221 221
++220 221 221  167 166 167  60 73 81  7 11 13  0 0 0  0 0 0
++3 3 3  4 4 4  4 4 4  4 4 4  4 4 5  4 4 5
++4 4 5  1 1 2  1 1 2  4 5 7  22 40 52  10 87 144
++10 87 144  10 87 144  10 87 144  22 40 52  4 5 7  1 1 2
++1 1 2  4 4 5  4 4 4  4 4 4  4 4 4  4 4 4
++5 5 5  2 2 2  0 0 0  4 0 0  16 19 21  60 73 81
++137 136 137  167 166 167  158 157 158  137 136 137  131 129 131  131 129 131
++125 124 125  125 124 125  131 129 131  155 154 155  60 74 84  5 7 8
++0 0 0  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++5 5 5  4 0 0  4 0 0  60 73 81  193 200 203  220 221 221
++193 200 203  193 200 203  193 200 203  193 200 203  205 212 215  220 221 221
++220 221 221  220 221 221  220 221 221  137 136 137  43 57 68  6 6 6
++4 0 0  1 1 1  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 5  4 4 5  3 2 2  1 1 2  2 5 5  13 20 25
++22 40 52  22 40 52  13 20 25  2 3 3  1 1 2  3 3 3
++4 5 7  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++1 1 1  0 0 0  2 3 3  41 54 63  131 129 131  166 165 166
++166 165 166  155 154 155  153 152 153  137 136 137  137 136 137  125 124 125
++125 124 125  137 136 137  137 136 137  125 124 125  37 38 37  4 3 3
++4 3 3  5 5 5  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 3 3  6 6 6  6 6 6  13 16 17  60 73 81  167 166 167
++220 221 221  220 221 221  220 221 221  193 200 203  193 200 203  193 200 203
++205 212 215  220 221 221  220 221 221  244 246 246  205 212 215  125 124 125
++24 26 27  0 0 0  0 0 0  2 2 2  5 5 5  5 5 5
++4 4 4  4 4 4  4 4 4  4 4 5  1 1 2  4 5 7
++4 5 7  4 5 7  1 1 2  3 2 2  4 4 5  4 4 4
++4 4 4  4 4 4  5 5 5  4 4 4  0 0 0  0 0 0
++2 0 0  26 28 28  125 124 125  174 174 174  174 174 174  166 165 166
++156 155 156  153 152 153  137 136 137  137 136 137  131 129 131  137 136 137
++137 136 137  137 136 137  60 74 84  30 32 34  4 0 0  4 0 0
++5 5 5  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++5 5 5  6 6 6  4 0 0  4 0 0  6 6 6  26 28 28
++125 124 125  174 174 174  220 221 221  220 221 221  220 221 221  193 200 203
++205 212 215  220 221 221  205 212 215  220 221 221  220 221 221  244 246 246
++193 200 203  60 74 84  13 16 17  4 0 0  0 0 0  3 3 3
++5 5 5  5 5 5  4 4 4  4 4 4  4 4 5  3 3 3
++1 1 2  3 3 3  4 4 5  4 4 5  4 4 4  4 4 4
++5 5 5  5 5 5  2 2 2  0 0 0  0 0 0  13 16 17
++60 74 84  174 174 174  193 200 203  174 174 174  167 166 167  163 162 163
++153 152 153  153 152 153  137 136 137  137 136 137  153 152 153  137 136 137
++125 124 125  41 54 63  24 26 27  4 0 0  4 0 0  5 5 5
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 3 3  6 6 6  6 6 6  6 6 6  6 6 6  6 6 6
++6 6 6  37 38 37  131 129 131  220 221 221  220 221 221  220 221 221
++193 200 203  193 200 203  220 221 221  205 212 215  220 221 221  244 246 246
++244 246 246  244 246 246  174 174 174  41 54 63  0 0 0  0 0 0
++0 0 0  4 4 4  5 5 5  5 5 5  4 4 4  4 4 5
++4 4 5  4 4 5  4 4 4  4 4 4  6 6 6  6 6 6
++3 3 3  0 0 0  2 0 0  13 16 17  60 73 81  156 155 156
++220 221 221  193 200 203  174 174 174  165 164 165  163 162 163  154 153 154
++153 152 153  153 152 153  158 157 158  163 162 163  137 136 137  60 73 81
++13 16 17  4 0 0  4 0 0  4 3 3  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++5 5 5  4 3 3  4 3 3  6 6 6  6 6 6  6 6 6
++6 6 6  6 6 6  6 6 6  37 38 37  167 166 167  244 246 246
++244 246 246  220 221 221  205 212 215  205 212 215  220 221 221  193 200 203
++220 221 221  244 246 246  244 246 246  244 246 246  137 136 137  37 38 37
++3 2 2  0 0 0  1 1 1  5 5 5  5 5 5  4 4 4
++4 4 4  4 4 4  4 4 4  5 5 5  4 4 4  1 1 1
++0 0 0  5 5 5  43 57 68  153 152 153  193 200 203  220 221 221
++177 184 187  174 174 174  167 166 167  166 165 166  158 157 158  157 156 157
++158 157 158  166 165 166  156 155 156  85 115 134  13 16 17  4 0 0
++4 0 0  4 0 0  5 5 5  5 5 5  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++5 5 5  4 3 3  6 6 6  6 6 6  4 0 0  6 6 6
++6 6 6  6 6 6  6 6 6  6 6 6  13 16 17  60 73 81
++177 184 187  220 221 221  220 221 221  220 221 221  205 212 215  220 221 221
++220 221 221  205 212 215  220 221 221  244 246 246  244 246 246  205 212 215
++125 124 125  30 32 34  0 0 0  0 0 0  2 2 2  5 5 5
++4 4 4  4 4 4  4 4 4  1 1 1  0 0 0  1 0 0
++37 38 37  131 129 131  205 212 215  220 221 221  193 200 203  174 174 174
++174 174 174  174 174 174  167 166 167  165 164 165  166 165 166  167 166 167
++158 157 158  125 124 125  37 38 37  4 0 0  4 0 0  4 0 0
++4 3 3  5 5 5  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  5 5 5  4 3 3  4 3 3  6 6 6  6 6 6
++4 0 0  6 6 6  6 6 6  6 6 6  6 6 6  6 6 6
++26 28 28  125 124 125  205 212 215  220 221 221  220 221 221  220 221 221
++205 212 215  220 221 221  205 212 215  220 221 221  220 221 221  244 246 246
++244 246 246  190 197 201  60 74 84  16 19 21  4 0 0  0 0 0
++0 0 0  0 0 0  0 0 0  0 0 0  16 19 21  120 125 127
++177 184 187  220 221 221  205 212 215  177 184 187  174 174 174  177 184 187
++174 174 174  174 174 174  167 166 167  174 174 174  166 165 166  137 136 137
++60 73 81  13 16 17  4 0 0  4 0 0  4 3 3  6 6 6
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++5 5 5  4 3 3  5 5 5  4 3 3  6 6 6  4 0 0
++6 6 6  6 6 6  4 0 0  6 6 6  4 0 0  6 6 6
++6 6 6  6 6 6  37 38 37  137 136 137  193 200 203  220 221 221
++220 221 221  205 212 215  220 221 221  205 212 215  205 212 215  220 221 221
++220 221 221  220 221 221  244 246 246  166 165 166  43 57 68  2 2 2
++0 0 0  4 0 0  16 19 21  60 73 81  157 156 157  202 210 214
++220 221 221  193 200 203  177 184 187  177 184 187  177 184 187  174 174 174
++174 174 174  174 174 174  174 174 174  157 156 157  60 74 84  24 26 27
++4 0 0  4 0 0  4 0 0  6 6 6  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  5 5 5  4 3 3  5 5 5  6 6 6
++6 6 6  4 0 0  6 6 6  6 6 6  6 6 6  4 0 0
++4 0 0  4 0 0  6 6 6  24 26 27  60 73 81  167 166 167
++220 221 221  220 221 221  220 221 221  205 212 215  205 212 215  205 212 215
++205 212 215  220 221 221  220 221 221  220 221 221  205 212 215  137 136 137
++60 74 84  125 124 125  137 136 137  190 197 201  220 221 221  193 200 203
++177 184 187  177 184 187  177 184 187  174 174 174  174 174 174  177 184 187
++190 197 201  174 174 174  125 124 125  37 38 37  6 6 6  4 0 0
++4 0 0  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  5 5 5  5 5 5  4 3 3  6 6 6
++4 0 0  6 6 6  6 6 6  6 6 6  4 0 0  6 6 6
++6 6 6  6 6 6  4 0 0  4 0 0  6 6 6  6 6 6
++125 124 125  193 200 203  244 246 246  220 221 221  205 212 215  205 212 215
++205 212 215  193 200 203  205 212 215  205 212 215  220 221 221  220 221 221
++193 200 203  193 200 203  205 212 215  193 200 203  193 200 203  177 184 187
++190 197 201  190 197 201  174 174 174  190 197 201  193 200 203  190 197 201
++153 152 153  60 73 81  4 0 0  4 0 0  4 0 0  3 2 2
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  5 5 5  4 3 3
++6 6 6  4 3 3  4 3 3  4 3 3  6 6 6  6 6 6
++4 0 0  6 6 6  6 6 6  6 6 6  4 0 0  4 0 0
++4 0 0  26 28 28  131 129 131  220 221 221  244 246 246  220 221 221
++205 212 215  193 200 203  205 212 215  193 200 203  193 200 203  205 212 215
++220 221 221  193 200 203  193 200 203  193 200 203  190 197 201  174 174 174
++174 174 174  190 197 201  193 200 203  193 200 203  167 166 167  125 124 125
++6 6 6  4 0 0  4 0 0  4 3 3  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  5 5 5
++5 5 5  4 3 3  5 5 5  6 6 6  4 3 3  5 5 5
++6 6 6  6 6 6  4 0 0  6 6 6  6 6 6  6 6 6
++4 0 0  4 0 0  6 6 6  41 54 63  158 157 158  220 221 221
++220 221 221  220 221 221  193 200 203  193 200 203  193 200 203  190 197 201
++190 197 201  190 197 201  190 197 201  190 197 201  174 174 174  193 200 203
++193 200 203  220 221 221  174 174 174  125 124 125  37 38 37  4 0 0
++4 0 0  4 3 3  6 6 6  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  4 3 3  4 3 3  4 3 3  5 5 5
++4 3 3  6 6 6  5 5 5  4 3 3  6 6 6  6 6 6
++6 6 6  6 6 6  4 0 0  4 0 0  13 16 17  60 73 81
++174 174 174  220 221 221  220 221 221  205 212 215  190 197 201  174 174 174
++193 200 203  174 174 174  190 197 201  174 174 174  193 200 203  220 221 221
++193 200 203  131 129 131  37 38 37  6 6 6  4 0 0  4 0 0
++6 6 6  6 6 6  4 3 3  5 5 5  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  5 5 5  5 5 5  5 5 5
++5 5 5  4 3 3  4 3 3  5 5 5  4 3 3  4 3 3
++5 5 5  6 6 6  6 6 6  4 0 0  6 6 6  6 6 6
++6 6 6  125 124 125  174 174 174  220 221 221  220 221 221  193 200 203
++193 200 203  193 200 203  193 200 203  193 200 203  220 221 221  158 157 158
++60 73 81  6 6 6  4 0 0  4 0 0  5 5 5  6 6 6
++5 5 5  5 5 5  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  5 5 5  4 3 3  5 5 5  4 3 3
++5 5 5  5 5 5  6 6 6  6 6 6  4 0 0  4 0 0
++4 0 0  4 0 0  26 28 28  125 124 125  174 174 174  193 200 203
++193 200 203  174 174 174  193 200 203  167 166 167  125 124 125  6 6 6
++6 6 6  6 6 6  4 0 0  6 6 6  6 6 6  5 5 5
++4 3 3  5 5 5  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  5 5 5
++4 3 3  6 6 6  4 0 0  6 6 6  6 6 6  6 6 6
++6 6 6  4 0 0  4 0 0  6 6 6  37 38 37  125 124 125
++153 152 153  131 129 131  125 124 125  37 38 37  6 6 6  6 6 6
++6 6 6  4 0 0  6 6 6  6 6 6  4 3 3  5 5 5
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  5 5 5  4 3 3  5 5 5  4 3 3
++6 6 6  6 6 6  4 0 0  4 0 0  6 6 6  6 6 6
++24 26 27  24 26 27  6 6 6  6 6 6  6 6 6  4 0 0
++6 6 6  6 6 6  4 0 0  6 6 6  5 5 5  4 3 3
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  5 5 5  4 3 3  5 5 5  6 6 6
++4 0 0  6 6 6  6 6 6  6 6 6  6 6 6  6 6 6
++6 6 6  6 6 6  6 6 6  4 0 0  6 6 6  6 6 6
++4 0 0  6 6 6  6 6 6  4 3 3  5 5 5  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  5 5 5  4 3 3  5 5 5
++5 5 5  5 5 5  4 0 0  6 6 6  4 0 0  6 6 6
++6 6 6  6 6 6  6 6 6  4 0 0  6 6 6  4 0 0
++6 6 6  4 3 3  5 5 5  4 3 3  5 5 5  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  5 5 5
++4 3 3  6 6 6  4 3 3  6 6 6  6 6 6  6 6 6
++4 0 0  6 6 6  4 0 0  6 6 6  6 6 6  6 6 6
++6 6 6  4 3 3  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  4 3 3  5 5 5  4 0 0  6 6 6
++6 6 6  4 0 0  6 6 6  6 6 6  4 0 0  6 6 6
++4 3 3  5 5 5  5 5 5  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  5 5 5  4 3 3  5 5 5  6 6 6  4 3 3
++4 3 3  6 6 6  6 6 6  4 3 3  6 6 6  4 3 3
++5 5 5  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  5 5 5  4 3 3  6 6 6
++5 5 5  4 3 3  4 3 3  4 3 3  5 5 5  5 5 5
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  5 5 5  4 3 3
++5 5 5  4 3 3  5 5 5  5 5 5  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4  4 4 4  4 4 4  4 4 4  4 4 4
++4 4 4  4 4 4
+diff --git a/drivers/video/nvidia/nv_backlight.c b/drivers/video/nvidia/nv_backlight.c
+index 443e3c8..c443d6a 100644
+--- a/drivers/video/nvidia/nv_backlight.c
++++ b/drivers/video/nvidia/nv_backlight.c
+@@ -87,7 +87,7 @@ static int nvidia_bl_get_brightness(struct backlight_device *bd)
+       return bd->props.brightness;
+ }
+-static struct backlight_ops nvidia_bl_ops = {
++static const struct backlight_ops nvidia_bl_ops = {
+       .get_brightness = nvidia_bl_get_brightness,
+       .update_status  = nvidia_bl_update_status,
+ };
+diff --git a/drivers/video/riva/fbdev.c b/drivers/video/riva/fbdev.c
+index d94c57f..912984c 100644
+--- a/drivers/video/riva/fbdev.c
++++ b/drivers/video/riva/fbdev.c
+@@ -331,7 +331,7 @@ static int riva_bl_get_brightness(struct backlight_device *bd)
+       return bd->props.brightness;
+ }
+-static struct backlight_ops riva_bl_ops = {
++static const struct backlight_ops riva_bl_ops = {
+       .get_brightness = riva_bl_get_brightness,
+       .update_status  = riva_bl_update_status,
+ };
+diff --git a/drivers/video/uvesafb.c b/drivers/video/uvesafb.c
+index 54fbb29..2c108fc 100644
+--- a/drivers/video/uvesafb.c
++++ b/drivers/video/uvesafb.c
+@@ -18,6 +18,7 @@
+ #include <linux/fb.h>
+ #include <linux/io.h>
+ #include <linux/mutex.h>
++#include <linux/moduleloader.h>
+ #include <video/edid.h>
+ #include <video/uvesafb.h>
+ #ifdef CONFIG_X86
+@@ -120,7 +121,7 @@ static int uvesafb_helper_start(void)
+               NULL,
+       };
+-      return call_usermodehelper(v86d_path, argv, envp, 1);
++      return call_usermodehelper(v86d_path, argv, envp, UMH_WAIT_PROC);
+ }
+ /*
+@@ -568,10 +569,32 @@ static int __devinit uvesafb_vbe_getpmi(struct uvesafb_ktask *task,
+       if ((task->t.regs.eax & 0xffff) != 0x4f || task->t.regs.es < 0xc000) {
+               par->pmi_setpal = par->ypan = 0;
+       } else {
++
++#ifdef CONFIG_PAX_KERNEXEC
++#ifdef CONFIG_MODULES
++              par->pmi_code = module_alloc_exec((u16)task->t.regs.ecx);
++#endif
++              if (!par->pmi_code) {
++                      par->pmi_setpal = par->ypan = 0;
++                      return 0;
++              }
++#endif
++
+               par->pmi_base = (u16 *)phys_to_virt(((u32)task->t.regs.es << 4)
+                                               + task->t.regs.edi);
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_PAX_KERNEXEC)
++              pax_open_kernel();
++              memcpy(par->pmi_code, par->pmi_base, (u16)task->t.regs.ecx);
++              pax_close_kernel();
++
++              par->pmi_start = ktva_ktla(par->pmi_code + par->pmi_base[1]);
++              par->pmi_pal = ktva_ktla(par->pmi_code + par->pmi_base[2]);
++#else
+               par->pmi_start = (u8 *)par->pmi_base + par->pmi_base[1];
+               par->pmi_pal = (u8 *)par->pmi_base + par->pmi_base[2];
++#endif
++
+               printk(KERN_INFO "uvesafb: protected mode interface info at "
+                                "%04x:%04x\n",
+                                (u16)task->t.regs.es, (u16)task->t.regs.edi);
+@@ -1799,6 +1822,11 @@ out:
+       if (par->vbe_modes)
+               kfree(par->vbe_modes);
++#if defined(CONFIG_MODULES) && defined(CONFIG_PAX_KERNEXEC)
++      if (par->pmi_code)
++              module_free_exec(NULL, par->pmi_code);
++#endif
++
+       framebuffer_release(info);
+       return err;
+ }
+@@ -1825,6 +1853,12 @@ static int uvesafb_remove(struct platform_device *dev)
+                               kfree(par->vbe_state_orig);
+                       if (par->vbe_state_saved)
+                               kfree(par->vbe_state_saved);
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_PAX_KERNEXEC)
++                      if (par->pmi_code)
++                              module_free_exec(NULL, par->pmi_code);
++#endif
++
+               }
+               framebuffer_release(info);
+diff --git a/drivers/video/vesafb.c b/drivers/video/vesafb.c
+index bd37ee1..cb827e8 100644
+--- a/drivers/video/vesafb.c
++++ b/drivers/video/vesafb.c
+@@ -9,6 +9,7 @@
+  */
+ #include <linux/module.h>
++#include <linux/moduleloader.h>
+ #include <linux/kernel.h>
+ #include <linux/errno.h>
+ #include <linux/string.h>
+@@ -53,8 +54,8 @@ static int   vram_remap __initdata;          /* Set amount of memory to be used */
+ static int   vram_total __initdata;           /* Set total amount of memory */
+ static int   pmi_setpal __read_mostly = 1;    /* pmi for palette changes ??? */
+ static int   ypan       __read_mostly;                /* 0..nothing, 1..ypan, 2..ywrap */
+-static void  (*pmi_start)(void) __read_mostly;
+-static void  (*pmi_pal)  (void) __read_mostly;
++static void  (*pmi_start)(void) __read_only;
++static void  (*pmi_pal)  (void) __read_only;
+ static int   depth      __read_mostly;
+ static int   vga_compat __read_mostly;
+ /* --------------------------------------------------------------------- */
+@@ -233,6 +234,7 @@ static int __init vesafb_probe(struct platform_device *dev)
+       unsigned int size_vmode;
+       unsigned int size_remap;
+       unsigned int size_total;
++      void *pmi_code = NULL;
+       if (screen_info.orig_video_isVGA != VIDEO_TYPE_VLFB)
+               return -ENODEV;
+@@ -275,10 +277,6 @@ static int __init vesafb_probe(struct platform_device *dev)
+               size_remap = size_total;
+       vesafb_fix.smem_len = size_remap;
+-#ifndef __i386__
+-      screen_info.vesapm_seg = 0;
+-#endif
+-
+       if (!request_mem_region(vesafb_fix.smem_start, size_total, "vesafb")) {
+               printk(KERN_WARNING
+                      "vesafb: cannot reserve video memory at 0x%lx\n",
+@@ -315,9 +313,21 @@ static int __init vesafb_probe(struct platform_device *dev)
+       printk(KERN_INFO "vesafb: mode is %dx%dx%d, linelength=%d, pages=%d\n",
+              vesafb_defined.xres, vesafb_defined.yres, vesafb_defined.bits_per_pixel, vesafb_fix.line_length, screen_info.pages);
++#ifdef __i386__
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_PAX_KERNEXEC)
++      pmi_code = module_alloc_exec(screen_info.vesapm_size);
++      if (!pmi_code)
++#elif !defined(CONFIG_PAX_KERNEXEC)
++      if (0)
++#endif
++
++#endif
++      screen_info.vesapm_seg = 0;
++
+       if (screen_info.vesapm_seg) {
+-              printk(KERN_INFO "vesafb: protected mode interface info at %04x:%04x\n",
+-                     screen_info.vesapm_seg,screen_info.vesapm_off);
++              printk(KERN_INFO "vesafb: protected mode interface info at %04x:%04x %04x bytes\n",
++                     screen_info.vesapm_seg,screen_info.vesapm_off,screen_info.vesapm_size);
+       }
+       if (screen_info.vesapm_seg < 0xc000)
+@@ -325,9 +335,25 @@ static int __init vesafb_probe(struct platform_device *dev)
+       if (ypan || pmi_setpal) {
+               unsigned short *pmi_base;
++
+               pmi_base  = (unsigned short*)phys_to_virt(((unsigned long)screen_info.vesapm_seg << 4) + screen_info.vesapm_off);
+-              pmi_start = (void*)((char*)pmi_base + pmi_base[1]);
+-              pmi_pal   = (void*)((char*)pmi_base + pmi_base[2]);
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_PAX_KERNEXEC)
++              pax_open_kernel();
++              memcpy(pmi_code, pmi_base, screen_info.vesapm_size);
++#else
++              pmi_code  = pmi_base;
++#endif
++
++              pmi_start = (void*)((char*)pmi_code + pmi_base[1]);
++              pmi_pal   = (void*)((char*)pmi_code + pmi_base[2]);
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_PAX_KERNEXEC)
++              pmi_start = ktva_ktla(pmi_start);
++              pmi_pal = ktva_ktla(pmi_pal);
++              pax_close_kernel();
++#endif
++
+               printk(KERN_INFO "vesafb: pmi: set display start = %p, set palette = %p\n",pmi_start,pmi_pal);
+               if (pmi_base[3]) {
+                       printk(KERN_INFO "vesafb: pmi: ports = ");
+@@ -469,6 +495,11 @@ static int __init vesafb_probe(struct platform_device *dev)
+              info->node, info->fix.id);
+       return 0;
+ err:
++
++#if defined(__i386__) && defined(CONFIG_MODULES) && defined(CONFIG_PAX_KERNEXEC)
++      module_free_exec(NULL, pmi_code);
++#endif
++
+       if (info->screen_base)
+               iounmap(info->screen_base);
+       framebuffer_release(info);
+diff --git a/drivers/xen/sys-hypervisor.c b/drivers/xen/sys-hypervisor.c
+index 88a60e0..6783cc2 100644
+--- a/drivers/xen/sys-hypervisor.c
++++ b/drivers/xen/sys-hypervisor.c
+@@ -425,7 +425,7 @@ static ssize_t hyp_sysfs_store(struct kobject *kobj,
+       return 0;
+ }
+-static struct sysfs_ops hyp_sysfs_ops = {
++static const struct sysfs_ops hyp_sysfs_ops = {
+       .show = hyp_sysfs_show,
+       .store = hyp_sysfs_store,
+ };
+diff --git a/fs/9p/vfs_inode.c b/fs/9p/vfs_inode.c
+index 18f74ec..3227009 100644
+--- a/fs/9p/vfs_inode.c
++++ b/fs/9p/vfs_inode.c
+@@ -1079,7 +1079,7 @@ static void *v9fs_vfs_follow_link(struct dentry *dentry, struct nameidata *nd)
+ static void
+ v9fs_vfs_put_link(struct dentry *dentry, struct nameidata *nd, void *p)
+ {
+-      char *s = nd_get_link(nd);
++      const char *s = nd_get_link(nd);
+       P9_DPRINTK(P9_DEBUG_VFS, " %s %s\n", dentry->d_name.name,
+               IS_ERR(s) ? "<error>" : s);
+diff --git a/fs/Kconfig.binfmt b/fs/Kconfig.binfmt
+index bb4cc5b..df5eaa0 100644
+--- a/fs/Kconfig.binfmt
++++ b/fs/Kconfig.binfmt
+@@ -86,7 +86,7 @@ config HAVE_AOUT
+ config BINFMT_AOUT
+       tristate "Kernel support for a.out and ECOFF binaries"
+-      depends on HAVE_AOUT
++      depends on HAVE_AOUT && BROKEN
+       ---help---
+         A.out (Assembler.OUTput) is a set of formats for libraries and
+         executables used in the earliest versions of UNIX.  Linux used
+diff --git a/fs/aio.c b/fs/aio.c
+index 22a19ad..d484e5b 100644
+--- a/fs/aio.c
++++ b/fs/aio.c
+@@ -115,7 +115,7 @@ static int aio_setup_ring(struct kioctx *ctx)
+       size += sizeof(struct io_event) * nr_events;
+       nr_pages = (size + PAGE_SIZE-1) >> PAGE_SHIFT;
+-      if (nr_pages < 0)
++      if (nr_pages <= 0)
+               return -EINVAL;
+       nr_events = (PAGE_SIZE * nr_pages - sizeof(struct aio_ring)) / sizeof(struct io_event);
+@@ -1089,6 +1089,8 @@ static int read_events(struct kioctx *ctx,
+       struct aio_timeout      to;
+       int                     retry = 0;
++      pax_track_stack();
++
+       /* needed to zero any padding within an entry (there shouldn't be 
+        * any, but C is fun!
+        */
+@@ -1382,13 +1384,18 @@ static ssize_t aio_fsync(struct kiocb *iocb)
+ static ssize_t aio_setup_vectored_rw(int type, struct kiocb *kiocb)
+ {
+       ssize_t ret;
++      struct iovec iovstack;
+       ret = rw_copy_check_uvector(type, (struct iovec __user *)kiocb->ki_buf,
+                                   kiocb->ki_nbytes, 1,
+-                                  &kiocb->ki_inline_vec, &kiocb->ki_iovec);
++                                  &iovstack, &kiocb->ki_iovec);
+       if (ret < 0)
+               goto out;
++      if (kiocb->ki_iovec == &iovstack) {
++              kiocb->ki_inline_vec = iovstack;
++              kiocb->ki_iovec = &kiocb->ki_inline_vec;
++      }
+       kiocb->ki_nr_segs = kiocb->ki_nbytes;
+       kiocb->ki_cur_seg = 0;
+       /* ki_nbytes/left now reflect bytes instead of segs */
+diff --git a/fs/attr.c b/fs/attr.c
+index 96d394b..33cf5b4 100644
+--- a/fs/attr.c
++++ b/fs/attr.c
+@@ -83,6 +83,7 @@ int inode_newsize_ok(const struct inode *inode, loff_t offset)
+               unsigned long limit;
+               limit = current->signal->rlim[RLIMIT_FSIZE].rlim_cur;
++              gr_learn_resource(current, RLIMIT_FSIZE, (unsigned long)offset, 1);
+               if (limit != RLIM_INFINITY && offset > limit)
+                       goto out_sig;
+               if (offset > inode->i_sb->s_maxbytes)
+diff --git a/fs/autofs/root.c b/fs/autofs/root.c
+index 4a1401c..05eb5ca 100644
+--- a/fs/autofs/root.c
++++ b/fs/autofs/root.c
+@@ -299,7 +299,8 @@ static int autofs_root_symlink(struct inode *dir, struct dentry *dentry, const c
+       set_bit(n,sbi->symlink_bitmap);
+       sl = &sbi->symlink[n];
+       sl->len = strlen(symname);
+-      sl->data = kmalloc(slsize = sl->len+1, GFP_KERNEL);
++      slsize = sl->len+1;
++      sl->data = kmalloc(slsize, GFP_KERNEL);
+       if (!sl->data) {
+               clear_bit(n,sbi->symlink_bitmap);
+               unlock_kernel();
+diff --git a/fs/autofs4/symlink.c b/fs/autofs4/symlink.c
+index b4ea829..e63ef18 100644
+--- a/fs/autofs4/symlink.c
++++ b/fs/autofs4/symlink.c
+@@ -15,7 +15,7 @@
+ static void *autofs4_follow_link(struct dentry *dentry, struct nameidata *nd)
+ {
+       struct autofs_info *ino = autofs4_dentry_ino(dentry);
+-      nd_set_link(nd, (char *)ino->u.symlink);
++      nd_set_link(nd, ino->u.symlink);
+       return NULL;
+ }
+diff --git a/fs/autofs4/waitq.c b/fs/autofs4/waitq.c
+index 2341375..df9d1c2 100644
+--- a/fs/autofs4/waitq.c
++++ b/fs/autofs4/waitq.c
+@@ -60,7 +60,7 @@ static int autofs4_write(struct file *file, const void *addr, int bytes)
+ {
+       unsigned long sigpipe, flags;
+       mm_segment_t fs;
+-      const char *data = (const char *)addr;
++      const char __user *data = (const char __force_user *)addr;
+       ssize_t wr = 0;
+       /** WARNING: this is not safe for writing more than PIPE_BUF bytes! **/
+diff --git a/fs/befs/linuxvfs.c b/fs/befs/linuxvfs.c
+index 9158c07..3f06659 100644
+--- a/fs/befs/linuxvfs.c
++++ b/fs/befs/linuxvfs.c
+@@ -498,7 +498,7 @@ static void befs_put_link(struct dentry *dentry, struct nameidata *nd, void *p)
+ {
+       befs_inode_info *befs_ino = BEFS_I(dentry->d_inode);
+       if (befs_ino->i_flags & BEFS_LONG_SYMLINK) {
+-              char *link = nd_get_link(nd);
++              const char *link = nd_get_link(nd);
+               if (!IS_ERR(link))
+                       kfree(link);
+       }
+diff --git a/fs/binfmt_aout.c b/fs/binfmt_aout.c
+index 0133b5a..b3baa9f 100644
+--- a/fs/binfmt_aout.c
++++ b/fs/binfmt_aout.c
+@@ -16,6 +16,7 @@
+ #include <linux/string.h>
+ #include <linux/fs.h>
+ #include <linux/file.h>
++#include <linux/security.h>
+ #include <linux/stat.h>
+ #include <linux/fcntl.h>
+ #include <linux/ptrace.h>
+@@ -102,6 +103,8 @@ static int aout_core_dump(long signr, struct pt_regs *regs, struct file *file, u
+ #endif
+ #       define START_STACK(u)   (u.start_stack)
++      memset(&dump, 0, sizeof(dump));
++
+       fs = get_fs();
+       set_fs(KERNEL_DS);
+       has_dumped = 1;
+@@ -113,10 +116,12 @@ static int aout_core_dump(long signr, struct pt_regs *regs, struct file *file, u
+ /* If the size of the dump file exceeds the rlimit, then see what would happen
+    if we wrote the stack, but not the data area.  */
++      gr_learn_resource(current, RLIMIT_CORE, (dump.u_dsize + dump.u_ssize+1) * PAGE_SIZE, 1);
+       if ((dump.u_dsize + dump.u_ssize+1) * PAGE_SIZE > limit)
+               dump.u_dsize = 0;
+ /* Make sure we have enough room to write the stack and data areas. */
++      gr_learn_resource(current, RLIMIT_CORE, (dump.u_ssize + 1) * PAGE_SIZE, 1);
+       if ((dump.u_ssize + 1) * PAGE_SIZE > limit)
+               dump.u_ssize = 0;
+@@ -146,9 +151,7 @@ static int aout_core_dump(long signr, struct pt_regs *regs, struct file *file, u
+               dump_size = dump.u_ssize << PAGE_SHIFT;
+               DUMP_WRITE(dump_start,dump_size);
+       }
+-/* Finally dump the task struct.  Not be used by gdb, but could be useful */
+-      set_fs(KERNEL_DS);
+-      DUMP_WRITE(current,sizeof(*current));
++/* Finally, let's not dump the task struct.  Not be used by gdb, but could be useful to an attacker */
+ end_coredump:
+       set_fs(fs);
+       return has_dumped;
+@@ -249,6 +252,8 @@ static int load_aout_binary(struct linux_binprm * bprm, struct pt_regs * regs)
+       rlim = current->signal->rlim[RLIMIT_DATA].rlim_cur;
+       if (rlim >= RLIM_INFINITY)
+               rlim = ~0;
++
++      gr_learn_resource(current, RLIMIT_DATA, ex.a_data + ex.a_bss, 1);
+       if (ex.a_data + ex.a_bss > rlim)
+               return -ENOMEM;
+@@ -277,6 +282,27 @@ static int load_aout_binary(struct linux_binprm * bprm, struct pt_regs * regs)
+       install_exec_creds(bprm);
+       current->flags &= ~PF_FORKNOEXEC;
++#if defined(CONFIG_PAX_NOEXEC) || defined(CONFIG_PAX_ASLR)
++      current->mm->pax_flags = 0UL;
++#endif
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (!(N_FLAGS(ex) & F_PAX_PAGEEXEC)) {
++              current->mm->pax_flags |= MF_PAX_PAGEEXEC;
++
++#ifdef CONFIG_PAX_EMUTRAMP
++              if (N_FLAGS(ex) & F_PAX_EMUTRAMP)
++                      current->mm->pax_flags |= MF_PAX_EMUTRAMP;
++#endif
++
++#ifdef CONFIG_PAX_MPROTECT
++              if (!(N_FLAGS(ex) & F_PAX_MPROTECT))
++                      current->mm->pax_flags |= MF_PAX_MPROTECT;
++#endif
++
++      }
++#endif
++
+       if (N_MAGIC(ex) == OMAGIC) {
+               unsigned long text_addr, map_size;
+               loff_t pos;
+@@ -349,7 +375,7 @@ static int load_aout_binary(struct linux_binprm * bprm, struct pt_regs * regs)
+               down_write(&current->mm->mmap_sem);
+               error = do_mmap(bprm->file, N_DATADDR(ex), ex.a_data,
+-                              PROT_READ | PROT_WRITE | PROT_EXEC,
++                              PROT_READ | PROT_WRITE,
+                               MAP_FIXED | MAP_PRIVATE | MAP_DENYWRITE | MAP_EXECUTABLE,
+                               fd_offset + ex.a_text);
+               up_write(&current->mm->mmap_sem);
+diff --git a/fs/binfmt_elf.c b/fs/binfmt_elf.c
+index 1ed37ba..b9c035f 100644
+--- a/fs/binfmt_elf.c
++++ b/fs/binfmt_elf.c
+@@ -31,6 +31,7 @@
+ #include <linux/random.h>
+ #include <linux/elf.h>
+ #include <linux/utsname.h>
++#include <linux/xattr.h>
+ #include <asm/uaccess.h>
+ #include <asm/param.h>
+ #include <asm/page.h>
+@@ -50,6 +51,10 @@ static int elf_core_dump(long signr, struct pt_regs *regs, struct file *file, un
+ #define elf_core_dump NULL
+ #endif
++#ifdef CONFIG_PAX_MPROTECT
++static void elf_handle_mprotect(struct vm_area_struct *vma, unsigned long newflags);
++#endif
++
+ #if ELF_EXEC_PAGESIZE > PAGE_SIZE
+ #define ELF_MIN_ALIGN ELF_EXEC_PAGESIZE
+ #else
+@@ -69,6 +74,11 @@ static struct linux_binfmt elf_format = {
+               .load_binary    = load_elf_binary,
+               .load_shlib     = load_elf_library,
+               .core_dump      = elf_core_dump,
++
++#ifdef CONFIG_PAX_MPROTECT
++              .handle_mprotect= elf_handle_mprotect,
++#endif
++
+               .min_coredump   = ELF_EXEC_PAGESIZE,
+               .hasvdso        = 1
+ };
+@@ -77,6 +87,8 @@ static struct linux_binfmt elf_format = {
+ static int set_brk(unsigned long start, unsigned long end)
+ {
++      unsigned long e = end;
++
+       start = ELF_PAGEALIGN(start);
+       end = ELF_PAGEALIGN(end);
+       if (end > start) {
+@@ -87,7 +99,7 @@ static int set_brk(unsigned long start, unsigned long end)
+               if (BAD_ADDR(addr))
+                       return addr;
+       }
+-      current->mm->start_brk = current->mm->brk = end;
++      current->mm->start_brk = current->mm->brk = e;
+       return 0;
+ }
+@@ -148,12 +160,15 @@ create_elf_tables(struct linux_binprm *bprm, struct elfhdr *exec,
+       elf_addr_t __user *u_rand_bytes;
+       const char *k_platform = ELF_PLATFORM;
+       const char *k_base_platform = ELF_BASE_PLATFORM;
+-      unsigned char k_rand_bytes[16];
++      u32 k_rand_bytes[4];
+       int items;
+       elf_addr_t *elf_info;
+       int ei_index = 0;
+       const struct cred *cred = current_cred();
+       struct vm_area_struct *vma;
++      unsigned long saved_auxv[AT_VECTOR_SIZE];
++
++      pax_track_stack();
+       /*
+        * In some cases (e.g. Hyper-Threading), we want to avoid L1
+@@ -195,8 +210,12 @@ create_elf_tables(struct linux_binprm *bprm, struct elfhdr *exec,
+        * Generate 16 random bytes for userspace PRNG seeding.
+        */
+       get_random_bytes(k_rand_bytes, sizeof(k_rand_bytes));
+-      u_rand_bytes = (elf_addr_t __user *)
+-                     STACK_ALLOC(p, sizeof(k_rand_bytes));
++      srandom32(k_rand_bytes[0] ^ random32());
++      srandom32(k_rand_bytes[1] ^ random32());
++      srandom32(k_rand_bytes[2] ^ random32());
++      srandom32(k_rand_bytes[3] ^ random32());
++      p = STACK_ROUND(p, sizeof(k_rand_bytes));
++      u_rand_bytes = (elf_addr_t __user *) p;
+       if (__copy_to_user(u_rand_bytes, k_rand_bytes, sizeof(k_rand_bytes)))
+               return -EFAULT;
+@@ -308,9 +327,11 @@ create_elf_tables(struct linux_binprm *bprm, struct elfhdr *exec,
+               return -EFAULT;
+       current->mm->env_end = p;
++      memcpy(saved_auxv, elf_info, ei_index * sizeof(elf_addr_t));
++
+       /* Put the elf_info on the stack in the right place.  */
+       sp = (elf_addr_t __user *)envp + 1;
+-      if (copy_to_user(sp, elf_info, ei_index * sizeof(elf_addr_t)))
++      if (copy_to_user(sp, saved_auxv, ei_index * sizeof(elf_addr_t)))
+               return -EFAULT;
+       return 0;
+ }
+@@ -385,10 +406,10 @@ static unsigned long load_elf_interp(struct elfhdr *interp_elf_ex,
+ {
+       struct elf_phdr *elf_phdata;
+       struct elf_phdr *eppnt;
+-      unsigned long load_addr = 0;
++      unsigned long load_addr = 0, pax_task_size = TASK_SIZE;
+       int load_addr_set = 0;
+       unsigned long last_bss = 0, elf_bss = 0;
+-      unsigned long error = ~0UL;
++      unsigned long error = -EINVAL;
+       unsigned long total_size;
+       int retval, i, size;
+@@ -434,6 +455,11 @@ static unsigned long load_elf_interp(struct elfhdr *interp_elf_ex,
+               goto out_close;
+       }
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (current->mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
+       eppnt = elf_phdata;
+       for (i = 0; i < interp_elf_ex->e_phnum; i++, eppnt++) {
+               if (eppnt->p_type == PT_LOAD) {
+@@ -477,8 +503,8 @@ static unsigned long load_elf_interp(struct elfhdr *interp_elf_ex,
+                       k = load_addr + eppnt->p_vaddr;
+                       if (BAD_ADDR(k) ||
+                           eppnt->p_filesz > eppnt->p_memsz ||
+-                          eppnt->p_memsz > TASK_SIZE ||
+-                          TASK_SIZE - eppnt->p_memsz < k) {
++                          eppnt->p_memsz > pax_task_size ||
++                          pax_task_size - eppnt->p_memsz < k) {
+                               error = -ENOMEM;
+                               goto out_close;
+                       }
+@@ -532,6 +558,348 @@ out:
+       return error;
+ }
++static unsigned long pax_parse_pt_pax_softmode(const struct elf_phdr * const elf_phdata)
++{
++      unsigned long pax_flags = 0UL;
++
++#ifdef CONFIG_PAX_PT_PAX_FLAGS
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (elf_phdata->p_flags & PF_PAGEEXEC)
++              pax_flags |= MF_PAX_PAGEEXEC;
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (elf_phdata->p_flags & PF_SEGMEXEC)
++              pax_flags |= MF_PAX_SEGMEXEC;
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_PAX_SEGMEXEC)
++      if ((pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) == (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              if (nx_enabled)
++                      pax_flags &= ~MF_PAX_SEGMEXEC;
++              else
++                      pax_flags &= ~MF_PAX_PAGEEXEC;
++      }
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++      if (elf_phdata->p_flags & PF_EMUTRAMP)
++              pax_flags |= MF_PAX_EMUTRAMP;
++#endif
++
++#ifdef CONFIG_PAX_MPROTECT
++      if (elf_phdata->p_flags & PF_MPROTECT)
++              pax_flags |= MF_PAX_MPROTECT;
++#endif
++
++#if defined(CONFIG_PAX_RANDMMAP) || defined(CONFIG_PAX_RANDUSTACK)
++      if (randomize_va_space && (elf_phdata->p_flags & PF_RANDMMAP))
++              pax_flags |= MF_PAX_RANDMMAP;
++#endif
++
++#endif
++
++      return pax_flags;
++}
++
++static unsigned long pax_parse_pt_pax_hardmode(const struct elf_phdr * const elf_phdata)
++{
++      unsigned long pax_flags = 0UL;
++
++#ifdef CONFIG_PAX_PT_PAX_FLAGS
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (!(elf_phdata->p_flags & PF_NOPAGEEXEC))
++              pax_flags |= MF_PAX_PAGEEXEC;
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (!(elf_phdata->p_flags & PF_NOSEGMEXEC))
++              pax_flags |= MF_PAX_SEGMEXEC;
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_PAX_SEGMEXEC)
++      if ((pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) == (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              if (nx_enabled)
++                      pax_flags &= ~MF_PAX_SEGMEXEC;
++              else
++                      pax_flags &= ~MF_PAX_PAGEEXEC;
++      }
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++      if (!(elf_phdata->p_flags & PF_NOEMUTRAMP))
++              pax_flags |= MF_PAX_EMUTRAMP;
++#endif
++
++#ifdef CONFIG_PAX_MPROTECT
++      if (!(elf_phdata->p_flags & PF_NOMPROTECT))
++              pax_flags |= MF_PAX_MPROTECT;
++#endif
++
++#if defined(CONFIG_PAX_RANDMMAP) || defined(CONFIG_PAX_RANDUSTACK)
++      if (randomize_va_space && !(elf_phdata->p_flags & PF_NORANDMMAP))
++              pax_flags |= MF_PAX_RANDMMAP;
++#endif
++
++#endif
++
++      return pax_flags;
++}
++
++static unsigned long pax_parse_ei_pax(const struct elfhdr * const elf_ex)
++{
++      unsigned long pax_flags = 0UL;
++
++#ifdef CONFIG_PAX_EI_PAX
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (!(elf_ex->e_ident[EI_PAX] & EF_PAX_PAGEEXEC))
++              pax_flags |= MF_PAX_PAGEEXEC;
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (!(elf_ex->e_ident[EI_PAX] & EF_PAX_SEGMEXEC))
++              pax_flags |= MF_PAX_SEGMEXEC;
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_PAX_SEGMEXEC)
++      if ((pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) == (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              if (nx_enabled)
++                      pax_flags &= ~MF_PAX_SEGMEXEC;
++              else
++                      pax_flags &= ~MF_PAX_PAGEEXEC;
++      }
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++      if ((pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) && (elf_ex->e_ident[EI_PAX] & EF_PAX_EMUTRAMP))
++              pax_flags |= MF_PAX_EMUTRAMP;
++#endif
++
++#ifdef CONFIG_PAX_MPROTECT
++      if ((pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) && !(elf_ex->e_ident[EI_PAX] & EF_PAX_MPROTECT))
++              pax_flags |= MF_PAX_MPROTECT;
++#endif
++
++#ifdef CONFIG_PAX_ASLR
++      if (randomize_va_space && !(elf_ex->e_ident[EI_PAX] & EF_PAX_RANDMMAP))
++              pax_flags |= MF_PAX_RANDMMAP;
++#endif
++
++#else
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      pax_flags |= MF_PAX_PAGEEXEC;
++#endif
++
++#ifdef CONFIG_PAX_MPROTECT
++      pax_flags |= MF_PAX_MPROTECT;
++#endif
++
++#ifdef CONFIG_PAX_RANDMMAP
++      pax_flags |= MF_PAX_RANDMMAP;
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (!(__supported_pte_mask & _PAGE_NX)) {
++              pax_flags &= ~MF_PAX_PAGEEXEC;
++              pax_flags |= MF_PAX_SEGMEXEC;
++      }
++#endif
++
++#endif
++
++      return pax_flags;
++}
++
++static unsigned long pax_parse_pt_pax(const struct elfhdr * const elf_ex, const struct elf_phdr * const elf_phdata)
++{
++
++#ifdef CONFIG_PAX_PT_PAX_FLAGS
++      unsigned long i;
++
++      for (i = 0UL; i < elf_ex->e_phnum; i++)
++              if (elf_phdata[i].p_type == PT_PAX_FLAGS) {
++                      if (((elf_phdata[i].p_flags & PF_PAGEEXEC) && (elf_phdata[i].p_flags & PF_NOPAGEEXEC)) ||
++                          ((elf_phdata[i].p_flags & PF_SEGMEXEC) && (elf_phdata[i].p_flags & PF_NOSEGMEXEC)) ||
++                          ((elf_phdata[i].p_flags & PF_EMUTRAMP) && (elf_phdata[i].p_flags & PF_NOEMUTRAMP)) ||
++                          ((elf_phdata[i].p_flags & PF_MPROTECT) && (elf_phdata[i].p_flags & PF_NOMPROTECT)) ||
++                          ((elf_phdata[i].p_flags & PF_RANDMMAP) && (elf_phdata[i].p_flags & PF_NORANDMMAP)))
++                              return ~0UL;
++
++#ifdef CONFIG_PAX_SOFTMODE
++                      if (pax_softmode)
++                              return pax_parse_pt_pax_softmode(&elf_phdata[i]);
++                      else
++#endif
++
++                              return pax_parse_pt_pax_hardmode(&elf_phdata[i]);
++                      break;
++              }
++#endif
++
++      return ~0UL;
++}
++
++static unsigned long pax_parse_xattr_pax_softmode(unsigned long pax_flags_softmode)
++{
++      unsigned long pax_flags = 0UL;
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (pax_flags_softmode & MF_PAX_PAGEEXEC)
++              pax_flags |= MF_PAX_PAGEEXEC;
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (pax_flags_softmode & MF_PAX_SEGMEXEC)
++              pax_flags |= MF_PAX_SEGMEXEC;
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_PAX_SEGMEXEC)
++      if ((pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) == (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              if ((__supported_pte_mask & _PAGE_NX))
++                      pax_flags &= ~MF_PAX_SEGMEXEC;
++              else
++                      pax_flags &= ~MF_PAX_PAGEEXEC;
++      }
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++      if (pax_flags_softmode & MF_PAX_EMUTRAMP)
++              pax_flags |= MF_PAX_EMUTRAMP;
++#endif
++
++#ifdef CONFIG_PAX_MPROTECT
++      if (pax_flags_softmode & MF_PAX_MPROTECT)
++              pax_flags |= MF_PAX_MPROTECT;
++#endif
++
++#if defined(CONFIG_PAX_RANDMMAP) || defined(CONFIG_PAX_RANDUSTACK)
++      if (randomize_va_space && (pax_flags_softmode & MF_PAX_RANDMMAP))
++              pax_flags |= MF_PAX_RANDMMAP;
++#endif
++
++      return pax_flags;
++}
++
++static unsigned long pax_parse_xattr_pax_hardmode(unsigned long pax_flags_hardmode)
++{
++      unsigned long pax_flags = 0UL;
++
++#ifdef CONFIG_PAX_PAGEEXEC
++      if (!(pax_flags_hardmode & MF_PAX_PAGEEXEC))
++              pax_flags |= MF_PAX_PAGEEXEC;
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (!(pax_flags_hardmode & MF_PAX_SEGMEXEC))
++              pax_flags |= MF_PAX_SEGMEXEC;
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_PAX_SEGMEXEC)
++      if ((pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) == (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              if ((__supported_pte_mask & _PAGE_NX))
++                      pax_flags &= ~MF_PAX_SEGMEXEC;
++              else
++                      pax_flags &= ~MF_PAX_PAGEEXEC;
++      }
++#endif
++
++#ifdef CONFIG_PAX_EMUTRAMP
++      if (!(pax_flags_hardmode & MF_PAX_EMUTRAMP))
++              pax_flags |= MF_PAX_EMUTRAMP;
++#endif
++
++#ifdef CONFIG_PAX_MPROTECT
++      if (!(pax_flags_hardmode & MF_PAX_MPROTECT))
++              pax_flags |= MF_PAX_MPROTECT;
++#endif
++
++#if defined(CONFIG_PAX_RANDMMAP) || defined(CONFIG_PAX_RANDUSTACK)
++      if (randomize_va_space && !(pax_flags_hardmode & MF_PAX_RANDMMAP))
++              pax_flags |= MF_PAX_RANDMMAP;
++#endif
++
++      return pax_flags;
++}
++
++static unsigned long pax_parse_xattr_pax(struct file * const file)
++{
++
++#ifdef CONFIG_PAX_XATTR_PAX_FLAGS
++      ssize_t xattr_size, i;
++      unsigned char xattr_value[5];
++      unsigned long pax_flags_hardmode = 0UL, pax_flags_softmode = 0UL;
++
++      xattr_size = vfs_getxattr(file->f_path.dentry, XATTR_NAME_PAX_FLAGS, xattr_value, sizeof xattr_value);
++      if (xattr_size <= 0)
++              return ~0UL;
++
++      for (i = 0; i < xattr_size; i++)
++              switch (xattr_value[i]) {
++              default:
++                      return ~0UL;
++
++#define parse_flag(option1, option2, flag)                    \
++              case option1:                                   \
++                      pax_flags_hardmode |= MF_PAX_##flag;    \
++                      break;                                  \
++              case option2:                                   \
++                      pax_flags_softmode |= MF_PAX_##flag;    \
++                      break;
++
++              parse_flag('p', 'P', PAGEEXEC);
++              parse_flag('e', 'E', EMUTRAMP);
++              parse_flag('m', 'M', MPROTECT);
++              parse_flag('r', 'R', RANDMMAP);
++              parse_flag('s', 'S', SEGMEXEC);
++
++#undef parse_flag
++              }
++
++      if (pax_flags_hardmode & pax_flags_softmode)
++              return ~0UL;
++
++#ifdef CONFIG_PAX_SOFTMODE
++      if (pax_softmode)
++              return pax_parse_xattr_pax_softmode(pax_flags_softmode);
++      else
++#endif
++
++              return pax_parse_xattr_pax_hardmode(pax_flags_hardmode);
++#else
++      return ~0UL;
++#endif
++}
++
++#if defined(CONFIG_PAX_EI_PAX) || defined(CONFIG_PAX_PT_PAX_FLAGS) || defined(CONFIG_PAX_XATTR_PAX_FLAGS)
++static long pax_parse_pax_flags(const struct elfhdr * const elf_ex, const struct elf_phdr * const elf_phdata, struct file * const file)
++{
++      unsigned long pax_flags, pt_pax_flags, xattr_pax_flags;
++
++      pax_flags = pax_parse_ei_pax(elf_ex);
++      pt_pax_flags = pax_parse_pt_pax(elf_ex, elf_phdata);
++      xattr_pax_flags = pax_parse_xattr_pax(file);
++
++      if (pt_pax_flags == ~0UL)
++              pt_pax_flags = xattr_pax_flags;
++      else if (xattr_pax_flags == ~0UL)
++              xattr_pax_flags = pt_pax_flags;
++      if (pt_pax_flags != xattr_pax_flags)
++              return -EINVAL;
++      if (pt_pax_flags != ~0UL)
++              pax_flags = pt_pax_flags;
++
++      if (0 > pax_check_flags(&pax_flags))
++              return -EINVAL;
++
++      current->mm->pax_flags = pax_flags;
++      return 0;
++}
++#endif
++
+ /*
+  * These are the functions used to load ELF style executables and shared
+  * libraries.  There is no binary dependent code anywhere else.
+@@ -548,6 +916,11 @@ static unsigned long randomize_stack_top(unsigned long stack_top)
+ {
+       unsigned int random_variable = 0;
++#ifdef CONFIG_PAX_RANDUSTACK
++      if (randomize_va_space)
++              return stack_top - current->mm->delta_stack;
++#endif
++
+       if ((current->flags & PF_RANDOMIZE) &&
+               !(current->personality & ADDR_NO_RANDOMIZE)) {
+               random_variable = get_random_int() & STACK_RND_MASK;
+@@ -566,7 +939,7 @@ static int load_elf_binary(struct linux_binprm *bprm, struct pt_regs *regs)
+       unsigned long load_addr = 0, load_bias = 0;
+       int load_addr_set = 0;
+       char * elf_interpreter = NULL;
+-      unsigned long error;
++      unsigned long error = 0;
+       struct elf_phdr *elf_ppnt, *elf_phdata;
+       unsigned long elf_bss, elf_brk;
+       int retval, i;
+@@ -576,11 +949,11 @@ static int load_elf_binary(struct linux_binprm *bprm, struct pt_regs *regs)
+       unsigned long start_code, end_code, start_data, end_data;
+       unsigned long reloc_func_desc = 0;
+       int executable_stack = EXSTACK_DEFAULT;
+-      unsigned long def_flags = 0;
+       struct {
+               struct elfhdr elf_ex;
+               struct elfhdr interp_elf_ex;
+       } *loc;
++      unsigned long pax_task_size = TASK_SIZE;
+       loc = kmalloc(sizeof(*loc), GFP_KERNEL);
+       if (!loc) {
+@@ -718,11 +1091,80 @@ static int load_elf_binary(struct linux_binprm *bprm, struct pt_regs *regs)
+       /* OK, This is the point of no return */
+       current->flags &= ~PF_FORKNOEXEC;
+-      current->mm->def_flags = def_flags;
++
++#if defined(CONFIG_PAX_NOEXEC) || defined(CONFIG_PAX_ASLR)
++      current->mm->pax_flags = 0UL;
++#endif
++
++#ifdef CONFIG_PAX_DLRESOLVE
++      current->mm->call_dl_resolve = 0UL;
++#endif
++
++#if defined(CONFIG_PPC32) && defined(CONFIG_PAX_EMUSIGRT)
++      current->mm->call_syscall = 0UL;
++#endif
++
++#ifdef CONFIG_PAX_ASLR
++      current->mm->delta_mmap = 0UL;
++      current->mm->delta_stack = 0UL;
++#endif
++
++      current->mm->def_flags = 0;
++
++#if defined(CONFIG_PAX_EI_PAX) || defined(CONFIG_PAX_PT_PAX_FLAGS) || defined(CONFIG_PAX_XATTR_PAX_FLAGS)
++      if (0 > pax_parse_pax_flags(&loc->elf_ex, elf_phdata, bprm->file)) {
++              send_sig(SIGKILL, current, 0);
++              goto out_free_dentry;
++      }
++#endif
++
++#ifdef CONFIG_PAX_HAVE_ACL_FLAGS
++      pax_set_initial_flags(bprm);
++#elif defined(CONFIG_PAX_HOOK_ACL_FLAGS)
++      if (pax_set_initial_flags_func)
++              (pax_set_initial_flags_func)(bprm);
++#endif
++
++#ifdef CONFIG_ARCH_TRACK_EXEC_LIMIT
++      if ((current->mm->pax_flags & MF_PAX_PAGEEXEC) && !nx_enabled) {
++              current->mm->context.user_cs_limit = PAGE_SIZE;
++              current->mm->def_flags |= VM_PAGEEXEC;
++      }
++#endif
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (current->mm->pax_flags & MF_PAX_SEGMEXEC) {
++              current->mm->context.user_cs_base = SEGMEXEC_TASK_SIZE;
++              current->mm->context.user_cs_limit = TASK_SIZE-SEGMEXEC_TASK_SIZE;
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++      }
++#endif
++
++#if defined(CONFIG_ARCH_TRACK_EXEC_LIMIT) || defined(CONFIG_PAX_SEGMEXEC)
++      if (current->mm->pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              set_user_cs(current->mm->context.user_cs_base, current->mm->context.user_cs_limit, get_cpu());
++              put_cpu();
++      }
++#endif
+       /* Do this immediately, since STACK_TOP as used in setup_arg_pages
+          may depend on the personality.  */
+       SET_PERSONALITY(loc->elf_ex);
++
++#ifdef CONFIG_PAX_ASLR
++      if (current->mm->pax_flags & MF_PAX_RANDMMAP) {
++              current->mm->delta_mmap = (pax_get_random_long() & ((1UL << PAX_DELTA_MMAP_LEN)-1)) << PAGE_SHIFT;
++              current->mm->delta_stack = (pax_get_random_long() & ((1UL << PAX_DELTA_STACK_LEN)-1)) << PAGE_SHIFT;
++      }
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++      if (current->mm->pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              executable_stack = EXSTACK_DISABLE_X;
++              current->personality &= ~READ_IMPLIES_EXEC;
++      } else
++#endif
++
+       if (elf_read_implies_exec(loc->elf_ex, executable_stack))
+               current->personality |= READ_IMPLIES_EXEC;
+@@ -800,10 +1242,27 @@ static int load_elf_binary(struct linux_binprm *bprm, struct pt_regs *regs)
+                        * might try to exec.  This is because the brk will
+                        * follow the loader, and is not movable.  */
+ #ifdef CONFIG_X86
+-                      load_bias = 0;
++                      if (current->flags & PF_RANDOMIZE)
++                              load_bias = 0;
++                      else
++                              load_bias = ELF_PAGESTART(ELF_ET_DYN_BASE - vaddr);
+ #else
+                       load_bias = ELF_PAGESTART(ELF_ET_DYN_BASE - vaddr);
+ #endif
++
++#ifdef CONFIG_PAX_RANDMMAP
++                      /* PaX: randomize base address at the default exe base if requested */
++                      if ((current->mm->pax_flags & MF_PAX_RANDMMAP) && elf_interpreter) {
++#ifdef CONFIG_SPARC64
++                              load_bias = (pax_get_random_long() & ((1UL << PAX_DELTA_MMAP_LEN) - 1)) << (PAGE_SHIFT+1);
++#else
++                              load_bias = (pax_get_random_long() & ((1UL << PAX_DELTA_MMAP_LEN) - 1)) << PAGE_SHIFT;
++#endif
++                              load_bias = ELF_PAGESTART(PAX_ELF_ET_DYN_BASE - vaddr + load_bias);
++                              elf_flags |= MAP_FIXED;
++                      }
++#endif
++
+               }
+               error = elf_map(bprm->file, load_bias + vaddr, elf_ppnt,
+@@ -836,9 +1295,9 @@ static int load_elf_binary(struct linux_binprm *bprm, struct pt_regs *regs)
+                * allowed task size. Note that p_filesz must always be
+                * <= p_memsz so it is only necessary to check p_memsz.
+                */
+-              if (BAD_ADDR(k) || elf_ppnt->p_filesz > elf_ppnt->p_memsz ||
+-                  elf_ppnt->p_memsz > TASK_SIZE ||
+-                  TASK_SIZE - elf_ppnt->p_memsz < k) {
++              if (k >= pax_task_size || elf_ppnt->p_filesz > elf_ppnt->p_memsz ||
++                  elf_ppnt->p_memsz > pax_task_size ||
++                  pax_task_size - elf_ppnt->p_memsz < k) {
+                       /* set_brk can never work. Avoid overflows. */
+                       send_sig(SIGKILL, current, 0);
+                       retval = -EINVAL;
+@@ -866,6 +1325,11 @@ static int load_elf_binary(struct linux_binprm *bprm, struct pt_regs *regs)
+       start_data += load_bias;
+       end_data += load_bias;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (current->mm->pax_flags & MF_PAX_RANDMMAP)
++              elf_brk += PAGE_SIZE + ((pax_get_random_long() & ~PAGE_MASK) << 4);
++#endif
++
+       /* Calling set_brk effectively mmaps the pages that we need
+        * for the bss and break sections.  We must do this before
+        * mapping in the interpreter, to make sure it doesn't wind
+@@ -877,9 +1341,11 @@ static int load_elf_binary(struct linux_binprm *bprm, struct pt_regs *regs)
+               goto out_free_dentry;
+       }
+       if (likely(elf_bss != elf_brk) && unlikely(padzero(elf_bss))) {
+-              send_sig(SIGSEGV, current, 0);
+-              retval = -EFAULT; /* Nobody gets to see this, but.. */
+-              goto out_free_dentry;
++              /*
++               * This bss-zeroing can fail if the ELF
++               * file specifies odd protections. So
++               * we don't check the return value
++               */
+       }
+       if (elf_interpreter) {
+@@ -1112,8 +1578,10 @@ static int dump_seek(struct file *file, loff_t off)
+                       unsigned long n = off;
+                       if (n > PAGE_SIZE)
+                               n = PAGE_SIZE;
+-                      if (!dump_write(file, buf, n))
++                      if (!dump_write(file, buf, n)) {
++                              free_page((unsigned long)buf);
+                               return 0;
++                      }
+                       off -= n;
+               }
+               free_page((unsigned long)buf);
+@@ -1125,7 +1593,7 @@ static int dump_seek(struct file *file, loff_t off)
+  * Decide what to dump of a segment, part, all or none.
+  */
+ static unsigned long vma_dump_size(struct vm_area_struct *vma,
+-                                 unsigned long mm_flags)
++                                 unsigned long mm_flags, long signr)
+ {
+ #define FILTER(type)  (mm_flags & (1UL << MMF_DUMP_##type))
+@@ -1159,7 +1627,7 @@ static unsigned long vma_dump_size(struct vm_area_struct *vma,
+       if (vma->vm_file == NULL)
+               return 0;
+-      if (FILTER(MAPPED_PRIVATE))
++      if (signr == SIGKILL || FILTER(MAPPED_PRIVATE))
+               goto whole;
+       /*
+@@ -1255,8 +1723,11 @@ static int writenote(struct memelfnote *men, struct file *file,
+ #undef DUMP_WRITE
+ #define DUMP_WRITE(addr, nr)  \
++      do { \
++      gr_learn_resource(current, RLIMIT_CORE, size + (nr), 1); \
+       if ((size += (nr)) > limit || !dump_write(file, (addr), (nr))) \
+-              goto end_coredump;
++              goto end_coredump; \
++      } while (0);
+ static void fill_elf_header(struct elfhdr *elf, int segs,
+                           u16 machine, u32 flags, u8 osabi)
+@@ -1385,9 +1856,9 @@ static void fill_auxv_note(struct memelfnote *note, struct mm_struct *mm)
+ {
+       elf_addr_t *auxv = (elf_addr_t *) mm->saved_auxv;
+       int i = 0;
+-      do
++      do {
+               i += 2;
+-      while (auxv[i - 2] != AT_NULL);
++      } while (auxv[i - 2] != AT_NULL);
+       fill_note(note, "CORE", NT_AUXV, i * sizeof(elf_addr_t), auxv);
+ }
+@@ -1973,7 +2444,7 @@ static int elf_core_dump(long signr, struct pt_regs *regs, struct file *file, un
+               phdr.p_offset = offset;
+               phdr.p_vaddr = vma->vm_start;
+               phdr.p_paddr = 0;
+-              phdr.p_filesz = vma_dump_size(vma, mm_flags);
++              phdr.p_filesz = vma_dump_size(vma, mm_flags, signr);
+               phdr.p_memsz = vma->vm_end - vma->vm_start;
+               offset += phdr.p_filesz;
+               phdr.p_flags = vma->vm_flags & VM_READ ? PF_R : 0;
+@@ -2006,7 +2477,7 @@ static int elf_core_dump(long signr, struct pt_regs *regs, struct file *file, un
+               unsigned long addr;
+               unsigned long end;
+-              end = vma->vm_start + vma_dump_size(vma, mm_flags);
++              end = vma->vm_start + vma_dump_size(vma, mm_flags, signr);
+               for (addr = vma->vm_start; addr < end; addr += PAGE_SIZE) {
+                       struct page *page;
+@@ -2015,6 +2486,7 @@ static int elf_core_dump(long signr, struct pt_regs *regs, struct file *file, un
+                       page = get_dump_page(addr);
+                       if (page) {
+                               void *kaddr = kmap(page);
++                              gr_learn_resource(current, RLIMIT_CORE, size + PAGE_SIZE, 1);
+                               stop = ((size += PAGE_SIZE) > limit) ||
+                                       !dump_write(file, kaddr, PAGE_SIZE);
+                               kunmap(page);
+@@ -2042,6 +2514,97 @@ out:
+ #endif                /* USE_ELF_CORE_DUMP */
++#ifdef CONFIG_PAX_MPROTECT
++/* PaX: non-PIC ELF libraries need relocations on their executable segments
++ * therefore we'll grant them VM_MAYWRITE once during their life. Similarly
++ * we'll remove VM_MAYWRITE for good on RELRO segments.
++ *
++ * The checks favour ld-linux.so behaviour which operates on a per ELF segment
++ * basis because we want to allow the common case and not the special ones.
++ */
++static void elf_handle_mprotect(struct vm_area_struct *vma, unsigned long newflags)
++{
++      struct elfhdr elf_h;
++      struct elf_phdr elf_p;
++      unsigned long i;
++      unsigned long oldflags;
++      bool is_textrel_rw, is_textrel_rx, is_relro;
++
++      if (!(vma->vm_mm->pax_flags & MF_PAX_MPROTECT))
++              return;
++
++      oldflags = vma->vm_flags & (VM_MAYEXEC | VM_MAYWRITE | VM_MAYREAD | VM_EXEC | VM_WRITE | VM_READ);
++      newflags &= VM_MAYEXEC | VM_MAYWRITE | VM_MAYREAD | VM_EXEC | VM_WRITE | VM_READ;
++
++#ifdef CONFIG_PAX_ELFRELOCS
++      /* possible TEXTREL */
++      is_textrel_rw = vma->vm_file && !vma->anon_vma && oldflags == (VM_MAYEXEC | VM_MAYREAD | VM_EXEC | VM_READ) && newflags == (VM_WRITE | VM_READ);
++      is_textrel_rx = vma->vm_file && vma->anon_vma && oldflags == (VM_MAYEXEC | VM_MAYWRITE | VM_MAYREAD | VM_WRITE | VM_READ) && newflags == (VM_EXEC | VM_READ);
++#else
++      is_textrel_rw = false;
++      is_textrel_rx = false;
++#endif
++
++      /* possible RELRO */
++      is_relro = vma->vm_file && vma->anon_vma && oldflags == (VM_MAYWRITE | VM_MAYREAD | VM_READ) && newflags == (VM_MAYWRITE | VM_MAYREAD | VM_READ);
++
++      if (!is_textrel_rw && !is_textrel_rx && !is_relro)
++              return;
++
++      if (sizeof(elf_h) != kernel_read(vma->vm_file, 0UL, (char *)&elf_h, sizeof(elf_h)) ||
++          memcmp(elf_h.e_ident, ELFMAG, SELFMAG) ||
++
++#ifdef CONFIG_PAX_ETEXECRELOCS
++          ((is_textrel_rw || is_textrel_rx) && (elf_h.e_type != ET_DYN && elf_h.e_type != ET_EXEC)) ||
++#else
++          ((is_textrel_rw || is_textrel_rx) && elf_h.e_type != ET_DYN) ||
++#endif
++
++          (is_relro && (elf_h.e_type != ET_DYN && elf_h.e_type != ET_EXEC)) ||
++          !elf_check_arch(&elf_h) ||
++          elf_h.e_phentsize != sizeof(struct elf_phdr) ||
++          elf_h.e_phnum > 65536UL / sizeof(struct elf_phdr))
++              return;
++
++      for (i = 0UL; i < elf_h.e_phnum; i++) {
++              if (sizeof(elf_p) != kernel_read(vma->vm_file, elf_h.e_phoff + i*sizeof(elf_p), (char *)&elf_p, sizeof(elf_p)))
++                      return;
++              switch (elf_p.p_type) {
++              case PT_DYNAMIC:
++                      if (!is_textrel_rw && !is_textrel_rx)
++                              continue;
++                      i = 0UL;
++                      while ((i+1) * sizeof(elf_dyn) <= elf_p.p_filesz) {
++                              elf_dyn dyn;
++
++                              if (sizeof(dyn) != kernel_read(vma->vm_file, elf_p.p_offset + i*sizeof(dyn), (char *)&dyn, sizeof(dyn)))
++                                      return;
++                              if (dyn.d_tag == DT_NULL)
++                                      return;
++                              if (dyn.d_tag == DT_TEXTREL || (dyn.d_tag == DT_FLAGS && (dyn.d_un.d_val & DF_TEXTREL))) {
++                                      gr_log_textrel(vma);
++                                      if (is_textrel_rw)
++                                              vma->vm_flags |= VM_MAYWRITE;
++                                      else
++                                              /* PaX: disallow write access after relocs are done, hopefully noone else needs it... */
++                                              vma->vm_flags &= ~VM_MAYWRITE;
++                                      return;
++                              }
++                              i++;
++                      }
++                      return;
++
++              case PT_GNU_RELRO:
++                      if (!is_relro)
++                              continue;
++                      if ((elf_p.p_offset >> PAGE_SHIFT) == vma->vm_pgoff && ELF_PAGEALIGN(elf_p.p_memsz) == vma->vm_end - vma->vm_start)
++                              vma->vm_flags &= ~VM_MAYWRITE;
++                      return;
++              }
++      }
++}
++#endif
++
+ static int __init init_elf_binfmt(void)
+ {
+       return register_binfmt(&elf_format);
+diff --git a/fs/binfmt_flat.c b/fs/binfmt_flat.c
+index ca88c46..f155a60 100644
+--- a/fs/binfmt_flat.c
++++ b/fs/binfmt_flat.c
+@@ -564,7 +564,9 @@ static int load_flat_file(struct linux_binprm * bprm,
+                               realdatastart = (unsigned long) -ENOMEM;
+                       printk("Unable to allocate RAM for process data, errno %d\n",
+                                       (int)-realdatastart);
++                      down_write(&current->mm->mmap_sem);
+                       do_munmap(current->mm, textpos, text_len);
++                      up_write(&current->mm->mmap_sem);
+                       ret = realdatastart;
+                       goto err;
+               }
+@@ -588,8 +590,10 @@ static int load_flat_file(struct linux_binprm * bprm,
+               }
+               if (IS_ERR_VALUE(result)) {
+                       printk("Unable to read data+bss, errno %d\n", (int)-result);
++                      down_write(&current->mm->mmap_sem);
+                       do_munmap(current->mm, textpos, text_len);
+                       do_munmap(current->mm, realdatastart, data_len + extra);
++                      up_write(&current->mm->mmap_sem);
+                       ret = result;
+                       goto err;
+               }
+@@ -658,8 +662,10 @@ static int load_flat_file(struct linux_binprm * bprm,
+               }
+               if (IS_ERR_VALUE(result)) {
+                       printk("Unable to read code+data+bss, errno %d\n",(int)-result);
++                      down_write(&current->mm->mmap_sem);
+                       do_munmap(current->mm, textpos, text_len + data_len + extra +
+                               MAX_SHARED_LIBS * sizeof(unsigned long));
++                      up_write(&current->mm->mmap_sem);
+                       ret = result;
+                       goto err;
+               }
+diff --git a/fs/bio.c b/fs/bio.c
+index e696713..83de133 100644
+--- a/fs/bio.c
++++ b/fs/bio.c
+@@ -78,7 +78,7 @@ static struct kmem_cache *bio_find_or_create_slab(unsigned int extra_size)
+       i = 0;
+       while (i < bio_slab_nr) {
+-              struct bio_slab *bslab = &bio_slabs[i];
++              bslab = &bio_slabs[i];
+               if (!bslab->slab && entry == -1)
+                       entry = i;
+@@ -1236,7 +1236,7 @@ static void bio_copy_kern_endio(struct bio *bio, int err)
+       const int read = bio_data_dir(bio) == READ;
+       struct bio_map_data *bmd = bio->bi_private;
+       int i;
+-      char *p = bmd->sgvecs[0].iov_base;
++      char *p = (char __force_kernel *)bmd->sgvecs[0].iov_base;
+       __bio_for_each_segment(bvec, bio, i, 0) {
+               char *addr = page_address(bvec->bv_page);
+diff --git a/fs/block_dev.c b/fs/block_dev.c
+index e65efa2..04fae57 100644
+--- a/fs/block_dev.c
++++ b/fs/block_dev.c
+@@ -664,7 +664,7 @@ int bd_claim(struct block_device *bdev, void *holder)
+       else if (bdev->bd_contains == bdev)
+               res = 0;         /* is a whole device which isn't held */
+-      else if (bdev->bd_contains->bd_holder == bd_claim)
++      else if (bdev->bd_contains->bd_holder == (void *)bd_claim)
+               res = 0;         /* is a partition of a device that is being partitioned */
+       else if (bdev->bd_contains->bd_holder != NULL)
+               res = -EBUSY;    /* is a partition of a held device */
+diff --git a/fs/btrfs/ctree.c b/fs/btrfs/ctree.c
+index c4bc570..42acd8d 100644
+--- a/fs/btrfs/ctree.c
++++ b/fs/btrfs/ctree.c
+@@ -461,9 +461,12 @@ static noinline int __btrfs_cow_block(struct btrfs_trans_handle *trans,
+               free_extent_buffer(buf);
+               add_root_to_dirty_list(root);
+       } else {
+-              if (root->root_key.objectid == BTRFS_TREE_RELOC_OBJECTID)
+-                      parent_start = parent->start;
+-              else
++              if (root->root_key.objectid == BTRFS_TREE_RELOC_OBJECTID) {
++                      if (parent)
++                              parent_start = parent->start;
++                      else
++                              parent_start = 0;
++              } else
+                       parent_start = 0;
+               WARN_ON(trans->transid != btrfs_header_generation(parent));
+@@ -3645,7 +3648,6 @@ setup_items_for_insert(struct btrfs_trans_handle *trans,
+       ret = 0;
+       if (slot == 0) {
+-              struct btrfs_disk_key disk_key;
+               btrfs_cpu_key_to_disk(&disk_key, cpu_key);
+               ret = fixup_low_keys(trans, root, path, &disk_key, 1);
+       }
+diff --git a/fs/btrfs/disk-io.c b/fs/btrfs/disk-io.c
+index f447188..59c17c5 100644
+--- a/fs/btrfs/disk-io.c
++++ b/fs/btrfs/disk-io.c
+@@ -39,7 +39,7 @@
+ #include "tree-log.h"
+ #include "free-space-cache.h"
+-static struct extent_io_ops btree_extent_io_ops;
++static const struct extent_io_ops btree_extent_io_ops;
+ static void end_workqueue_fn(struct btrfs_work *work);
+ static void free_fs_root(struct btrfs_root *root);
+@@ -2607,7 +2607,7 @@ out:
+       return 0;
+ }
+-static struct extent_io_ops btree_extent_io_ops = {
++static const struct extent_io_ops btree_extent_io_ops = {
+       .write_cache_pages_lock_hook = btree_lock_page_hook,
+       .readpage_end_io_hook = btree_readpage_end_io_hook,
+       .submit_bio_hook = btree_submit_bio_hook,
+diff --git a/fs/btrfs/extent-tree.c b/fs/btrfs/extent-tree.c
+index 559f724..a026171 100644
+--- a/fs/btrfs/extent-tree.c
++++ b/fs/btrfs/extent-tree.c
+@@ -7141,6 +7141,10 @@ static noinline int relocate_one_extent(struct btrfs_root *extent_root,
+                               u64 group_start = group->key.objectid;
+                               new_extents = kmalloc(sizeof(*new_extents),
+                                                     GFP_NOFS);
++                              if (!new_extents) {
++                                      ret = -ENOMEM;
++                                      goto out;
++                              }
+                               nr_extents = 1;
+                               ret = get_new_locations(reloc_inode,
+                                                       extent_key,
+diff --git a/fs/btrfs/extent_io.h b/fs/btrfs/extent_io.h
+index 36de250..7ec75c7 100644
+--- a/fs/btrfs/extent_io.h
++++ b/fs/btrfs/extent_io.h
+@@ -49,36 +49,36 @@ typedef    int (extent_submit_bio_hook_t)(struct inode *inode, int rw,
+                                      struct bio *bio, int mirror_num,
+                                      unsigned long bio_flags);
+ struct extent_io_ops {
+-      int (*fill_delalloc)(struct inode *inode, struct page *locked_page,
++      int (* const fill_delalloc)(struct inode *inode, struct page *locked_page,
+                            u64 start, u64 end, int *page_started,
+                            unsigned long *nr_written);
+-      int (*writepage_start_hook)(struct page *page, u64 start, u64 end);
+-      int (*writepage_io_hook)(struct page *page, u64 start, u64 end);
++      int (* const writepage_start_hook)(struct page *page, u64 start, u64 end);
++      int (* const writepage_io_hook)(struct page *page, u64 start, u64 end);
+       extent_submit_bio_hook_t *submit_bio_hook;
+-      int (*merge_bio_hook)(struct page *page, unsigned long offset,
++      int (* const merge_bio_hook)(struct page *page, unsigned long offset,
+                             size_t size, struct bio *bio,
+                             unsigned long bio_flags);
+-      int (*readpage_io_hook)(struct page *page, u64 start, u64 end);
+-      int (*readpage_io_failed_hook)(struct bio *bio, struct page *page,
++      int (* const readpage_io_hook)(struct page *page, u64 start, u64 end);
++      int (* const readpage_io_failed_hook)(struct bio *bio, struct page *page,
+                                      u64 start, u64 end,
+                                      struct extent_state *state);
+-      int (*writepage_io_failed_hook)(struct bio *bio, struct page *page,
++      int (* const writepage_io_failed_hook)(struct bio *bio, struct page *page,
+                                       u64 start, u64 end,
+                                      struct extent_state *state);
+-      int (*readpage_end_io_hook)(struct page *page, u64 start, u64 end,
++      int (* const readpage_end_io_hook)(struct page *page, u64 start, u64 end,
+                                   struct extent_state *state);
+-      int (*writepage_end_io_hook)(struct page *page, u64 start, u64 end,
++      int (* const writepage_end_io_hook)(struct page *page, u64 start, u64 end,
+                                     struct extent_state *state, int uptodate);
+-      int (*set_bit_hook)(struct inode *inode, u64 start, u64 end,
++      int (* const set_bit_hook)(struct inode *inode, u64 start, u64 end,
+                           unsigned long old, unsigned long bits);
+-      int (*clear_bit_hook)(struct inode *inode, struct extent_state *state,
++      int (* const clear_bit_hook)(struct inode *inode, struct extent_state *state,
+                             unsigned long bits);
+-      int (*merge_extent_hook)(struct inode *inode,
++      int (* const merge_extent_hook)(struct inode *inode,
+                                struct extent_state *new,
+                                struct extent_state *other);
+-      int (*split_extent_hook)(struct inode *inode,
++      int (* const split_extent_hook)(struct inode *inode,
+                                struct extent_state *orig, u64 split);
+-      int (*write_cache_pages_lock_hook)(struct page *page);
++      int (* const write_cache_pages_lock_hook)(struct page *page);
+ };
+ struct extent_io_tree {
+@@ -88,7 +88,7 @@ struct extent_io_tree {
+       u64 dirty_bytes;
+       spinlock_t lock;
+       spinlock_t buffer_lock;
+-      struct extent_io_ops *ops;
++      const struct extent_io_ops *ops;
+ };
+ struct extent_state {
+diff --git a/fs/btrfs/free-space-cache.c b/fs/btrfs/free-space-cache.c
+index cb2849f..3718fb4 100644
+--- a/fs/btrfs/free-space-cache.c
++++ b/fs/btrfs/free-space-cache.c
+@@ -1074,8 +1074,6 @@ u64 btrfs_alloc_from_cluster(struct btrfs_block_group_cache *block_group,
+       while(1) {
+               if (entry->bytes < bytes || entry->offset < min_start) {
+-                      struct rb_node *node;
+-
+                       node = rb_next(&entry->offset_index);
+                       if (!node)
+                               break;
+@@ -1226,7 +1224,7 @@ again:
+        */
+       while (entry->bitmap || found_bitmap ||
+              (!entry->bitmap && entry->bytes < min_bytes)) {
+-              struct rb_node *node = rb_next(&entry->offset_index);
++              node = rb_next(&entry->offset_index);
+               if (entry->bitmap && entry->bytes > bytes + empty_size) {
+                       ret = btrfs_bitmap_cluster(block_group, entry, cluster,
+diff --git a/fs/btrfs/inode.c b/fs/btrfs/inode.c
+index e03a836..323837e 100644
+--- a/fs/btrfs/inode.c
++++ b/fs/btrfs/inode.c
+@@ -63,7 +63,7 @@ static const struct inode_operations btrfs_file_inode_operations;
+ static const struct address_space_operations btrfs_aops;
+ static const struct address_space_operations btrfs_symlink_aops;
+ static const struct file_operations btrfs_dir_file_operations;
+-static struct extent_io_ops btrfs_extent_io_ops;
++static const struct extent_io_ops btrfs_extent_io_ops;
+ static struct kmem_cache *btrfs_inode_cachep;
+ struct kmem_cache *btrfs_trans_handle_cachep;
+@@ -925,6 +925,7 @@ static int cow_file_range_async(struct inode *inode, struct page *locked_page,
+                        1, 0, NULL, GFP_NOFS);
+       while (start < end) {
+               async_cow = kmalloc(sizeof(*async_cow), GFP_NOFS);
++              BUG_ON(!async_cow);
+               async_cow->inode = inode;
+               async_cow->root = root;
+               async_cow->locked_page = locked_page;
+@@ -4591,6 +4592,8 @@ static noinline int uncompress_inline(struct btrfs_path *path,
+       inline_size = btrfs_file_extent_inline_item_len(leaf,
+                                       btrfs_item_nr(leaf, path->slots[0]));
+       tmp = kmalloc(inline_size, GFP_NOFS);
++      if (!tmp)
++              return -ENOMEM;
+       ptr = btrfs_file_extent_inline_start(item);
+       read_extent_buffer(leaf, tmp, ptr, inline_size);
+@@ -5410,7 +5413,7 @@ fail:
+       return -ENOMEM;
+ }
+-static int btrfs_getattr(struct vfsmount *mnt,
++int btrfs_getattr(struct vfsmount *mnt,
+                        struct dentry *dentry, struct kstat *stat)
+ {
+       struct inode *inode = dentry->d_inode;
+@@ -5422,6 +5425,14 @@ static int btrfs_getattr(struct vfsmount *mnt,
+       return 0;
+ }
++EXPORT_SYMBOL(btrfs_getattr);
++
++dev_t get_btrfs_dev_from_inode(struct inode *inode)
++{
++      return BTRFS_I(inode)->root->anon_super.s_dev;
++}
++EXPORT_SYMBOL(get_btrfs_dev_from_inode);
++
+ static int btrfs_rename(struct inode *old_dir, struct dentry *old_dentry,
+                          struct inode *new_dir, struct dentry *new_dentry)
+ {
+@@ -5972,7 +5983,7 @@ static const struct file_operations btrfs_dir_file_operations = {
+       .fsync          = btrfs_sync_file,
+ };
+-static struct extent_io_ops btrfs_extent_io_ops = {
++static const struct extent_io_ops btrfs_extent_io_ops = {
+       .fill_delalloc = run_delalloc_range,
+       .submit_bio_hook = btrfs_submit_bio_hook,
+       .merge_bio_hook = btrfs_merge_bio_hook,
+diff --git a/fs/btrfs/relocation.c b/fs/btrfs/relocation.c
+index ab7ab53..94e0781 100644
+--- a/fs/btrfs/relocation.c
++++ b/fs/btrfs/relocation.c
+@@ -884,7 +884,7 @@ static int __update_reloc_root(struct btrfs_root *root, int del)
+       }
+       spin_unlock(&rc->reloc_root_tree.lock);
+-      BUG_ON((struct btrfs_root *)node->data != root);
++      BUG_ON(!node || (struct btrfs_root *)node->data != root);
+       if (!del) {
+               spin_lock(&rc->reloc_root_tree.lock);
+diff --git a/fs/btrfs/sysfs.c b/fs/btrfs/sysfs.c
+index a240b6f..4ce16ef 100644
+--- a/fs/btrfs/sysfs.c
++++ b/fs/btrfs/sysfs.c
+@@ -164,12 +164,12 @@ static void btrfs_root_release(struct kobject *kobj)
+       complete(&root->kobj_unregister);
+ }
+-static struct sysfs_ops btrfs_super_attr_ops = {
++static const struct sysfs_ops btrfs_super_attr_ops = {
+       .show   = btrfs_super_attr_show,
+       .store  = btrfs_super_attr_store,
+ };
+-static struct sysfs_ops btrfs_root_attr_ops = {
++static const struct sysfs_ops btrfs_root_attr_ops = {
+       .show   = btrfs_root_attr_show,
+       .store  = btrfs_root_attr_store,
+ };
+diff --git a/fs/buffer.c b/fs/buffer.c
+index 6fa5302..395d9f6 100644
+--- a/fs/buffer.c
++++ b/fs/buffer.c
+@@ -25,6 +25,7 @@
+ #include <linux/percpu.h>
+ #include <linux/slab.h>
+ #include <linux/capability.h>
++#include <linux/security.h>
+ #include <linux/blkdev.h>
+ #include <linux/file.h>
+ #include <linux/quotaops.h>
+diff --git a/fs/cachefiles/bind.c b/fs/cachefiles/bind.c
+index 3797e00..ce776f6 100644
+--- a/fs/cachefiles/bind.c
++++ b/fs/cachefiles/bind.c
+@@ -39,13 +39,11 @@ int cachefiles_daemon_bind(struct cachefiles_cache *cache, char *args)
+              args);
+       /* start by checking things over */
+-      ASSERT(cache->fstop_percent >= 0 &&
+-             cache->fstop_percent < cache->fcull_percent &&
++      ASSERT(cache->fstop_percent < cache->fcull_percent &&
+              cache->fcull_percent < cache->frun_percent &&
+              cache->frun_percent  < 100);
+-      ASSERT(cache->bstop_percent >= 0 &&
+-             cache->bstop_percent < cache->bcull_percent &&
++      ASSERT(cache->bstop_percent < cache->bcull_percent &&
+              cache->bcull_percent < cache->brun_percent &&
+              cache->brun_percent  < 100);
+diff --git a/fs/cachefiles/daemon.c b/fs/cachefiles/daemon.c
+index 4618516..bb30d01 100644
+--- a/fs/cachefiles/daemon.c
++++ b/fs/cachefiles/daemon.c
+@@ -220,7 +220,7 @@ static ssize_t cachefiles_daemon_write(struct file *file,
+       if (test_bit(CACHEFILES_DEAD, &cache->flags))
+               return -EIO;
+-      if (datalen < 0 || datalen > PAGE_SIZE - 1)
++      if (datalen > PAGE_SIZE - 1)
+               return -EOPNOTSUPP;
+       /* drag the command string into the kernel so we can parse it */
+@@ -385,7 +385,7 @@ static int cachefiles_daemon_fstop(struct cachefiles_cache *cache, char *args)
+       if (args[0] != '%' || args[1] != '\0')
+               return -EINVAL;
+-      if (fstop < 0 || fstop >= cache->fcull_percent)
++      if (fstop >= cache->fcull_percent)
+               return cachefiles_daemon_range_error(cache, args);
+       cache->fstop_percent = fstop;
+@@ -457,7 +457,7 @@ static int cachefiles_daemon_bstop(struct cachefiles_cache *cache, char *args)
+       if (args[0] != '%' || args[1] != '\0')
+               return -EINVAL;
+-      if (bstop < 0 || bstop >= cache->bcull_percent)
++      if (bstop >= cache->bcull_percent)
+               return cachefiles_daemon_range_error(cache, args);
+       cache->bstop_percent = bstop;
+diff --git a/fs/cachefiles/internal.h b/fs/cachefiles/internal.h
+index f7c255f..fcd61de 100644
+--- a/fs/cachefiles/internal.h
++++ b/fs/cachefiles/internal.h
+@@ -56,7 +56,7 @@ struct cachefiles_cache {
+       wait_queue_head_t               daemon_pollwq;  /* poll waitqueue for daemon */
+       struct rb_root                  active_nodes;   /* active nodes (can't be culled) */
+       rwlock_t                        active_lock;    /* lock for active_nodes */
+-      atomic_t                        gravecounter;   /* graveyard uniquifier */
++      atomic_unchecked_t              gravecounter;   /* graveyard uniquifier */
+       unsigned                        frun_percent;   /* when to stop culling (% files) */
+       unsigned                        fcull_percent;  /* when to start culling (% files) */
+       unsigned                        fstop_percent;  /* when to stop allocating (% files) */
+@@ -168,19 +168,19 @@ extern int cachefiles_check_in_use(struct cachefiles_cache *cache,
+  * proc.c
+  */
+ #ifdef CONFIG_CACHEFILES_HISTOGRAM
+-extern atomic_t cachefiles_lookup_histogram[HZ];
+-extern atomic_t cachefiles_mkdir_histogram[HZ];
+-extern atomic_t cachefiles_create_histogram[HZ];
++extern atomic_unchecked_t cachefiles_lookup_histogram[HZ];
++extern atomic_unchecked_t cachefiles_mkdir_histogram[HZ];
++extern atomic_unchecked_t cachefiles_create_histogram[HZ];
+ extern int __init cachefiles_proc_init(void);
+ extern void cachefiles_proc_cleanup(void);
+ static inline
+-void cachefiles_hist(atomic_t histogram[], unsigned long start_jif)
++void cachefiles_hist(atomic_unchecked_t histogram[], unsigned long start_jif)
+ {
+       unsigned long jif = jiffies - start_jif;
+       if (jif >= HZ)
+               jif = HZ - 1;
+-      atomic_inc(&histogram[jif]);
++      atomic_inc_unchecked(&histogram[jif]);
+ }
+ #else
+diff --git a/fs/cachefiles/namei.c b/fs/cachefiles/namei.c
+index 14ac480..a62766c 100644
+--- a/fs/cachefiles/namei.c
++++ b/fs/cachefiles/namei.c
+@@ -250,7 +250,7 @@ try_again:
+       /* first step is to make up a grave dentry in the graveyard */
+       sprintf(nbuffer, "%08x%08x",
+               (uint32_t) get_seconds(),
+-              (uint32_t) atomic_inc_return(&cache->gravecounter));
++              (uint32_t) atomic_inc_return_unchecked(&cache->gravecounter));
+       /* do the multiway lock magic */
+       trap = lock_rename(cache->graveyard, dir);
+diff --git a/fs/cachefiles/proc.c b/fs/cachefiles/proc.c
+index eccd339..4c1d995 100644
+--- a/fs/cachefiles/proc.c
++++ b/fs/cachefiles/proc.c
+@@ -14,9 +14,9 @@
+ #include <linux/seq_file.h>
+ #include "internal.h"
+-atomic_t cachefiles_lookup_histogram[HZ];
+-atomic_t cachefiles_mkdir_histogram[HZ];
+-atomic_t cachefiles_create_histogram[HZ];
++atomic_unchecked_t cachefiles_lookup_histogram[HZ];
++atomic_unchecked_t cachefiles_mkdir_histogram[HZ];
++atomic_unchecked_t cachefiles_create_histogram[HZ];
+ /*
+  * display the latency histogram
+@@ -35,9 +35,9 @@ static int cachefiles_histogram_show(struct seq_file *m, void *v)
+               return 0;
+       default:
+               index = (unsigned long) v - 3;
+-              x = atomic_read(&cachefiles_lookup_histogram[index]);
+-              y = atomic_read(&cachefiles_mkdir_histogram[index]);
+-              z = atomic_read(&cachefiles_create_histogram[index]);
++              x = atomic_read_unchecked(&cachefiles_lookup_histogram[index]);
++              y = atomic_read_unchecked(&cachefiles_mkdir_histogram[index]);
++              z = atomic_read_unchecked(&cachefiles_create_histogram[index]);
+               if (x == 0 && y == 0 && z == 0)
+                       return 0;
+diff --git a/fs/cachefiles/rdwr.c b/fs/cachefiles/rdwr.c
+index a6c8c6f..5cf8517 100644
+--- a/fs/cachefiles/rdwr.c
++++ b/fs/cachefiles/rdwr.c
+@@ -946,7 +946,7 @@ int cachefiles_write_page(struct fscache_storage *op, struct page *page)
+                       old_fs = get_fs();
+                       set_fs(KERNEL_DS);
+                       ret = file->f_op->write(
+-                              file, (const void __user *) data, len, &pos);
++                              file, (const void __force_user *) data, len, &pos);
+                       set_fs(old_fs);
+                       kunmap(page);
+                       if (ret != len)
+diff --git a/fs/cifs/cifs_debug.c b/fs/cifs/cifs_debug.c
+index 42cec2a..2aba466 100644
+--- a/fs/cifs/cifs_debug.c
++++ b/fs/cifs/cifs_debug.c
+@@ -256,25 +256,25 @@ static ssize_t cifs_stats_proc_write(struct file *file,
+                                       tcon = list_entry(tmp3,
+                                                         struct cifsTconInfo,
+                                                         tcon_list);
+-                                      atomic_set(&tcon->num_smbs_sent, 0);
+-                                      atomic_set(&tcon->num_writes, 0);
+-                                      atomic_set(&tcon->num_reads, 0);
+-                                      atomic_set(&tcon->num_oplock_brks, 0);
+-                                      atomic_set(&tcon->num_opens, 0);
+-                                      atomic_set(&tcon->num_posixopens, 0);
+-                                      atomic_set(&tcon->num_posixmkdirs, 0);
+-                                      atomic_set(&tcon->num_closes, 0);
+-                                      atomic_set(&tcon->num_deletes, 0);
+-                                      atomic_set(&tcon->num_mkdirs, 0);
+-                                      atomic_set(&tcon->num_rmdirs, 0);
+-                                      atomic_set(&tcon->num_renames, 0);
+-                                      atomic_set(&tcon->num_t2renames, 0);
+-                                      atomic_set(&tcon->num_ffirst, 0);
+-                                      atomic_set(&tcon->num_fnext, 0);
+-                                      atomic_set(&tcon->num_fclose, 0);
+-                                      atomic_set(&tcon->num_hardlinks, 0);
+-                                      atomic_set(&tcon->num_symlinks, 0);
+-                                      atomic_set(&tcon->num_locks, 0);
++                                      atomic_set_unchecked(&tcon->num_smbs_sent, 0);
++                                      atomic_set_unchecked(&tcon->num_writes, 0);
++                                      atomic_set_unchecked(&tcon->num_reads, 0);
++                                      atomic_set_unchecked(&tcon->num_oplock_brks, 0);
++                                      atomic_set_unchecked(&tcon->num_opens, 0);
++                                      atomic_set_unchecked(&tcon->num_posixopens, 0);
++                                      atomic_set_unchecked(&tcon->num_posixmkdirs, 0);
++                                      atomic_set_unchecked(&tcon->num_closes, 0);
++                                      atomic_set_unchecked(&tcon->num_deletes, 0);
++                                      atomic_set_unchecked(&tcon->num_mkdirs, 0);
++                                      atomic_set_unchecked(&tcon->num_rmdirs, 0);
++                                      atomic_set_unchecked(&tcon->num_renames, 0);
++                                      atomic_set_unchecked(&tcon->num_t2renames, 0);
++                                      atomic_set_unchecked(&tcon->num_ffirst, 0);
++                                      atomic_set_unchecked(&tcon->num_fnext, 0);
++                                      atomic_set_unchecked(&tcon->num_fclose, 0);
++                                      atomic_set_unchecked(&tcon->num_hardlinks, 0);
++                                      atomic_set_unchecked(&tcon->num_symlinks, 0);
++                                      atomic_set_unchecked(&tcon->num_locks, 0);
+                               }
+                       }
+               }
+@@ -334,41 +334,41 @@ static int cifs_stats_proc_show(struct seq_file *m, void *v)
+                               if (tcon->need_reconnect)
+                                       seq_puts(m, "\tDISCONNECTED ");
+                               seq_printf(m, "\nSMBs: %d Oplock Breaks: %d",
+-                                      atomic_read(&tcon->num_smbs_sent),
+-                                      atomic_read(&tcon->num_oplock_brks));
++                                      atomic_read_unchecked(&tcon->num_smbs_sent),
++                                      atomic_read_unchecked(&tcon->num_oplock_brks));
+                               seq_printf(m, "\nReads:  %d Bytes: %lld",
+-                                      atomic_read(&tcon->num_reads),
++                                      atomic_read_unchecked(&tcon->num_reads),
+                                       (long long)(tcon->bytes_read));
+                               seq_printf(m, "\nWrites: %d Bytes: %lld",
+-                                      atomic_read(&tcon->num_writes),
++                                      atomic_read_unchecked(&tcon->num_writes),
+                                       (long long)(tcon->bytes_written));
+                               seq_printf(m, "\nFlushes: %d",
+-                                      atomic_read(&tcon->num_flushes));
++                                      atomic_read_unchecked(&tcon->num_flushes));
+                               seq_printf(m, "\nLocks: %d HardLinks: %d "
+                                             "Symlinks: %d",
+-                                      atomic_read(&tcon->num_locks),
+-                                      atomic_read(&tcon->num_hardlinks),
+-                                      atomic_read(&tcon->num_symlinks));
++                                      atomic_read_unchecked(&tcon->num_locks),
++                                      atomic_read_unchecked(&tcon->num_hardlinks),
++                                      atomic_read_unchecked(&tcon->num_symlinks));
+                               seq_printf(m, "\nOpens: %d Closes: %d "
+                                             "Deletes: %d",
+-                                      atomic_read(&tcon->num_opens),
+-                                      atomic_read(&tcon->num_closes),
+-                                      atomic_read(&tcon->num_deletes));
++                                      atomic_read_unchecked(&tcon->num_opens),
++                                      atomic_read_unchecked(&tcon->num_closes),
++                                      atomic_read_unchecked(&tcon->num_deletes));
+                               seq_printf(m, "\nPosix Opens: %d "
+                                             "Posix Mkdirs: %d",
+-                                      atomic_read(&tcon->num_posixopens),
+-                                      atomic_read(&tcon->num_posixmkdirs));
++                                      atomic_read_unchecked(&tcon->num_posixopens),
++                                      atomic_read_unchecked(&tcon->num_posixmkdirs));
+                               seq_printf(m, "\nMkdirs: %d Rmdirs: %d",
+-                                      atomic_read(&tcon->num_mkdirs),
+-                                      atomic_read(&tcon->num_rmdirs));
++                                      atomic_read_unchecked(&tcon->num_mkdirs),
++                                      atomic_read_unchecked(&tcon->num_rmdirs));
+                               seq_printf(m, "\nRenames: %d T2 Renames %d",
+-                                      atomic_read(&tcon->num_renames),
+-                                      atomic_read(&tcon->num_t2renames));
++                                      atomic_read_unchecked(&tcon->num_renames),
++                                      atomic_read_unchecked(&tcon->num_t2renames));
+                               seq_printf(m, "\nFindFirst: %d FNext %d "
+                                             "FClose %d",
+-                                      atomic_read(&tcon->num_ffirst),
+-                                      atomic_read(&tcon->num_fnext),
+-                                      atomic_read(&tcon->num_fclose));
++                                      atomic_read_unchecked(&tcon->num_ffirst),
++                                      atomic_read_unchecked(&tcon->num_fnext),
++                                      atomic_read_unchecked(&tcon->num_fclose));
+                       }
+               }
+       }
+diff --git a/fs/cifs/cifsfs.c b/fs/cifs/cifsfs.c
+index 1445407..68cb0dc 100644
+--- a/fs/cifs/cifsfs.c
++++ b/fs/cifs/cifsfs.c
+@@ -869,7 +869,7 @@ cifs_init_request_bufs(void)
+       cifs_req_cachep = kmem_cache_create("cifs_request",
+                                           CIFSMaxBufSize +
+                                           MAX_CIFS_HDR_SIZE, 0,
+-                                          SLAB_HWCACHE_ALIGN, NULL);
++                                          SLAB_HWCACHE_ALIGN | SLAB_USERCOPY, NULL);
+       if (cifs_req_cachep == NULL)
+               return -ENOMEM;
+@@ -896,7 +896,7 @@ cifs_init_request_bufs(void)
+       efficient to alloc 1 per page off the slab compared to 17K (5page)
+       alloc of large cifs buffers even when page debugging is on */
+       cifs_sm_req_cachep = kmem_cache_create("cifs_small_rq",
+-                      MAX_CIFS_SMALL_BUFFER_SIZE, 0, SLAB_HWCACHE_ALIGN,
++                      MAX_CIFS_SMALL_BUFFER_SIZE, 0, SLAB_HWCACHE_ALIGN | SLAB_USERCOPY,
+                       NULL);
+       if (cifs_sm_req_cachep == NULL) {
+               mempool_destroy(cifs_req_poolp);
+@@ -991,8 +991,8 @@ init_cifs(void)
+       atomic_set(&bufAllocCount, 0);
+       atomic_set(&smBufAllocCount, 0);
+ #ifdef CONFIG_CIFS_STATS2
+-      atomic_set(&totBufAllocCount, 0);
+-      atomic_set(&totSmBufAllocCount, 0);
++      atomic_set_unchecked(&totBufAllocCount, 0);
++      atomic_set_unchecked(&totSmBufAllocCount, 0);
+ #endif /* CONFIG_CIFS_STATS2 */
+       atomic_set(&midCount, 0);
+diff --git a/fs/cifs/cifsglob.h b/fs/cifs/cifsglob.h
+index e29581e..1c22bab 100644
+--- a/fs/cifs/cifsglob.h
++++ b/fs/cifs/cifsglob.h
+@@ -252,28 +252,28 @@ struct cifsTconInfo {
+       __u16 Flags;            /* optional support bits */
+       enum statusEnum tidStatus;
+ #ifdef CONFIG_CIFS_STATS
+-      atomic_t num_smbs_sent;
+-      atomic_t num_writes;
+-      atomic_t num_reads;
+-      atomic_t num_flushes;
+-      atomic_t num_oplock_brks;
+-      atomic_t num_opens;
+-      atomic_t num_closes;
+-      atomic_t num_deletes;
+-      atomic_t num_mkdirs;
+-      atomic_t num_posixopens;
+-      atomic_t num_posixmkdirs;
+-      atomic_t num_rmdirs;
+-      atomic_t num_renames;
+-      atomic_t num_t2renames;
+-      atomic_t num_ffirst;
+-      atomic_t num_fnext;
+-      atomic_t num_fclose;
+-      atomic_t num_hardlinks;
+-      atomic_t num_symlinks;
+-      atomic_t num_locks;
+-      atomic_t num_acl_get;
+-      atomic_t num_acl_set;
++      atomic_unchecked_t num_smbs_sent;
++      atomic_unchecked_t num_writes;
++      atomic_unchecked_t num_reads;
++      atomic_unchecked_t num_flushes;
++      atomic_unchecked_t num_oplock_brks;
++      atomic_unchecked_t num_opens;
++      atomic_unchecked_t num_closes;
++      atomic_unchecked_t num_deletes;
++      atomic_unchecked_t num_mkdirs;
++      atomic_unchecked_t num_posixopens;
++      atomic_unchecked_t num_posixmkdirs;
++      atomic_unchecked_t num_rmdirs;
++      atomic_unchecked_t num_renames;
++      atomic_unchecked_t num_t2renames;
++      atomic_unchecked_t num_ffirst;
++      atomic_unchecked_t num_fnext;
++      atomic_unchecked_t num_fclose;
++      atomic_unchecked_t num_hardlinks;
++      atomic_unchecked_t num_symlinks;
++      atomic_unchecked_t num_locks;
++      atomic_unchecked_t num_acl_get;
++      atomic_unchecked_t num_acl_set;
+ #ifdef CONFIG_CIFS_STATS2
+       unsigned long long time_writes;
+       unsigned long long time_reads;
+@@ -414,7 +414,7 @@ static inline char CIFS_DIR_SEP(const struct cifs_sb_info *cifs_sb)
+ }
+ #ifdef CONFIG_CIFS_STATS
+-#define cifs_stats_inc atomic_inc
++#define cifs_stats_inc atomic_inc_unchecked
+ static inline void cifs_stats_bytes_written(struct cifsTconInfo *tcon,
+                                           unsigned int bytes)
+@@ -701,8 +701,8 @@ GLOBAL_EXTERN atomic_t tconInfoReconnectCount;
+ /* Various Debug counters */
+ GLOBAL_EXTERN atomic_t bufAllocCount;    /* current number allocated  */
+ #ifdef CONFIG_CIFS_STATS2
+-GLOBAL_EXTERN atomic_t totBufAllocCount; /* total allocated over all time */
+-GLOBAL_EXTERN atomic_t totSmBufAllocCount;
++GLOBAL_EXTERN atomic_unchecked_t totBufAllocCount; /* total allocated over all time */
++GLOBAL_EXTERN atomic_unchecked_t totSmBufAllocCount;
+ #endif
+ GLOBAL_EXTERN atomic_t smBufAllocCount;
+ GLOBAL_EXTERN atomic_t midCount;
+diff --git a/fs/cifs/link.c b/fs/cifs/link.c
+index fc1e048..28b3441 100644
+--- a/fs/cifs/link.c
++++ b/fs/cifs/link.c
+@@ -215,7 +215,7 @@ cifs_symlink(struct inode *inode, struct dentry *direntry, const char *symname)
+ void cifs_put_link(struct dentry *direntry, struct nameidata *nd, void *cookie)
+ {
+-      char *p = nd_get_link(nd);
++      const char *p = nd_get_link(nd);
+       if (!IS_ERR(p))
+               kfree(p);
+ }
+diff --git a/fs/cifs/misc.c b/fs/cifs/misc.c
+index 95b82e8..12a538d 100644
+--- a/fs/cifs/misc.c
++++ b/fs/cifs/misc.c
+@@ -155,7 +155,7 @@ cifs_buf_get(void)
+               memset(ret_buf, 0, sizeof(struct smb_hdr) + 3);
+               atomic_inc(&bufAllocCount);
+ #ifdef CONFIG_CIFS_STATS2
+-              atomic_inc(&totBufAllocCount);
++              atomic_inc_unchecked(&totBufAllocCount);
+ #endif /* CONFIG_CIFS_STATS2 */
+       }
+@@ -190,7 +190,7 @@ cifs_small_buf_get(void)
+       /*      memset(ret_buf, 0, sizeof(struct smb_hdr) + 27);*/
+               atomic_inc(&smBufAllocCount);
+ #ifdef CONFIG_CIFS_STATS2
+-              atomic_inc(&totSmBufAllocCount);
++              atomic_inc_unchecked(&totSmBufAllocCount);
+ #endif /* CONFIG_CIFS_STATS2 */
+       }
+diff --git a/fs/coda/cache.c b/fs/coda/cache.c
+index a5bf577..6d19845 100644
+--- a/fs/coda/cache.c
++++ b/fs/coda/cache.c
+@@ -24,14 +24,14 @@
+ #include <linux/coda_fs_i.h>
+ #include <linux/coda_cache.h>
+-static atomic_t permission_epoch = ATOMIC_INIT(0);
++static atomic_unchecked_t permission_epoch = ATOMIC_INIT(0);
+ /* replace or extend an acl cache hit */
+ void coda_cache_enter(struct inode *inode, int mask)
+ {
+       struct coda_inode_info *cii = ITOC(inode);
+-      cii->c_cached_epoch = atomic_read(&permission_epoch);
++      cii->c_cached_epoch = atomic_read_unchecked(&permission_epoch);
+       if (cii->c_uid != current_fsuid()) {
+               cii->c_uid = current_fsuid();
+                 cii->c_cached_perm = mask;
+@@ -43,13 +43,13 @@ void coda_cache_enter(struct inode *inode, int mask)
+ void coda_cache_clear_inode(struct inode *inode)
+ {
+       struct coda_inode_info *cii = ITOC(inode);
+-      cii->c_cached_epoch = atomic_read(&permission_epoch) - 1;
++      cii->c_cached_epoch = atomic_read_unchecked(&permission_epoch) - 1;
+ }
+ /* remove all acl caches */
+ void coda_cache_clear_all(struct super_block *sb)
+ {
+-      atomic_inc(&permission_epoch);
++      atomic_inc_unchecked(&permission_epoch);
+ }
+@@ -61,7 +61,7 @@ int coda_cache_check(struct inode *inode, int mask)
+       
+         hit = (mask & cii->c_cached_perm) == mask &&
+               cii->c_uid == current_fsuid() &&
+-              cii->c_cached_epoch == atomic_read(&permission_epoch);
++              cii->c_cached_epoch == atomic_read_unchecked(&permission_epoch);
+         return hit;
+ }
+diff --git a/fs/compat.c b/fs/compat.c
+index d1e2411..b1eda5d 100644
+--- a/fs/compat.c
++++ b/fs/compat.c
+@@ -133,8 +133,8 @@ asmlinkage long compat_sys_utimes(char __user *filename, struct compat_timeval _
+ static int cp_compat_stat(struct kstat *stat, struct compat_stat __user *ubuf)
+ {
+       compat_ino_t ino = stat->ino;
+-      typeof(ubuf->st_uid) uid = 0;
+-      typeof(ubuf->st_gid) gid = 0;
++      typeof(((struct compat_stat *)0)->st_uid) uid = 0;
++      typeof(((struct compat_stat *)0)->st_gid) gid = 0;
+       int err;
+       SET_UID(uid, stat->uid);
+@@ -533,7 +533,7 @@ compat_sys_io_setup(unsigned nr_reqs, u32 __user *ctx32p)
+       set_fs(KERNEL_DS);
+       /* The __user pointer cast is valid because of the set_fs() */
+-      ret = sys_io_setup(nr_reqs, (aio_context_t __user *) &ctx64);
++      ret = sys_io_setup(nr_reqs, (aio_context_t __force_user *) &ctx64);
+       set_fs(oldfs);
+       /* truncating is ok because it's a user address */
+       if (!ret)
+@@ -830,6 +830,7 @@ struct compat_old_linux_dirent {
+ struct compat_readdir_callback {
+       struct compat_old_linux_dirent __user *dirent;
++      struct file * file;
+       int result;
+ };
+@@ -847,6 +848,10 @@ static int compat_fillonedir(void *__buf, const char *name, int namlen,
+               buf->result = -EOVERFLOW;
+               return -EOVERFLOW;
+       }
++
++      if (!gr_acl_handle_filldir(buf->file, name, namlen, ino))
++              return 0;
++
+       buf->result++;
+       dirent = buf->dirent;
+       if (!access_ok(VERIFY_WRITE, dirent,
+@@ -879,6 +884,7 @@ asmlinkage long compat_sys_old_readdir(unsigned int fd,
+       buf.result = 0;
+       buf.dirent = dirent;
++      buf.file = file;
+       error = vfs_readdir(file, compat_fillonedir, &buf);
+       if (buf.result)
+@@ -899,6 +905,7 @@ struct compat_linux_dirent {
+ struct compat_getdents_callback {
+       struct compat_linux_dirent __user *current_dir;
+       struct compat_linux_dirent __user *previous;
++      struct file * file;
+       int count;
+       int error;
+ };
+@@ -919,6 +926,10 @@ static int compat_filldir(void *__buf, const char *name, int namlen,
+               buf->error = -EOVERFLOW;
+               return -EOVERFLOW;
+       }
++
++      if (!gr_acl_handle_filldir(buf->file, name, namlen, ino))
++              return 0;
++
+       dirent = buf->previous;
+       if (dirent) {
+               if (__put_user(offset, &dirent->d_off))
+@@ -966,6 +977,7 @@ asmlinkage long compat_sys_getdents(unsigned int fd,
+       buf.previous = NULL;
+       buf.count = count;
+       buf.error = 0;
++      buf.file = file;
+       error = vfs_readdir(file, compat_filldir, &buf);
+       if (error >= 0)
+@@ -987,6 +999,7 @@ out:
+ struct compat_getdents_callback64 {
+       struct linux_dirent64 __user *current_dir;
+       struct linux_dirent64 __user *previous;
++      struct file * file;
+       int count;
+       int error;
+ };
+@@ -1003,6 +1016,10 @@ static int compat_filldir64(void * __buf, const char * name, int namlen, loff_t
+       buf->error = -EINVAL;   /* only used if we fail.. */
+       if (reclen > buf->count)
+               return -EINVAL;
++
++      if (!gr_acl_handle_filldir(buf->file, name, namlen, ino))
++              return 0;
++
+       dirent = buf->previous;
+       if (dirent) {
+@@ -1054,13 +1071,14 @@ asmlinkage long compat_sys_getdents64(unsigned int fd,
+       buf.previous = NULL;
+       buf.count = count;
+       buf.error = 0;
++      buf.file = file;
+       error = vfs_readdir(file, compat_filldir64, &buf);
+       if (error >= 0)
+               error = buf.error;
+       lastdirent = buf.previous;
+       if (lastdirent) {
+-              typeof(lastdirent->d_off) d_off = file->f_pos;
++              typeof(((struct linux_dirent64 *)0)->d_off) d_off = file->f_pos;
+               if (__put_user_unaligned(d_off, &lastdirent->d_off))
+                       error = -EFAULT;
+               else
+@@ -1098,7 +1116,7 @@ static ssize_t compat_do_readv_writev(int type, struct file *file,
+        * verify all the pointers
+        */
+       ret = -EINVAL;
+-      if ((nr_segs > UIO_MAXIOV) || (nr_segs <= 0))
++      if (nr_segs > UIO_MAXIOV)
+               goto out;
+       if (!file->f_op)
+               goto out;
+@@ -1463,11 +1481,35 @@ int compat_do_execve(char * filename,
+       compat_uptr_t __user *envp,
+       struct pt_regs * regs)
+ {
++#ifdef CONFIG_GRKERNSEC
++      struct file *old_exec_file;
++      struct acl_subject_label *old_acl;
++      struct rlimit old_rlim[RLIM_NLIMITS];
++#endif
+       struct linux_binprm *bprm;
+       struct file *file;
+       struct files_struct *displaced;
+       bool clear_in_exec;
+       int retval;
++      const struct cred *cred = current_cred();
++
++      /*
++       * We move the actual failure in case of RLIMIT_NPROC excess from
++       * set*uid() to execve() because too many poorly written programs
++       * don't check setuid() return code.  Here we additionally recheck
++       * whether NPROC limit is still exceeded.
++       */
++      gr_learn_resource(current, RLIMIT_NPROC, atomic_read(&current->cred->user->processes), 1);
++
++      if ((current->flags & PF_NPROC_EXCEEDED) &&
++          atomic_read(&cred->user->processes) > current->signal->rlim[RLIMIT_NPROC].rlim_cur) {
++              retval = -EAGAIN;
++              goto out_ret;
++      }
++
++      /* We're below the limit (still or again), so we don't want to make
++       * further execve() calls fail. */
++      current->flags &= ~PF_NPROC_EXCEEDED;
+       retval = unshare_files(&displaced);
+       if (retval)
+@@ -1493,12 +1535,26 @@ int compat_do_execve(char * filename,
+       if (IS_ERR(file))
+               goto out_unmark;
++      if (gr_ptrace_readexec(file, bprm->unsafe)) {
++              retval = -EPERM;
++              goto out_file;
++      }
++
+       sched_exec();
+       bprm->file = file;
+       bprm->filename = filename;
+       bprm->interp = filename;
++      if (gr_process_user_ban()) {
++              retval = -EPERM;
++              goto out_file;
++      }
++
++      retval = -EACCES;
++      if (!gr_acl_handle_execve(file->f_dentry, file->f_vfsmnt))
++              goto out_file;
++
+       retval = bprm_mm_init(bprm);
+       if (retval)
+               goto out_file;
+@@ -1528,9 +1584,40 @@ int compat_do_execve(char * filename,
+       if (retval < 0)
+               goto out;
++      if (!gr_tpe_allow(file)) {
++              retval = -EACCES;
++              goto out;
++      }
++
++      if (gr_check_crash_exec(file)) {
++              retval = -EACCES;
++              goto out;
++      }
++
++      gr_log_chroot_exec(file->f_dentry, file->f_vfsmnt);
++
++      gr_handle_exec_args_compat(bprm, argv);
++
++#ifdef CONFIG_GRKERNSEC
++      old_acl = current->acl;
++      memcpy(old_rlim, current->signal->rlim, sizeof(old_rlim));
++      old_exec_file = current->exec_file;
++      get_file(file);
++      current->exec_file = file;
++#endif
++
++      retval = gr_set_proc_label(file->f_dentry, file->f_vfsmnt,
++                                 bprm->unsafe);
++      if (retval < 0)
++              goto out_fail;
++
+       retval = search_binary_handler(bprm, regs);
+       if (retval < 0)
+-              goto out;
++              goto out_fail;
++#ifdef CONFIG_GRKERNSEC
++      if (old_exec_file)
++              fput(old_exec_file);
++#endif
+       /* execve succeeded */
+       current->fs->in_exec = 0;
+@@ -1541,6 +1628,14 @@ int compat_do_execve(char * filename,
+               put_files_struct(displaced);
+       return retval;
++out_fail:
++#ifdef CONFIG_GRKERNSEC
++      current->acl = old_acl;
++      memcpy(current->signal->rlim, old_rlim, sizeof(old_rlim));
++      fput(current->exec_file);
++      current->exec_file = old_exec_file;
++#endif
++
+ out:
+       if (bprm->mm) {
+               acct_arg_size(bprm, 0);
+@@ -1711,6 +1806,8 @@ int compat_core_sys_select(int n, compat_ulong_t __user *inp,
+       struct fdtable *fdt;
+       long stack_fds[SELECT_STACK_ALLOC/sizeof(long)];
++      pax_track_stack();
++
+       if (n < 0)
+               goto out_nofds;
+@@ -2151,7 +2248,7 @@ asmlinkage long compat_sys_nfsservctl(int cmd,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       /* The __user pointer casts are valid because of the set_fs() */
+-      err = sys_nfsservctl(cmd, (void __user *) karg, (void __user *) kres);
++      err = sys_nfsservctl(cmd, (void __force_user *) karg, (void __force_user *) kres);
+       set_fs(oldfs);
+       if (err)
+diff --git a/fs/compat_binfmt_elf.c b/fs/compat_binfmt_elf.c
+index 0adced2..bbb1b0d 100644
+--- a/fs/compat_binfmt_elf.c
++++ b/fs/compat_binfmt_elf.c
+@@ -29,10 +29,12 @@
+ #undef        elfhdr
+ #undef        elf_phdr
+ #undef        elf_note
++#undef        elf_dyn
+ #undef        elf_addr_t
+ #define elfhdr                elf32_hdr
+ #define elf_phdr      elf32_phdr
+ #define elf_note      elf32_note
++#define elf_dyn               Elf32_Dyn
+ #define elf_addr_t    Elf32_Addr
+ /*
+diff --git a/fs/compat_ioctl.c b/fs/compat_ioctl.c
+index d84e705..d8c364c 100644
+--- a/fs/compat_ioctl.c
++++ b/fs/compat_ioctl.c
+@@ -234,6 +234,8 @@ static int do_video_set_spu_palette(unsigned int fd, unsigned int cmd, unsigned
+       up = (struct compat_video_spu_palette __user *) arg;
+       err  = get_user(palp, &up->palette);
+       err |= get_user(length, &up->length);
++      if (err)
++              return -EFAULT;
+       up_native = compat_alloc_user_space(sizeof(struct video_spu_palette));
+       err  = put_user(compat_ptr(palp), &up_native->palette);
+@@ -1513,7 +1515,7 @@ static int serial_struct_ioctl(unsigned fd, unsigned cmd, unsigned long arg)
+                       return -EFAULT;
+                 if (__get_user(udata, &ss32->iomem_base))
+                       return -EFAULT;
+-                ss.iomem_base = compat_ptr(udata);
++                ss.iomem_base = (unsigned char __force_kernel *)compat_ptr(udata);
+                 if (__get_user(ss.iomem_reg_shift, &ss32->iomem_reg_shift) ||
+                   __get_user(ss.port_high, &ss32->port_high))
+                       return -EFAULT;
+@@ -1809,7 +1811,7 @@ static int compat_ioctl_preallocate(struct file *file, unsigned long arg)
+           copy_in_user(&p->l_len,     &p32->l_len,    sizeof(s64)) ||
+           copy_in_user(&p->l_sysid,   &p32->l_sysid,  sizeof(s32)) ||
+           copy_in_user(&p->l_pid,     &p32->l_pid,    sizeof(u32)) ||
+-          copy_in_user(&p->l_pad,     &p32->l_pad,    4*sizeof(u32)))
++          copy_in_user(p->l_pad,      &p32->l_pad,    4*sizeof(u32)))
+               return -EFAULT;
+       return ioctl_preallocate(file, p);
+diff --git a/fs/configfs/dir.c b/fs/configfs/dir.c
+index 8e48b52..f01ed91 100644
+--- a/fs/configfs/dir.c
++++ b/fs/configfs/dir.c
+@@ -1572,7 +1572,8 @@ static int configfs_readdir(struct file * filp, void * dirent, filldir_t filldir
+                       }
+                       for (p=q->next; p!= &parent_sd->s_children; p=p->next) {
+                               struct configfs_dirent *next;
+-                              const char * name;
++                              const unsigned char * name;
++                              char d_name[sizeof(next->s_dentry->d_iname)];
+                               int len;
+                               next = list_entry(p, struct configfs_dirent,
+@@ -1581,7 +1582,12 @@ static int configfs_readdir(struct file * filp, void * dirent, filldir_t filldir
+                                       continue;
+                               name = configfs_get_name(next);
+-                              len = strlen(name);
++                              if (next->s_dentry && name == next->s_dentry->d_iname) {
++                                      len =  next->s_dentry->d_name.len;
++                                      memcpy(d_name, name, len);
++                                      name = d_name;
++                              } else
++                                      len = strlen(name);
+                               if (next->s_dentry)
+                                       ino = next->s_dentry->d_inode->i_ino;
+                               else
+diff --git a/fs/dcache.c b/fs/dcache.c
+index 44c0aea..2529092 100644
+--- a/fs/dcache.c
++++ b/fs/dcache.c
+@@ -45,8 +45,6 @@ EXPORT_SYMBOL(dcache_lock);
+ static struct kmem_cache *dentry_cache __read_mostly;
+-#define DNAME_INLINE_LEN (sizeof(struct dentry)-offsetof(struct dentry,d_iname))
+-
+ /*
+  * This is the single most critical data structure when it comes
+  * to the dcache: the hashtable for lookups. Somebody should try
+@@ -2319,7 +2317,7 @@ void __init vfs_caches_init(unsigned long mempages)
+       mempages -= reserve;
+       names_cachep = kmem_cache_create("names_cache", PATH_MAX, 0,
+-                      SLAB_HWCACHE_ALIGN|SLAB_PANIC, NULL);
++                      SLAB_HWCACHE_ALIGN|SLAB_PANIC|SLAB_USERCOPY, NULL);
+       dcache_init();
+       inode_init();
+diff --git a/fs/debugfs/inode.c b/fs/debugfs/inode.c
+index 39c6ee8..dcee0f1 100644
+--- a/fs/debugfs/inode.c
++++ b/fs/debugfs/inode.c
+@@ -269,7 +269,11 @@ EXPORT_SYMBOL_GPL(debugfs_create_file);
+ struct dentry *debugfs_create_dir(const char *name, struct dentry *parent)
+ {
+       return debugfs_create_file(name, 
++#ifdef CONFIG_GRKERNSEC_SYSFS_RESTRICT
++                                 S_IFDIR | S_IRWXU,
++#else
+                                  S_IFDIR | S_IRWXU | S_IRUGO | S_IXUGO,
++#endif
+                                  parent, NULL, NULL);
+ }
+ EXPORT_SYMBOL_GPL(debugfs_create_dir);
+diff --git a/fs/dlm/lockspace.c b/fs/dlm/lockspace.c
+index c010ecf..a8d8c59 100644
+--- a/fs/dlm/lockspace.c
++++ b/fs/dlm/lockspace.c
+@@ -148,7 +148,7 @@ static void lockspace_kobj_release(struct kobject *k)
+       kfree(ls);
+ }
+-static struct sysfs_ops dlm_attr_ops = {
++static const struct sysfs_ops dlm_attr_ops = {
+       .show  = dlm_attr_show,
+       .store = dlm_attr_store,
+ };
+diff --git a/fs/ecryptfs/crypto.c b/fs/ecryptfs/crypto.c
+index 7a5f1ac..205b034 100644
+--- a/fs/ecryptfs/crypto.c
++++ b/fs/ecryptfs/crypto.c
+@@ -418,17 +418,6 @@ static int ecryptfs_encrypt_extent(struct page *enc_extent_page,
+                               rc);
+               goto out;
+       }
+-      if (unlikely(ecryptfs_verbosity > 0)) {
+-              ecryptfs_printk(KERN_DEBUG, "Encrypting extent "
+-                              "with iv:\n");
+-              ecryptfs_dump_hex(extent_iv, crypt_stat->iv_bytes);
+-              ecryptfs_printk(KERN_DEBUG, "First 8 bytes before "
+-                              "encryption:\n");
+-              ecryptfs_dump_hex((char *)
+-                                (page_address(page)
+-                                 + (extent_offset * crypt_stat->extent_size)),
+-                                8);
+-      }
+       rc = ecryptfs_encrypt_page_offset(crypt_stat, enc_extent_page, 0,
+                                         page, (extent_offset
+                                                * crypt_stat->extent_size),
+@@ -441,14 +430,6 @@ static int ecryptfs_encrypt_extent(struct page *enc_extent_page,
+               goto out;
+       }
+       rc = 0;
+-      if (unlikely(ecryptfs_verbosity > 0)) {
+-              ecryptfs_printk(KERN_DEBUG, "Encrypt extent [0x%.16x]; "
+-                              "rc = [%d]\n", (extent_base + extent_offset),
+-                              rc);
+-              ecryptfs_printk(KERN_DEBUG, "First 8 bytes after "
+-                              "encryption:\n");
+-              ecryptfs_dump_hex((char *)(page_address(enc_extent_page)), 8);
+-      }
+ out:
+       return rc;
+ }
+@@ -545,17 +526,6 @@ static int ecryptfs_decrypt_extent(struct page *page,
+                               rc);
+               goto out;
+       }
+-      if (unlikely(ecryptfs_verbosity > 0)) {
+-              ecryptfs_printk(KERN_DEBUG, "Decrypting extent "
+-                              "with iv:\n");
+-              ecryptfs_dump_hex(extent_iv, crypt_stat->iv_bytes);
+-              ecryptfs_printk(KERN_DEBUG, "First 8 bytes before "
+-                              "decryption:\n");
+-              ecryptfs_dump_hex((char *)
+-                                (page_address(enc_extent_page)
+-                                 + (extent_offset * crypt_stat->extent_size)),
+-                                8);
+-      }
+       rc = ecryptfs_decrypt_page_offset(crypt_stat, page,
+                                         (extent_offset
+                                          * crypt_stat->extent_size),
+@@ -569,16 +539,6 @@ static int ecryptfs_decrypt_extent(struct page *page,
+               goto out;
+       }
+       rc = 0;
+-      if (unlikely(ecryptfs_verbosity > 0)) {
+-              ecryptfs_printk(KERN_DEBUG, "Decrypt extent [0x%.16x]; "
+-                              "rc = [%d]\n", (extent_base + extent_offset),
+-                              rc);
+-              ecryptfs_printk(KERN_DEBUG, "First 8 bytes after "
+-                              "decryption:\n");
+-              ecryptfs_dump_hex((char *)(page_address(page)
+-                                         + (extent_offset
+-                                            * crypt_stat->extent_size)), 8);
+-      }
+ out:
+       return rc;
+ }
+diff --git a/fs/ecryptfs/inode.c b/fs/ecryptfs/inode.c
+index 88ba4d4..073f003 100644
+--- a/fs/ecryptfs/inode.c
++++ b/fs/ecryptfs/inode.c
+@@ -660,7 +660,7 @@ static int ecryptfs_readlink_lower(struct dentry *dentry, char **buf,
+       old_fs = get_fs();
+       set_fs(get_ds());
+       rc = lower_dentry->d_inode->i_op->readlink(lower_dentry,
+-                                                 (char __user *)lower_buf,
++                                                 (char __force_user *)lower_buf,
+                                                  lower_bufsiz);
+       set_fs(old_fs);
+       if (rc < 0)
+@@ -706,7 +706,7 @@ static void *ecryptfs_follow_link(struct dentry *dentry, struct nameidata *nd)
+       }
+       old_fs = get_fs();
+       set_fs(get_ds());
+-      rc = dentry->d_inode->i_op->readlink(dentry, (char __user *)buf, len);
++      rc = dentry->d_inode->i_op->readlink(dentry, (__force char __user *)buf, len);
+       set_fs(old_fs);
+       if (rc < 0)
+               goto out_free;
+diff --git a/fs/ecryptfs/read_write.c b/fs/ecryptfs/read_write.c
+index 6b78546..0404659 100644
+--- a/fs/ecryptfs/read_write.c
++++ b/fs/ecryptfs/read_write.c
+@@ -134,7 +134,7 @@ int ecryptfs_write(struct file *ecryptfs_file, char *data, loff_t offset,
+               pgoff_t ecryptfs_page_idx = (pos >> PAGE_CACHE_SHIFT);
+               size_t start_offset_in_page = (pos & ~PAGE_CACHE_MASK);
+               size_t num_bytes = (PAGE_CACHE_SIZE - start_offset_in_page);
+-              size_t total_remaining_bytes = ((offset + size) - pos);
++              loff_t total_remaining_bytes = ((offset + size) - pos);
+               if (fatal_signal_pending(current)) {
+                       rc = -EINTR;
+@@ -145,7 +145,7 @@ int ecryptfs_write(struct file *ecryptfs_file, char *data, loff_t offset,
+                       num_bytes = total_remaining_bytes;
+               if (pos < offset) {
+                       /* remaining zeros to write, up to destination offset */
+-                      size_t total_remaining_zeros = (offset - pos);
++                      loff_t total_remaining_zeros = (offset - pos);
+                       if (num_bytes > total_remaining_zeros)
+                               num_bytes = total_remaining_zeros;
+diff --git a/fs/exec.c b/fs/exec.c
+index 86fafc6..2215975 100644
+--- a/fs/exec.c
++++ b/fs/exec.c
+@@ -56,12 +56,28 @@
+ #include <linux/fsnotify.h>
+ #include <linux/fs_struct.h>
+ #include <linux/pipe_fs_i.h>
++#include <linux/random.h>
++#include <linux/seq_file.h>
++
++#ifdef CONFIG_PAX_REFCOUNT
++#include <linux/kallsyms.h>
++#include <linux/kdebug.h>
++#endif
+ #include <asm/uaccess.h>
+ #include <asm/mmu_context.h>
+ #include <asm/tlb.h>
+ #include "internal.h"
++#ifndef CONFIG_PAX_HAVE_ACL_FLAGS
++void __weak pax_set_initial_flags(struct linux_binprm *bprm) {}
++#endif
++
++#ifdef CONFIG_PAX_HOOK_ACL_FLAGS
++void (*pax_set_initial_flags_func)(struct linux_binprm *bprm);
++EXPORT_SYMBOL(pax_set_initial_flags_func);
++#endif
++
+ int core_uses_pid;
+ char core_pattern[CORENAME_MAX_SIZE] = "core";
+ unsigned int core_pipe_limit;
+@@ -178,18 +194,10 @@ struct page *get_arg_page(struct linux_binprm *bprm, unsigned long pos,
+               int write)
+ {
+       struct page *page;
+-      int ret;
+-#ifdef CONFIG_STACK_GROWSUP
+-      if (write) {
+-              ret = expand_stack_downwards(bprm->vma, pos);
+-              if (ret < 0)
+-                      return NULL;
+-      }
+-#endif
+-      ret = get_user_pages(current, bprm->mm, pos,
+-                      1, write, 1, &page, NULL);
+-      if (ret <= 0)
++      if (0 > expand_stack_downwards(bprm->vma, pos))
++              return NULL;
++      if (0 >= get_user_pages(current, bprm->mm, pos, 1, write, 1, &page, NULL))
+               return NULL;
+       if (write) {
+@@ -263,6 +271,11 @@ static int __bprm_mm_init(struct linux_binprm *bprm)
+       vma->vm_end = STACK_TOP_MAX;
+       vma->vm_start = vma->vm_end - PAGE_SIZE;
+       vma->vm_flags = VM_STACK_FLAGS;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      vma->vm_flags &= ~(VM_EXEC | VM_MAYEXEC);
++#endif
++
+       vma->vm_page_prot = vm_get_page_prot(vma->vm_flags);
+       err = security_file_mmap(NULL, 0, 0, 0, vma->vm_start, 1);
+@@ -276,6 +289,12 @@ static int __bprm_mm_init(struct linux_binprm *bprm)
+       mm->stack_vm = mm->total_vm = 1;
+       up_write(&mm->mmap_sem);
+       bprm->p = vma->vm_end - sizeof(void *);
++
++#ifdef CONFIG_PAX_RANDUSTACK
++      if (randomize_va_space)
++              bprm->p ^= (pax_get_random_long() & ~15) & ~PAGE_MASK;
++#endif
++
+       return 0;
+ err:
+       up_write(&mm->mmap_sem);
+@@ -510,7 +529,7 @@ int copy_strings_kernel(int argc,char ** argv, struct linux_binprm *bprm)
+       int r;
+       mm_segment_t oldfs = get_fs();
+       set_fs(KERNEL_DS);
+-      r = copy_strings(argc, (char __user * __user *)argv, bprm);
++      r = copy_strings(argc, (__force char __user * __user *)argv, bprm);
+       set_fs(oldfs);
+       return r;
+ }
+@@ -540,7 +559,8 @@ static int shift_arg_pages(struct vm_area_struct *vma, unsigned long shift)
+       unsigned long new_end = old_end - shift;
+       struct mmu_gather *tlb;
+-      BUG_ON(new_start > new_end);
++      if (new_start >= new_end || new_start < mmap_min_addr)
++              return -ENOMEM;
+       /*
+        * ensure there are no vmas between where we want to go
+@@ -549,6 +569,10 @@ static int shift_arg_pages(struct vm_area_struct *vma, unsigned long shift)
+       if (vma != find_vma(mm, new_start))
+               return -EFAULT;
++#ifdef CONFIG_PAX_SEGMEXEC
++      BUG_ON(pax_find_mirror_vma(vma));
++#endif
++
+       /*
+        * cover the whole range: [new_start, old_end)
+        */
+@@ -630,10 +654,6 @@ int setup_arg_pages(struct linux_binprm *bprm,
+       stack_top = arch_align_stack(stack_top);
+       stack_top = PAGE_ALIGN(stack_top);
+-      if (unlikely(stack_top < mmap_min_addr) ||
+-          unlikely(vma->vm_end - vma->vm_start >= stack_top - mmap_min_addr))
+-              return -ENOMEM;
+-
+       stack_shift = vma->vm_end - stack_top;
+       bprm->p -= stack_shift;
+@@ -645,6 +665,14 @@ int setup_arg_pages(struct linux_binprm *bprm,
+       bprm->exec -= stack_shift;
+       down_write(&mm->mmap_sem);
++
++      /* Move stack pages down in memory. */
++      if (stack_shift) {
++              ret = shift_arg_pages(vma, stack_shift);
++              if (ret)
++                      goto out_unlock;
++      }
++
+       vm_flags = VM_STACK_FLAGS;
+       /*
+@@ -658,19 +686,24 @@ int setup_arg_pages(struct linux_binprm *bprm,
+               vm_flags &= ~VM_EXEC;
+       vm_flags |= mm->def_flags;
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++      if (mm->pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              vm_flags &= ~VM_EXEC;
++
++#ifdef CONFIG_PAX_MPROTECT
++              if (mm->pax_flags & MF_PAX_MPROTECT)
++                      vm_flags &= ~VM_MAYEXEC;
++#endif
++
++      }
++#endif
++
+       ret = mprotect_fixup(vma, &prev, vma->vm_start, vma->vm_end,
+                       vm_flags);
+       if (ret)
+               goto out_unlock;
+       BUG_ON(prev != vma);
+-      /* Move stack pages down in memory. */
+-      if (stack_shift) {
+-              ret = shift_arg_pages(vma, stack_shift);
+-              if (ret)
+-                      goto out_unlock;
+-      }
+-
+       stack_expand = EXTRA_STACK_VM_PAGES * PAGE_SIZE;
+       stack_size = vma->vm_end - vma->vm_start;
+       /*
+@@ -744,7 +777,7 @@ int kernel_read(struct file *file, loff_t offset,
+       old_fs = get_fs();
+       set_fs(get_ds());
+       /* The cast to a user pointer is valid due to the set_fs() */
+-      result = vfs_read(file, (void __user *)addr, count, &pos);
++      result = vfs_read(file, (void __force_user *)addr, count, &pos);
+       set_fs(old_fs);
+       return result;
+ }
+@@ -1152,7 +1185,7 @@ int check_unsafe_exec(struct linux_binprm *bprm)
+       }
+       rcu_read_unlock();
+-      if (p->fs->users > n_fs) {
++      if (atomic_read(&p->fs->users) > n_fs) {
+               bprm->unsafe |= LSM_UNSAFE_SHARE;
+       } else {
+               res = -EAGAIN;
+@@ -1339,6 +1372,10 @@ int search_binary_handler(struct linux_binprm *bprm,struct pt_regs *regs)
+ EXPORT_SYMBOL(search_binary_handler);
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++atomic64_unchecked_t global_exec_counter = ATOMIC64_INIT(0);
++#endif
++
+ /*
+  * sys_execve() executes a new program.
+  */
+@@ -1347,11 +1384,35 @@ int do_execve(char * filename,
+       char __user *__user *envp,
+       struct pt_regs * regs)
+ {
++#ifdef CONFIG_GRKERNSEC
++      struct file *old_exec_file;
++      struct acl_subject_label *old_acl;
++      struct rlimit old_rlim[RLIM_NLIMITS];
++#endif
+       struct linux_binprm *bprm;
+       struct file *file;
+       struct files_struct *displaced;
+       bool clear_in_exec;
+       int retval;
++      const struct cred *cred = current_cred();
++
++      /*
++       * We move the actual failure in case of RLIMIT_NPROC excess from
++       * set*uid() to execve() because too many poorly written programs
++       * don't check setuid() return code.  Here we additionally recheck
++       * whether NPROC limit is still exceeded.
++       */
++      gr_learn_resource(current, RLIMIT_NPROC, atomic_read(&current->cred->user->processes), 1);
++
++      if ((current->flags & PF_NPROC_EXCEEDED) &&
++          atomic_read(&cred->user->processes) > current->signal->rlim[RLIMIT_NPROC].rlim_cur) {
++              retval = -EAGAIN;
++              goto out_ret;
++      }
++
++      /* We're below the limit (still or again), so we don't want to make
++       * further execve() calls fail. */
++      current->flags &= ~PF_NPROC_EXCEEDED;
+       retval = unshare_files(&displaced);
+       if (retval)
+@@ -1377,12 +1438,27 @@ int do_execve(char * filename,
+       if (IS_ERR(file))
+               goto out_unmark;
++      if (gr_ptrace_readexec(file, bprm->unsafe)) {
++              retval = -EPERM;
++              goto out_file;
++      }
++
+       sched_exec();
+       bprm->file = file;
+       bprm->filename = filename;
+       bprm->interp = filename;
++      if (gr_process_user_ban()) {
++              retval = -EPERM;
++              goto out_file;
++      }
++
++      if (!gr_acl_handle_execve(file->f_dentry, file->f_vfsmnt)) {
++              retval = -EACCES;
++              goto out_file;
++      }
++
+       retval = bprm_mm_init(bprm);
+       if (retval)
+               goto out_file;
+@@ -1412,12 +1488,47 @@ int do_execve(char * filename,
+       if (retval < 0)
+               goto out;
++      if (!gr_tpe_allow(file)) {
++              retval = -EACCES;
++              goto out;
++      }
++
++      if (gr_check_crash_exec(file)) {
++              retval = -EACCES;
++              goto out;
++      }
++
++      gr_log_chroot_exec(file->f_dentry, file->f_vfsmnt);
++
++      gr_handle_exec_args(bprm, (const char __user *const __user *)argv);
++
++#ifdef CONFIG_GRKERNSEC
++      old_acl = current->acl;
++      memcpy(old_rlim, current->signal->rlim, sizeof(old_rlim));
++      old_exec_file = current->exec_file;
++      get_file(file);
++      current->exec_file = file;
++#endif
++
++      retval = gr_set_proc_label(file->f_dentry, file->f_vfsmnt,
++                                 bprm->unsafe);
++      if (retval < 0)
++              goto out_fail;
++
+       current->flags &= ~PF_KTHREAD;
+       retval = search_binary_handler(bprm,regs);
+       if (retval < 0)
+-              goto out;
++              goto out_fail;
++#ifdef CONFIG_GRKERNSEC
++      if (old_exec_file)
++              fput(old_exec_file);
++#endif
+       /* execve succeeded */
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      current->exec_id = atomic64_inc_return_unchecked(&global_exec_counter);
++#endif
++
+       current->fs->in_exec = 0;
+       current->in_execve = 0;
+       acct_update_integrals(current);
+@@ -1426,6 +1537,14 @@ int do_execve(char * filename,
+               put_files_struct(displaced);
+       return retval;
++out_fail:
++#ifdef CONFIG_GRKERNSEC
++      current->acl = old_acl;
++      memcpy(current->signal->rlim, old_rlim, sizeof(old_rlim));
++      fput(current->exec_file);
++      current->exec_file = old_exec_file;
++#endif
++
+ out:
+       if (bprm->mm) {
+               acct_arg_size(bprm, 0);
+@@ -1591,6 +1710,220 @@ out:
+       return ispipe;
+ }
++int pax_check_flags(unsigned long *flags)
++{
++      int retval = 0;
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_SEGMEXEC)
++      if (*flags & MF_PAX_SEGMEXEC)
++      {
++              *flags &= ~MF_PAX_SEGMEXEC;
++              retval = -EINVAL;
++      }
++#endif
++
++      if ((*flags & MF_PAX_PAGEEXEC)
++
++#ifdef CONFIG_PAX_PAGEEXEC
++          &&  (*flags & MF_PAX_SEGMEXEC)
++#endif
++
++         )
++      {
++              *flags &= ~MF_PAX_PAGEEXEC;
++              retval = -EINVAL;
++      }
++
++      if ((*flags & MF_PAX_MPROTECT)
++
++#ifdef CONFIG_PAX_MPROTECT
++          && !(*flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC))
++#endif
++
++         )
++      {
++              *flags &= ~MF_PAX_MPROTECT;
++              retval = -EINVAL;
++      }
++
++      if ((*flags & MF_PAX_EMUTRAMP)
++
++#ifdef CONFIG_PAX_EMUTRAMP
++          && !(*flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC))
++#endif
++
++         )
++      {
++              *flags &= ~MF_PAX_EMUTRAMP;
++              retval = -EINVAL;
++      }
++
++      return retval;
++}
++
++EXPORT_SYMBOL(pax_check_flags);
++
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++void pax_report_fault(struct pt_regs *regs, void *pc, void *sp)
++{
++      struct task_struct *tsk = current;
++      struct mm_struct *mm = current->mm;
++      char *buffer_exec = (char *)__get_free_page(GFP_KERNEL);
++      char *buffer_fault = (char *)__get_free_page(GFP_KERNEL);
++      char *path_exec = NULL;
++      char *path_fault = NULL;
++      unsigned long start = 0UL, end = 0UL, offset = 0UL;
++
++      if (buffer_exec && buffer_fault) {
++              struct vm_area_struct *vma, *vma_exec = NULL, *vma_fault = NULL;
++
++              down_read(&mm->mmap_sem);
++              vma = mm->mmap;
++              while (vma && (!vma_exec || !vma_fault)) {
++                      if ((vma->vm_flags & VM_EXECUTABLE) && vma->vm_file)
++                              vma_exec = vma;
++                      if (vma->vm_start <= (unsigned long)pc && (unsigned long)pc < vma->vm_end)
++                              vma_fault = vma;
++                      vma = vma->vm_next;
++              }
++              if (vma_exec) {
++                      path_exec = d_path(&vma_exec->vm_file->f_path, buffer_exec, PAGE_SIZE);
++                      if (IS_ERR(path_exec))
++                              path_exec = "<path too long>";
++                      else {
++                              path_exec = mangle_path(buffer_exec, path_exec, "\t\n\\");
++                              if (path_exec) {
++                                      *path_exec = 0;
++                                      path_exec = buffer_exec;
++                              } else
++                                      path_exec = "<path too long>";
++                      }
++              }
++              if (vma_fault) {
++                      start = vma_fault->vm_start;
++                      end = vma_fault->vm_end;
++                      offset = vma_fault->vm_pgoff << PAGE_SHIFT;
++                      if (vma_fault->vm_file) {
++                              path_fault = d_path(&vma_fault->vm_file->f_path, buffer_fault, PAGE_SIZE);
++                              if (IS_ERR(path_fault))
++                                      path_fault = "<path too long>";
++                              else {
++                                      path_fault = mangle_path(buffer_fault, path_fault, "\t\n\\");
++                                      if (path_fault) {
++                                              *path_fault = 0;
++                                              path_fault = buffer_fault;
++                                      } else
++                                              path_fault = "<path too long>";
++                              }
++                      } else
++                              path_fault = "<anonymous mapping>";
++              }
++              up_read(&mm->mmap_sem);
++      }
++      if (tsk->signal->curr_ip)
++              printk(KERN_ERR "PAX: From %pI4: execution attempt in: %s, %08lx-%08lx %08lx\n", &tsk->signal->curr_ip, path_fault, start, end, offset);
++      else
++              printk(KERN_ERR "PAX: execution attempt in: %s, %08lx-%08lx %08lx\n", path_fault, start, end, offset);
++      printk(KERN_ERR "PAX: terminating task: %s(%s):%d, uid/euid: %u/%u, "
++                      "PC: %p, SP: %p\n", path_exec, tsk->comm, task_pid_nr(tsk),
++                      task_uid(tsk), task_euid(tsk), pc, sp);
++      free_page((unsigned long)buffer_exec);
++      free_page((unsigned long)buffer_fault);
++      pax_report_insns(regs, pc, sp);
++      do_coredump(SIGKILL, SIGKILL, regs);
++}
++#endif
++
++#ifdef CONFIG_PAX_REFCOUNT
++void pax_report_refcount_overflow(struct pt_regs *regs)
++{
++      if (current->signal->curr_ip)
++              printk(KERN_ERR "PAX: From %pI4: refcount overflow detected in: %s:%d, uid/euid: %u/%u\n",
++                               &current->signal->curr_ip, current->comm, task_pid_nr(current), current_uid(), current_euid());
++      else
++              printk(KERN_ERR "PAX: refcount overflow detected in: %s:%d, uid/euid: %u/%u\n",
++                               current->comm, task_pid_nr(current), current_uid(), current_euid());
++      print_symbol(KERN_ERR "PAX: refcount overflow occured at: %s\n", instruction_pointer(regs));
++      show_regs(regs);
++      force_sig_specific(SIGKILL, current);
++}
++#endif
++
++#ifdef CONFIG_PAX_USERCOPY
++/* 0: not at all, 1: fully, 2: fully inside frame, -1: partially (implies an error) */
++int object_is_on_stack(const void *obj, unsigned long len)
++{
++      const void * const stack = task_stack_page(current);
++      const void * const stackend = stack + THREAD_SIZE;
++
++#if defined(CONFIG_FRAME_POINTER) && defined(CONFIG_X86)
++      const void *frame = NULL;
++      const void *oldframe;
++#endif
++
++      if (obj + len < obj)
++              return -1;
++
++      if (obj + len <= stack || stackend <= obj)
++              return 0;
++
++      if (obj < stack || stackend < obj + len)
++              return -1;
++
++#if defined(CONFIG_FRAME_POINTER) && defined(CONFIG_X86)
++      oldframe = __builtin_frame_address(1);
++      if (oldframe)
++              frame = __builtin_frame_address(2);
++      /*
++        low ----------------------------------------------> high
++        [saved bp][saved ip][args][local vars][saved bp][saved ip]
++                            ^----------------^
++                        allow copies only within here
++      */
++      while (stack <= frame && frame < stackend) {
++              /* if obj + len extends past the last frame, this
++                 check won't pass and the next frame will be 0,
++                 causing us to bail out and correctly report
++                 the copy as invalid
++              */
++              if (obj + len <= frame)
++                      return obj >= oldframe + 2 * sizeof(void *) ? 2 : -1;
++              oldframe = frame;
++              frame = *(const void * const *)frame;
++      }
++      return -1;
++#else
++      return 1;
++#endif
++}
++
++
++NORET_TYPE void pax_report_usercopy(const void *ptr, unsigned long len, bool to, const char *type)
++{
++      if (current->signal->curr_ip)
++              printk(KERN_ERR "PAX: From %pI4: kernel memory %s attempt detected %s %p (%s) (%lu bytes)\n",
++                      &current->signal->curr_ip, to ? "leak" : "overwrite", to ? "from" : "to", ptr, type ? : "unknown", len);
++      else
++              printk(KERN_ERR "PAX: kernel memory %s attempt detected %s %p (%s) (%lu bytes)\n",
++                      to ? "leak" : "overwrite", to ? "from" : "to", ptr, type ? : "unknown", len);
++
++      dump_stack();
++      gr_handle_kernel_exploit();
++      do_group_exit(SIGKILL);
++}
++#endif
++
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++void pax_track_stack(void)
++{
++      unsigned long sp = (unsigned long)&sp;
++      if (sp < current_thread_info()->lowest_stack &&
++          sp > (unsigned long)task_stack_page(current))
++              current_thread_info()->lowest_stack = sp;
++}
++EXPORT_SYMBOL(pax_track_stack);
++#endif
++
+ static int zap_process(struct task_struct *start)
+ {
+       struct task_struct *t;
+@@ -1793,17 +2126,17 @@ static void wait_for_dump_helpers(struct file *file)
+       pipe = file->f_path.dentry->d_inode->i_pipe;
+       pipe_lock(pipe);
+-      pipe->readers++;
+-      pipe->writers--;
++      atomic_inc(&pipe->readers);
++      atomic_dec(&pipe->writers);
+-      while ((pipe->readers > 1) && (!signal_pending(current))) {
++      while ((atomic_read(&pipe->readers) > 1) && (!signal_pending(current))) {
+               wake_up_interruptible_sync(&pipe->wait);
+               kill_fasync(&pipe->fasync_readers, SIGIO, POLL_IN);
+               pipe_wait(pipe);
+       }
+-      pipe->readers--;
+-      pipe->writers++;
++      atomic_dec(&pipe->readers);
++      atomic_inc(&pipe->writers);
+       pipe_unlock(pipe);
+ }
+@@ -1826,10 +2159,13 @@ void do_coredump(long signr, int exit_code, struct pt_regs *regs)
+       char **helper_argv = NULL;
+       int helper_argc = 0;
+       int dump_count = 0;
+-      static atomic_t core_dump_count = ATOMIC_INIT(0);
++      static atomic_unchecked_t core_dump_count = ATOMIC_INIT(0);
+       audit_core_dumps(signr);
++      if (signr == SIGSEGV || signr == SIGBUS || signr == SIGKILL || signr == SIGILL)
++              gr_handle_brute_attach(current, mm->flags);
++
+       binfmt = mm->binfmt;
+       if (!binfmt || !binfmt->core_dump)
+               goto fail;
+@@ -1874,6 +2210,8 @@ void do_coredump(long signr, int exit_code, struct pt_regs *regs)
+        */
+       clear_thread_flag(TIF_SIGPENDING);
++      gr_learn_resource(current, RLIMIT_CORE, binfmt->min_coredump, 1);
++
+       /*
+        * lock_kernel() because format_corename() is controlled by sysctl, which
+        * uses lock_kernel()
+@@ -1908,7 +2246,7 @@ void do_coredump(long signr, int exit_code, struct pt_regs *regs)
+                       goto fail_unlock;
+               }
+-              dump_count = atomic_inc_return(&core_dump_count);
++              dump_count = atomic_inc_return_unchecked(&core_dump_count);
+               if (core_pipe_limit && (core_pipe_limit < dump_count)) {
+                       printk(KERN_WARNING "Pid %d(%s) over core_pipe_limit\n",
+                              task_tgid_vnr(current), current->comm);
+@@ -1972,7 +2310,7 @@ close_fail:
+       filp_close(file, NULL);
+ fail_dropcount:
+       if (dump_count)
+-              atomic_dec(&core_dump_count);
++              atomic_dec_unchecked(&core_dump_count);
+ fail_unlock:
+       if (helper_argv)
+               argv_free(helper_argv);
+diff --git a/fs/ext2/balloc.c b/fs/ext2/balloc.c
+index 7f8d2e5..a1abdbb 100644
+--- a/fs/ext2/balloc.c
++++ b/fs/ext2/balloc.c
+@@ -1192,7 +1192,7 @@ static int ext2_has_free_blocks(struct ext2_sb_info *sbi)
+       free_blocks = percpu_counter_read_positive(&sbi->s_freeblocks_counter);
+       root_blocks = le32_to_cpu(sbi->s_es->s_r_blocks_count);
+-      if (free_blocks < root_blocks + 1 && !capable(CAP_SYS_RESOURCE) &&
++      if (free_blocks < root_blocks + 1 && !capable_nolog(CAP_SYS_RESOURCE) &&
+               sbi->s_resuid != current_fsuid() &&
+               (sbi->s_resgid == 0 || !in_group_p (sbi->s_resgid))) {
+               return 0;
+diff --git a/fs/ext3/balloc.c b/fs/ext3/balloc.c
+index 27967f9..9f2a5fb 100644
+--- a/fs/ext3/balloc.c
++++ b/fs/ext3/balloc.c
+@@ -1421,7 +1421,7 @@ static int ext3_has_free_blocks(struct ext3_sb_info *sbi)
+       free_blocks = percpu_counter_read_positive(&sbi->s_freeblocks_counter);
+       root_blocks = le32_to_cpu(sbi->s_es->s_r_blocks_count);
+-      if (free_blocks < root_blocks + 1 && !capable(CAP_SYS_RESOURCE) &&
++      if (free_blocks < root_blocks + 1 && !capable_nolog(CAP_SYS_RESOURCE) &&
+               sbi->s_resuid != current_fsuid() &&
+               (sbi->s_resgid == 0 || !in_group_p (sbi->s_resgid))) {
+               return 0;
+diff --git a/fs/ext4/balloc.c b/fs/ext4/balloc.c
+index e85b63c..80398e6 100644
+--- a/fs/ext4/balloc.c
++++ b/fs/ext4/balloc.c
+@@ -570,7 +570,7 @@ int ext4_has_free_blocks(struct ext4_sb_info *sbi, s64 nblocks)
+       /* Hm, nope.  Are (enough) root reserved blocks available? */
+       if (sbi->s_resuid == current_fsuid() ||
+           ((sbi->s_resgid != 0) && in_group_p(sbi->s_resgid)) ||
+-          capable(CAP_SYS_RESOURCE)) {
++          capable_nolog(CAP_SYS_RESOURCE)) {
+               if (free_blocks >= (nblocks + dirty_blocks))
+                       return 1;
+       }
+diff --git a/fs/ext4/ext4.h b/fs/ext4/ext4.h
+index 67c46ed..1f237e5 100644
+--- a/fs/ext4/ext4.h
++++ b/fs/ext4/ext4.h
+@@ -1077,19 +1077,19 @@ struct ext4_sb_info {
+       /* stats for buddy allocator */
+       spinlock_t s_mb_pa_lock;
+-      atomic_t s_bal_reqs;    /* number of reqs with len > 1 */
+-      atomic_t s_bal_success; /* we found long enough chunks */
+-      atomic_t s_bal_allocated;       /* in blocks */
+-      atomic_t s_bal_ex_scanned;      /* total extents scanned */
+-      atomic_t s_bal_goals;   /* goal hits */
+-      atomic_t s_bal_breaks;  /* too long searches */
+-      atomic_t s_bal_2orders; /* 2^order hits */
++      atomic_unchecked_t s_bal_reqs;  /* number of reqs with len > 1 */
++      atomic_unchecked_t s_bal_success;       /* we found long enough chunks */
++      atomic_unchecked_t s_bal_allocated;     /* in blocks */
++      atomic_unchecked_t s_bal_ex_scanned;    /* total extents scanned */
++      atomic_unchecked_t s_bal_goals; /* goal hits */
++      atomic_unchecked_t s_bal_breaks;        /* too long searches */
++      atomic_unchecked_t s_bal_2orders;       /* 2^order hits */
+       spinlock_t s_bal_lock;
+       unsigned long s_mb_buddies_generated;
+       unsigned long long s_mb_generation_time;
+-      atomic_t s_mb_lost_chunks;
+-      atomic_t s_mb_preallocated;
+-      atomic_t s_mb_discarded;
++      atomic_unchecked_t s_mb_lost_chunks;
++      atomic_unchecked_t s_mb_preallocated;
++      atomic_unchecked_t s_mb_discarded;
+       atomic_t s_lock_busy;
+       /* locality groups */
+diff --git a/fs/ext4/file.c b/fs/ext4/file.c
+index 2a60541..7439d61 100644
+--- a/fs/ext4/file.c
++++ b/fs/ext4/file.c
+@@ -122,8 +122,8 @@ static int ext4_file_open(struct inode * inode, struct file * filp)
+               cp = d_path(&path, buf, sizeof(buf));
+               path_put(&path);
+               if (!IS_ERR(cp)) {
+-                      memcpy(sbi->s_es->s_last_mounted, cp,
+-                             sizeof(sbi->s_es->s_last_mounted));
++                      strlcpy(sbi->s_es->s_last_mounted, cp,
++                              sizeof(sbi->s_es->s_last_mounted));
+                       sb->s_dirt = 1;
+               }
+       }
+diff --git a/fs/ext4/mballoc.c b/fs/ext4/mballoc.c
+index 42bac1b..0aab9d8 100644
+--- a/fs/ext4/mballoc.c
++++ b/fs/ext4/mballoc.c
+@@ -1755,7 +1755,7 @@ void ext4_mb_simple_scan_group(struct ext4_allocation_context *ac,
+               BUG_ON(ac->ac_b_ex.fe_len != ac->ac_g_ex.fe_len);
+               if (EXT4_SB(sb)->s_mb_stats)
+-                      atomic_inc(&EXT4_SB(sb)->s_bal_2orders);
++                      atomic_inc_unchecked(&EXT4_SB(sb)->s_bal_2orders);
+               break;
+       }
+@@ -2131,7 +2131,7 @@ repeat:
+                       ac->ac_status = AC_STATUS_CONTINUE;
+                       ac->ac_flags |= EXT4_MB_HINT_FIRST;
+                       cr = 3;
+-                      atomic_inc(&sbi->s_mb_lost_chunks);
++                      atomic_inc_unchecked(&sbi->s_mb_lost_chunks);
+                       goto repeat;
+               }
+       }
+@@ -2174,6 +2174,8 @@ static int ext4_mb_seq_groups_show(struct seq_file *seq, void *v)
+               ext4_grpblk_t counters[16];
+       } sg;
++      pax_track_stack();
++
+       group--;
+       if (group == 0)
+               seq_printf(seq, "#%-5s: %-5s %-5s %-5s "
+@@ -2534,25 +2536,25 @@ int ext4_mb_release(struct super_block *sb)
+       if (sbi->s_mb_stats) {
+               printk(KERN_INFO
+                      "EXT4-fs: mballoc: %u blocks %u reqs (%u success)\n",
+-                              atomic_read(&sbi->s_bal_allocated),
+-                              atomic_read(&sbi->s_bal_reqs),
+-                              atomic_read(&sbi->s_bal_success));
++                              atomic_read_unchecked(&sbi->s_bal_allocated),
++                              atomic_read_unchecked(&sbi->s_bal_reqs),
++                              atomic_read_unchecked(&sbi->s_bal_success));
+               printk(KERN_INFO
+                     "EXT4-fs: mballoc: %u extents scanned, %u goal hits, "
+                               "%u 2^N hits, %u breaks, %u lost\n",
+-                              atomic_read(&sbi->s_bal_ex_scanned),
+-                              atomic_read(&sbi->s_bal_goals),
+-                              atomic_read(&sbi->s_bal_2orders),
+-                              atomic_read(&sbi->s_bal_breaks),
+-                              atomic_read(&sbi->s_mb_lost_chunks));
++                              atomic_read_unchecked(&sbi->s_bal_ex_scanned),
++                              atomic_read_unchecked(&sbi->s_bal_goals),
++                              atomic_read_unchecked(&sbi->s_bal_2orders),
++                              atomic_read_unchecked(&sbi->s_bal_breaks),
++                              atomic_read_unchecked(&sbi->s_mb_lost_chunks));
+               printk(KERN_INFO
+                      "EXT4-fs: mballoc: %lu generated and it took %Lu\n",
+                               sbi->s_mb_buddies_generated++,
+                               sbi->s_mb_generation_time);
+               printk(KERN_INFO
+                      "EXT4-fs: mballoc: %u preallocated, %u discarded\n",
+-                              atomic_read(&sbi->s_mb_preallocated),
+-                              atomic_read(&sbi->s_mb_discarded));
++                              atomic_read_unchecked(&sbi->s_mb_preallocated),
++                              atomic_read_unchecked(&sbi->s_mb_discarded));
+       }
+       free_percpu(sbi->s_locality_groups);
+@@ -3034,16 +3036,16 @@ static void ext4_mb_collect_stats(struct ext4_allocation_context *ac)
+       struct ext4_sb_info *sbi = EXT4_SB(ac->ac_sb);
+       if (sbi->s_mb_stats && ac->ac_g_ex.fe_len > 1) {
+-              atomic_inc(&sbi->s_bal_reqs);
+-              atomic_add(ac->ac_b_ex.fe_len, &sbi->s_bal_allocated);
++              atomic_inc_unchecked(&sbi->s_bal_reqs);
++              atomic_add_unchecked(ac->ac_b_ex.fe_len, &sbi->s_bal_allocated);
+               if (ac->ac_o_ex.fe_len >= ac->ac_g_ex.fe_len)
+-                      atomic_inc(&sbi->s_bal_success);
+-              atomic_add(ac->ac_found, &sbi->s_bal_ex_scanned);
++                      atomic_inc_unchecked(&sbi->s_bal_success);
++              atomic_add_unchecked(ac->ac_found, &sbi->s_bal_ex_scanned);
+               if (ac->ac_g_ex.fe_start == ac->ac_b_ex.fe_start &&
+                               ac->ac_g_ex.fe_group == ac->ac_b_ex.fe_group)
+-                      atomic_inc(&sbi->s_bal_goals);
++                      atomic_inc_unchecked(&sbi->s_bal_goals);
+               if (ac->ac_found > sbi->s_mb_max_to_scan)
+-                      atomic_inc(&sbi->s_bal_breaks);
++                      atomic_inc_unchecked(&sbi->s_bal_breaks);
+       }
+       if (ac->ac_op == EXT4_MB_HISTORY_ALLOC)
+@@ -3443,7 +3445,7 @@ ext4_mb_new_inode_pa(struct ext4_allocation_context *ac)
+       trace_ext4_mb_new_inode_pa(ac, pa);
+       ext4_mb_use_inode_pa(ac, pa);
+-      atomic_add(pa->pa_free, &EXT4_SB(sb)->s_mb_preallocated);
++      atomic_add_unchecked(pa->pa_free, &EXT4_SB(sb)->s_mb_preallocated);
+       ei = EXT4_I(ac->ac_inode);
+       grp = ext4_get_group_info(sb, ac->ac_b_ex.fe_group);
+@@ -3503,7 +3505,7 @@ ext4_mb_new_group_pa(struct ext4_allocation_context *ac)
+       trace_ext4_mb_new_group_pa(ac, pa);
+       ext4_mb_use_group_pa(ac, pa);
+-      atomic_add(pa->pa_free, &EXT4_SB(sb)->s_mb_preallocated);
++      atomic_add_unchecked(pa->pa_free, &EXT4_SB(sb)->s_mb_preallocated);
+       grp = ext4_get_group_info(sb, ac->ac_b_ex.fe_group);
+       lg = ac->ac_lg;
+@@ -3607,7 +3609,7 @@ ext4_mb_release_inode_pa(struct ext4_buddy *e4b, struct buffer_head *bitmap_bh,
+                * from the bitmap and continue.
+                */
+       }
+-      atomic_add(free, &sbi->s_mb_discarded);
++      atomic_add_unchecked(free, &sbi->s_mb_discarded);
+       return err;
+ }
+@@ -3626,7 +3628,7 @@ ext4_mb_release_group_pa(struct ext4_buddy *e4b,
+       ext4_get_group_no_and_offset(sb, pa->pa_pstart, &group, &bit);
+       BUG_ON(group != e4b->bd_group && pa->pa_len != 0);
+       mb_free_blocks(pa->pa_inode, e4b, bit, pa->pa_len);
+-      atomic_add(pa->pa_len, &EXT4_SB(sb)->s_mb_discarded);
++      atomic_add_unchecked(pa->pa_len, &EXT4_SB(sb)->s_mb_discarded);
+       if (ac) {
+               ac->ac_sb = sb;
+diff --git a/fs/ext4/super.c b/fs/ext4/super.c
+index f1e7077..edd86b2 100644
+--- a/fs/ext4/super.c
++++ b/fs/ext4/super.c
+@@ -2286,7 +2286,7 @@ static void ext4_sb_release(struct kobject *kobj)
+ }
+-static struct sysfs_ops ext4_attr_ops = {
++static const struct sysfs_ops ext4_attr_ops = {
+       .show   = ext4_attr_show,
+       .store  = ext4_attr_store,
+ };
+diff --git a/fs/fcntl.c b/fs/fcntl.c
+index 97e01dc..e9aab2d 100644
+--- a/fs/fcntl.c
++++ b/fs/fcntl.c
+@@ -223,6 +223,11 @@ int __f_setown(struct file *filp, struct pid *pid, enum pid_type type,
+       if (err)
+               return err;
++      if (gr_handle_chroot_fowner(pid, type))
++              return -ENOENT;
++      if (gr_check_protected_task_fowner(pid, type))
++              return -EACCES;
++
+       f_modown(filp, pid, type, force);
+       return 0;
+ }
+@@ -265,7 +270,7 @@ pid_t f_getown(struct file *filp)
+ static int f_setown_ex(struct file *filp, unsigned long arg)
+ {
+-      struct f_owner_ex * __user owner_p = (void * __user)arg;
++      struct f_owner_ex __user *owner_p = (void __user *)arg;
+       struct f_owner_ex owner;
+       struct pid *pid;
+       int type;
+@@ -305,7 +310,7 @@ static int f_setown_ex(struct file *filp, unsigned long arg)
+ static int f_getown_ex(struct file *filp, unsigned long arg)
+ {
+-      struct f_owner_ex * __user owner_p = (void * __user)arg;
++      struct f_owner_ex __user *owner_p = (void __user *)arg;
+       struct f_owner_ex owner;
+       int ret = 0;
+@@ -344,6 +349,7 @@ static long do_fcntl(int fd, unsigned int cmd, unsigned long arg,
+       switch (cmd) {
+       case F_DUPFD:
+       case F_DUPFD_CLOEXEC:
++              gr_learn_resource(current, RLIMIT_NOFILE, arg, 0);
+               if (arg >= current->signal->rlim[RLIMIT_NOFILE].rlim_cur)
+                       break;
+               err = alloc_fd(arg, cmd == F_DUPFD_CLOEXEC ? O_CLOEXEC : 0);
+diff --git a/fs/fifo.c b/fs/fifo.c
+index f8f97b8..b1f2259 100644
+--- a/fs/fifo.c
++++ b/fs/fifo.c
+@@ -59,10 +59,10 @@ static int fifo_open(struct inode *inode, struct file *filp)
+        */
+               filp->f_op = &read_pipefifo_fops;
+               pipe->r_counter++;
+-              if (pipe->readers++ == 0)
++              if (atomic_inc_return(&pipe->readers) == 1)
+                       wake_up_partner(inode);
+-              if (!pipe->writers) {
++              if (!atomic_read(&pipe->writers)) {
+                       if ((filp->f_flags & O_NONBLOCK)) {
+                               /* suppress POLLHUP until we have
+                                * seen a writer */
+@@ -83,15 +83,15 @@ static int fifo_open(struct inode *inode, struct file *filp)
+        *  errno=ENXIO when there is no process reading the FIFO.
+        */
+               ret = -ENXIO;
+-              if ((filp->f_flags & O_NONBLOCK) && !pipe->readers)
++              if ((filp->f_flags & O_NONBLOCK) && !atomic_read(&pipe->readers))
+                       goto err;
+               filp->f_op = &write_pipefifo_fops;
+               pipe->w_counter++;
+-              if (!pipe->writers++)
++              if (atomic_inc_return(&pipe->writers) == 1)
+                       wake_up_partner(inode);
+-              if (!pipe->readers) {
++              if (!atomic_read(&pipe->readers)) {
+                       wait_for_partner(inode, &pipe->r_counter);
+                       if (signal_pending(current))
+                               goto err_wr;
+@@ -107,11 +107,11 @@ static int fifo_open(struct inode *inode, struct file *filp)
+        */
+               filp->f_op = &rdwr_pipefifo_fops;
+-              pipe->readers++;
+-              pipe->writers++;
++              atomic_inc(&pipe->readers);
++              atomic_inc(&pipe->writers);
+               pipe->r_counter++;
+               pipe->w_counter++;
+-              if (pipe->readers == 1 || pipe->writers == 1)
++              if (atomic_read(&pipe->readers) == 1 || atomic_read(&pipe->writers) == 1)
+                       wake_up_partner(inode);
+               break;
+@@ -125,19 +125,19 @@ static int fifo_open(struct inode *inode, struct file *filp)
+       return 0;
+ err_rd:
+-      if (!--pipe->readers)
++      if (atomic_dec_and_test(&pipe->readers))
+               wake_up_interruptible(&pipe->wait);
+       ret = -ERESTARTSYS;
+       goto err;
+ err_wr:
+-      if (!--pipe->writers)
++      if (atomic_dec_and_test(&pipe->writers))
+               wake_up_interruptible(&pipe->wait);
+       ret = -ERESTARTSYS;
+       goto err;
+ err:
+-      if (!pipe->readers && !pipe->writers)
++      if (!atomic_read(&pipe->readers) && !atomic_read(&pipe->writers))
+               free_pipe_info(inode);
+ err_nocleanup:
+diff --git a/fs/file.c b/fs/file.c
+index 87e1290..a930cc4 100644
+--- a/fs/file.c
++++ b/fs/file.c
+@@ -14,6 +14,7 @@
+ #include <linux/slab.h>
+ #include <linux/vmalloc.h>
+ #include <linux/file.h>
++#include <linux/security.h>
+ #include <linux/fdtable.h>
+ #include <linux/bitops.h>
+ #include <linux/interrupt.h>
+@@ -257,6 +258,8 @@ int expand_files(struct files_struct *files, int nr)
+        * N.B. For clone tasks sharing a files structure, this test
+        * will limit the total number of files that can be opened.
+        */
++
++      gr_learn_resource(current, RLIMIT_NOFILE, nr, 0);
+       if (nr >= current->signal->rlim[RLIMIT_NOFILE].rlim_cur)
+               return -EMFILE;
+diff --git a/fs/filesystems.c b/fs/filesystems.c
+index a24c58e..53f91ee 100644
+--- a/fs/filesystems.c
++++ b/fs/filesystems.c
+@@ -272,7 +272,12 @@ struct file_system_type *get_fs_type(const char *name)
+       int len = dot ? dot - name : strlen(name);
+       fs = __get_fs_type(name, len);
++
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++      if (!fs && (___request_module(true, "grsec_modharden_fs", "%.*s", len, name) == 0))
++#else
+       if (!fs && (request_module("%.*s", len, name) == 0))
++#endif
+               fs = __get_fs_type(name, len);
+       if (dot && fs && !(fs->fs_flags & FS_HAS_SUBTYPE)) {
+diff --git a/fs/fs_struct.c b/fs/fs_struct.c
+index eee0590..ef5bc0e 100644
+--- a/fs/fs_struct.c
++++ b/fs/fs_struct.c
+@@ -4,6 +4,7 @@
+ #include <linux/path.h>
+ #include <linux/slab.h>
+ #include <linux/fs_struct.h>
++#include <linux/grsecurity.h>
+ /*
+  * Replace the fs->{rootmnt,root} with {mnt,dentry}. Put the old values.
+@@ -17,6 +18,7 @@ void set_fs_root(struct fs_struct *fs, struct path *path)
+       old_root = fs->root;
+       fs->root = *path;
+       path_get(path);
++      gr_set_chroot_entries(current, path);
+       write_unlock(&fs->lock);
+       if (old_root.dentry)
+               path_put(&old_root);
+@@ -56,6 +58,7 @@ void chroot_fs_refs(struct path *old_root, struct path *new_root)
+                           && fs->root.mnt == old_root->mnt) {
+                               path_get(new_root);
+                               fs->root = *new_root;
++                              gr_set_chroot_entries(p, new_root);
+                               count++;
+                       }
+                       if (fs->pwd.dentry == old_root->dentry
+@@ -89,7 +92,8 @@ void exit_fs(struct task_struct *tsk)
+               task_lock(tsk);
+               write_lock(&fs->lock);
+               tsk->fs = NULL;
+-              kill = !--fs->users;
++              gr_clear_chroot_entries(tsk);
++              kill = !atomic_dec_return(&fs->users);
+               write_unlock(&fs->lock);
+               task_unlock(tsk);
+               if (kill)
+@@ -102,7 +106,7 @@ struct fs_struct *copy_fs_struct(struct fs_struct *old)
+       struct fs_struct *fs = kmem_cache_alloc(fs_cachep, GFP_KERNEL);
+       /* We don't need to lock fs - think why ;-) */
+       if (fs) {
+-              fs->users = 1;
++              atomic_set(&fs->users, 1);
+               fs->in_exec = 0;
+               rwlock_init(&fs->lock);
+               fs->umask = old->umask;
+@@ -127,8 +131,9 @@ int unshare_fs_struct(void)
+       task_lock(current);
+       write_lock(&fs->lock);
+-      kill = !--fs->users;
++      kill = !atomic_dec_return(&fs->users);
+       current->fs = new_fs;
++      gr_set_chroot_entries(current, &new_fs->root);
+       write_unlock(&fs->lock);
+       task_unlock(current);
+@@ -147,7 +152,7 @@ EXPORT_SYMBOL(current_umask);
+ /* to be mentioned only in INIT_TASK */
+ struct fs_struct init_fs = {
+-      .users          = 1,
++      .users          = ATOMIC_INIT(1),
+       .lock           = __RW_LOCK_UNLOCKED(init_fs.lock),
+       .umask          = 0022,
+ };
+@@ -162,12 +167,13 @@ void daemonize_fs_struct(void)
+               task_lock(current);
+               write_lock(&init_fs.lock);
+-              init_fs.users++;
++              atomic_inc(&init_fs.users);
+               write_unlock(&init_fs.lock);
+               write_lock(&fs->lock);
+               current->fs = &init_fs;
+-              kill = !--fs->users;
++              gr_set_chroot_entries(current, &current->fs->root);
++              kill = !atomic_dec_return(&fs->users);
+               write_unlock(&fs->lock);
+               task_unlock(current);
+diff --git a/fs/fscache/cookie.c b/fs/fscache/cookie.c
+index 9905350..02eaec4 100644
+--- a/fs/fscache/cookie.c
++++ b/fs/fscache/cookie.c
+@@ -68,11 +68,11 @@ struct fscache_cookie *__fscache_acquire_cookie(
+              parent ? (char *) parent->def->name : "<no-parent>",
+              def->name, netfs_data);
+-      fscache_stat(&fscache_n_acquires);
++      fscache_stat_unchecked(&fscache_n_acquires);
+       /* if there's no parent cookie, then we don't create one here either */
+       if (!parent) {
+-              fscache_stat(&fscache_n_acquires_null);
++              fscache_stat_unchecked(&fscache_n_acquires_null);
+               _leave(" [no parent]");
+               return NULL;
+       }
+@@ -87,7 +87,7 @@ struct fscache_cookie *__fscache_acquire_cookie(
+       /* allocate and initialise a cookie */
+       cookie = kmem_cache_alloc(fscache_cookie_jar, GFP_KERNEL);
+       if (!cookie) {
+-              fscache_stat(&fscache_n_acquires_oom);
++              fscache_stat_unchecked(&fscache_n_acquires_oom);
+               _leave(" [ENOMEM]");
+               return NULL;
+       }
+@@ -109,13 +109,13 @@ struct fscache_cookie *__fscache_acquire_cookie(
+       switch (cookie->def->type) {
+       case FSCACHE_COOKIE_TYPE_INDEX:
+-              fscache_stat(&fscache_n_cookie_index);
++              fscache_stat_unchecked(&fscache_n_cookie_index);
+               break;
+       case FSCACHE_COOKIE_TYPE_DATAFILE:
+-              fscache_stat(&fscache_n_cookie_data);
++              fscache_stat_unchecked(&fscache_n_cookie_data);
+               break;
+       default:
+-              fscache_stat(&fscache_n_cookie_special);
++              fscache_stat_unchecked(&fscache_n_cookie_special);
+               break;
+       }
+@@ -126,13 +126,13 @@ struct fscache_cookie *__fscache_acquire_cookie(
+               if (fscache_acquire_non_index_cookie(cookie) < 0) {
+                       atomic_dec(&parent->n_children);
+                       __fscache_cookie_put(cookie);
+-                      fscache_stat(&fscache_n_acquires_nobufs);
++                      fscache_stat_unchecked(&fscache_n_acquires_nobufs);
+                       _leave(" = NULL");
+                       return NULL;
+               }
+       }
+-      fscache_stat(&fscache_n_acquires_ok);
++      fscache_stat_unchecked(&fscache_n_acquires_ok);
+       _leave(" = %p", cookie);
+       return cookie;
+ }
+@@ -168,7 +168,7 @@ static int fscache_acquire_non_index_cookie(struct fscache_cookie *cookie)
+       cache = fscache_select_cache_for_object(cookie->parent);
+       if (!cache) {
+               up_read(&fscache_addremove_sem);
+-              fscache_stat(&fscache_n_acquires_no_cache);
++              fscache_stat_unchecked(&fscache_n_acquires_no_cache);
+               _leave(" = -ENOMEDIUM [no cache]");
+               return -ENOMEDIUM;
+       }
+@@ -256,12 +256,12 @@ static int fscache_alloc_object(struct fscache_cache *cache,
+       object = cache->ops->alloc_object(cache, cookie);
+       fscache_stat_d(&fscache_n_cop_alloc_object);
+       if (IS_ERR(object)) {
+-              fscache_stat(&fscache_n_object_no_alloc);
++              fscache_stat_unchecked(&fscache_n_object_no_alloc);
+               ret = PTR_ERR(object);
+               goto error;
+       }
+-      fscache_stat(&fscache_n_object_alloc);
++      fscache_stat_unchecked(&fscache_n_object_alloc);
+       object->debug_id = atomic_inc_return(&fscache_object_debug_id);
+@@ -377,10 +377,10 @@ void __fscache_update_cookie(struct fscache_cookie *cookie)
+       struct fscache_object *object;
+       struct hlist_node *_p;
+-      fscache_stat(&fscache_n_updates);
++      fscache_stat_unchecked(&fscache_n_updates);
+       if (!cookie) {
+-              fscache_stat(&fscache_n_updates_null);
++              fscache_stat_unchecked(&fscache_n_updates_null);
+               _leave(" [no cookie]");
+               return;
+       }
+@@ -414,12 +414,12 @@ void __fscache_relinquish_cookie(struct fscache_cookie *cookie, int retire)
+       struct fscache_object *object;
+       unsigned long event;
+-      fscache_stat(&fscache_n_relinquishes);
++      fscache_stat_unchecked(&fscache_n_relinquishes);
+       if (retire)
+-              fscache_stat(&fscache_n_relinquishes_retire);
++              fscache_stat_unchecked(&fscache_n_relinquishes_retire);
+       if (!cookie) {
+-              fscache_stat(&fscache_n_relinquishes_null);
++              fscache_stat_unchecked(&fscache_n_relinquishes_null);
+               _leave(" [no cookie]");
+               return;
+       }
+@@ -435,7 +435,7 @@ void __fscache_relinquish_cookie(struct fscache_cookie *cookie, int retire)
+       /* wait for the cookie to finish being instantiated (or to fail) */
+       if (test_bit(FSCACHE_COOKIE_CREATING, &cookie->flags)) {
+-              fscache_stat(&fscache_n_relinquishes_waitcrt);
++              fscache_stat_unchecked(&fscache_n_relinquishes_waitcrt);
+               wait_on_bit(&cookie->flags, FSCACHE_COOKIE_CREATING,
+                           fscache_wait_bit, TASK_UNINTERRUPTIBLE);
+       }
+diff --git a/fs/fscache/internal.h b/fs/fscache/internal.h
+index edd7434..0725e66 100644
+--- a/fs/fscache/internal.h
++++ b/fs/fscache/internal.h
+@@ -136,94 +136,94 @@ extern void fscache_proc_cleanup(void);
+ extern atomic_t fscache_n_ops_processed[FSCACHE_MAX_THREADS];
+ extern atomic_t fscache_n_objs_processed[FSCACHE_MAX_THREADS];
+-extern atomic_t fscache_n_op_pend;
+-extern atomic_t fscache_n_op_run;
+-extern atomic_t fscache_n_op_enqueue;
+-extern atomic_t fscache_n_op_deferred_release;
+-extern atomic_t fscache_n_op_release;
+-extern atomic_t fscache_n_op_gc;
+-extern atomic_t fscache_n_op_cancelled;
+-extern atomic_t fscache_n_op_rejected;
++extern atomic_unchecked_t fscache_n_op_pend;
++extern atomic_unchecked_t fscache_n_op_run;
++extern atomic_unchecked_t fscache_n_op_enqueue;
++extern atomic_unchecked_t fscache_n_op_deferred_release;
++extern atomic_unchecked_t fscache_n_op_release;
++extern atomic_unchecked_t fscache_n_op_gc;
++extern atomic_unchecked_t fscache_n_op_cancelled;
++extern atomic_unchecked_t fscache_n_op_rejected;
+-extern atomic_t fscache_n_attr_changed;
+-extern atomic_t fscache_n_attr_changed_ok;
+-extern atomic_t fscache_n_attr_changed_nobufs;
+-extern atomic_t fscache_n_attr_changed_nomem;
+-extern atomic_t fscache_n_attr_changed_calls;
++extern atomic_unchecked_t fscache_n_attr_changed;
++extern atomic_unchecked_t fscache_n_attr_changed_ok;
++extern atomic_unchecked_t fscache_n_attr_changed_nobufs;
++extern atomic_unchecked_t fscache_n_attr_changed_nomem;
++extern atomic_unchecked_t fscache_n_attr_changed_calls;
+-extern atomic_t fscache_n_allocs;
+-extern atomic_t fscache_n_allocs_ok;
+-extern atomic_t fscache_n_allocs_wait;
+-extern atomic_t fscache_n_allocs_nobufs;
+-extern atomic_t fscache_n_allocs_intr;
+-extern atomic_t fscache_n_allocs_object_dead;
+-extern atomic_t fscache_n_alloc_ops;
+-extern atomic_t fscache_n_alloc_op_waits;
++extern atomic_unchecked_t fscache_n_allocs;
++extern atomic_unchecked_t fscache_n_allocs_ok;
++extern atomic_unchecked_t fscache_n_allocs_wait;
++extern atomic_unchecked_t fscache_n_allocs_nobufs;
++extern atomic_unchecked_t fscache_n_allocs_intr;
++extern atomic_unchecked_t fscache_n_allocs_object_dead;
++extern atomic_unchecked_t fscache_n_alloc_ops;
++extern atomic_unchecked_t fscache_n_alloc_op_waits;
+-extern atomic_t fscache_n_retrievals;
+-extern atomic_t fscache_n_retrievals_ok;
+-extern atomic_t fscache_n_retrievals_wait;
+-extern atomic_t fscache_n_retrievals_nodata;
+-extern atomic_t fscache_n_retrievals_nobufs;
+-extern atomic_t fscache_n_retrievals_intr;
+-extern atomic_t fscache_n_retrievals_nomem;
+-extern atomic_t fscache_n_retrievals_object_dead;
+-extern atomic_t fscache_n_retrieval_ops;
+-extern atomic_t fscache_n_retrieval_op_waits;
++extern atomic_unchecked_t fscache_n_retrievals;
++extern atomic_unchecked_t fscache_n_retrievals_ok;
++extern atomic_unchecked_t fscache_n_retrievals_wait;
++extern atomic_unchecked_t fscache_n_retrievals_nodata;
++extern atomic_unchecked_t fscache_n_retrievals_nobufs;
++extern atomic_unchecked_t fscache_n_retrievals_intr;
++extern atomic_unchecked_t fscache_n_retrievals_nomem;
++extern atomic_unchecked_t fscache_n_retrievals_object_dead;
++extern atomic_unchecked_t fscache_n_retrieval_ops;
++extern atomic_unchecked_t fscache_n_retrieval_op_waits;
+-extern atomic_t fscache_n_stores;
+-extern atomic_t fscache_n_stores_ok;
+-extern atomic_t fscache_n_stores_again;
+-extern atomic_t fscache_n_stores_nobufs;
+-extern atomic_t fscache_n_stores_oom;
+-extern atomic_t fscache_n_store_ops;
+-extern atomic_t fscache_n_store_calls;
+-extern atomic_t fscache_n_store_pages;
+-extern atomic_t fscache_n_store_radix_deletes;
+-extern atomic_t fscache_n_store_pages_over_limit;
++extern atomic_unchecked_t fscache_n_stores;
++extern atomic_unchecked_t fscache_n_stores_ok;
++extern atomic_unchecked_t fscache_n_stores_again;
++extern atomic_unchecked_t fscache_n_stores_nobufs;
++extern atomic_unchecked_t fscache_n_stores_oom;
++extern atomic_unchecked_t fscache_n_store_ops;
++extern atomic_unchecked_t fscache_n_store_calls;
++extern atomic_unchecked_t fscache_n_store_pages;
++extern atomic_unchecked_t fscache_n_store_radix_deletes;
++extern atomic_unchecked_t fscache_n_store_pages_over_limit;
+-extern atomic_t fscache_n_store_vmscan_not_storing;
+-extern atomic_t fscache_n_store_vmscan_gone;
+-extern atomic_t fscache_n_store_vmscan_busy;
+-extern atomic_t fscache_n_store_vmscan_cancelled;
++extern atomic_unchecked_t fscache_n_store_vmscan_not_storing;
++extern atomic_unchecked_t fscache_n_store_vmscan_gone;
++extern atomic_unchecked_t fscache_n_store_vmscan_busy;
++extern atomic_unchecked_t fscache_n_store_vmscan_cancelled;
+-extern atomic_t fscache_n_marks;
+-extern atomic_t fscache_n_uncaches;
++extern atomic_unchecked_t fscache_n_marks;
++extern atomic_unchecked_t fscache_n_uncaches;
+-extern atomic_t fscache_n_acquires;
+-extern atomic_t fscache_n_acquires_null;
+-extern atomic_t fscache_n_acquires_no_cache;
+-extern atomic_t fscache_n_acquires_ok;
+-extern atomic_t fscache_n_acquires_nobufs;
+-extern atomic_t fscache_n_acquires_oom;
++extern atomic_unchecked_t fscache_n_acquires;
++extern atomic_unchecked_t fscache_n_acquires_null;
++extern atomic_unchecked_t fscache_n_acquires_no_cache;
++extern atomic_unchecked_t fscache_n_acquires_ok;
++extern atomic_unchecked_t fscache_n_acquires_nobufs;
++extern atomic_unchecked_t fscache_n_acquires_oom;
+-extern atomic_t fscache_n_updates;
+-extern atomic_t fscache_n_updates_null;
+-extern atomic_t fscache_n_updates_run;
++extern atomic_unchecked_t fscache_n_updates;
++extern atomic_unchecked_t fscache_n_updates_null;
++extern atomic_unchecked_t fscache_n_updates_run;
+-extern atomic_t fscache_n_relinquishes;
+-extern atomic_t fscache_n_relinquishes_null;
+-extern atomic_t fscache_n_relinquishes_waitcrt;
+-extern atomic_t fscache_n_relinquishes_retire;
++extern atomic_unchecked_t fscache_n_relinquishes;
++extern atomic_unchecked_t fscache_n_relinquishes_null;
++extern atomic_unchecked_t fscache_n_relinquishes_waitcrt;
++extern atomic_unchecked_t fscache_n_relinquishes_retire;
+-extern atomic_t fscache_n_cookie_index;
+-extern atomic_t fscache_n_cookie_data;
+-extern atomic_t fscache_n_cookie_special;
++extern atomic_unchecked_t fscache_n_cookie_index;
++extern atomic_unchecked_t fscache_n_cookie_data;
++extern atomic_unchecked_t fscache_n_cookie_special;
+-extern atomic_t fscache_n_object_alloc;
+-extern atomic_t fscache_n_object_no_alloc;
+-extern atomic_t fscache_n_object_lookups;
+-extern atomic_t fscache_n_object_lookups_negative;
+-extern atomic_t fscache_n_object_lookups_positive;
+-extern atomic_t fscache_n_object_lookups_timed_out;
+-extern atomic_t fscache_n_object_created;
+-extern atomic_t fscache_n_object_avail;
+-extern atomic_t fscache_n_object_dead;
++extern atomic_unchecked_t fscache_n_object_alloc;
++extern atomic_unchecked_t fscache_n_object_no_alloc;
++extern atomic_unchecked_t fscache_n_object_lookups;
++extern atomic_unchecked_t fscache_n_object_lookups_negative;
++extern atomic_unchecked_t fscache_n_object_lookups_positive;
++extern atomic_unchecked_t fscache_n_object_lookups_timed_out;
++extern atomic_unchecked_t fscache_n_object_created;
++extern atomic_unchecked_t fscache_n_object_avail;
++extern atomic_unchecked_t fscache_n_object_dead;
+-extern atomic_t fscache_n_checkaux_none;
+-extern atomic_t fscache_n_checkaux_okay;
+-extern atomic_t fscache_n_checkaux_update;
+-extern atomic_t fscache_n_checkaux_obsolete;
++extern atomic_unchecked_t fscache_n_checkaux_none;
++extern atomic_unchecked_t fscache_n_checkaux_okay;
++extern atomic_unchecked_t fscache_n_checkaux_update;
++extern atomic_unchecked_t fscache_n_checkaux_obsolete;
+ extern atomic_t fscache_n_cop_alloc_object;
+ extern atomic_t fscache_n_cop_lookup_object;
+@@ -247,6 +247,11 @@ static inline void fscache_stat(atomic_t *stat)
+       atomic_inc(stat);
+ }
++static inline void fscache_stat_unchecked(atomic_unchecked_t *stat)
++{
++      atomic_inc_unchecked(stat);
++}
++
+ static inline void fscache_stat_d(atomic_t *stat)
+ {
+       atomic_dec(stat);
+@@ -259,6 +264,7 @@ extern const struct file_operations fscache_stats_fops;
+ #define __fscache_stat(stat) (NULL)
+ #define fscache_stat(stat) do {} while (0)
++#define fscache_stat_unchecked(stat) do {} while (0)
+ #define fscache_stat_d(stat) do {} while (0)
+ #endif
+diff --git a/fs/fscache/object.c b/fs/fscache/object.c
+index e513ac5..e888d34 100644
+--- a/fs/fscache/object.c
++++ b/fs/fscache/object.c
+@@ -144,7 +144,7 @@ static void fscache_object_state_machine(struct fscache_object *object)
+               /* update the object metadata on disk */
+       case FSCACHE_OBJECT_UPDATING:
+               clear_bit(FSCACHE_OBJECT_EV_UPDATE, &object->events);
+-              fscache_stat(&fscache_n_updates_run);
++              fscache_stat_unchecked(&fscache_n_updates_run);
+               fscache_stat(&fscache_n_cop_update_object);
+               object->cache->ops->update_object(object);
+               fscache_stat_d(&fscache_n_cop_update_object);
+@@ -233,7 +233,7 @@ static void fscache_object_state_machine(struct fscache_object *object)
+               spin_lock(&object->lock);
+               object->state = FSCACHE_OBJECT_DEAD;
+               spin_unlock(&object->lock);
+-              fscache_stat(&fscache_n_object_dead);
++              fscache_stat_unchecked(&fscache_n_object_dead);
+               goto terminal_transit;
+               /* handle the parent cache of this object being withdrawn from
+@@ -248,7 +248,7 @@ static void fscache_object_state_machine(struct fscache_object *object)
+               spin_lock(&object->lock);
+               object->state = FSCACHE_OBJECT_DEAD;
+               spin_unlock(&object->lock);
+-              fscache_stat(&fscache_n_object_dead);
++              fscache_stat_unchecked(&fscache_n_object_dead);
+               goto terminal_transit;
+               /* complain about the object being woken up once it is
+@@ -492,7 +492,7 @@ static void fscache_lookup_object(struct fscache_object *object)
+              parent->cookie->def->name, cookie->def->name,
+              object->cache->tag->name);
+-      fscache_stat(&fscache_n_object_lookups);
++      fscache_stat_unchecked(&fscache_n_object_lookups);
+       fscache_stat(&fscache_n_cop_lookup_object);
+       ret = object->cache->ops->lookup_object(object);
+       fscache_stat_d(&fscache_n_cop_lookup_object);
+@@ -503,7 +503,7 @@ static void fscache_lookup_object(struct fscache_object *object)
+       if (ret == -ETIMEDOUT) {
+               /* probably stuck behind another object, so move this one to
+                * the back of the queue */
+-              fscache_stat(&fscache_n_object_lookups_timed_out);
++              fscache_stat_unchecked(&fscache_n_object_lookups_timed_out);
+               set_bit(FSCACHE_OBJECT_EV_REQUEUE, &object->events);
+       }
+@@ -526,7 +526,7 @@ void fscache_object_lookup_negative(struct fscache_object *object)
+       spin_lock(&object->lock);
+       if (object->state == FSCACHE_OBJECT_LOOKING_UP) {
+-              fscache_stat(&fscache_n_object_lookups_negative);
++              fscache_stat_unchecked(&fscache_n_object_lookups_negative);
+               /* transit here to allow write requests to begin stacking up
+                * and read requests to begin returning ENODATA */
+@@ -572,7 +572,7 @@ void fscache_obtained_object(struct fscache_object *object)
+        * result, in which case there may be data available */
+       spin_lock(&object->lock);
+       if (object->state == FSCACHE_OBJECT_LOOKING_UP) {
+-              fscache_stat(&fscache_n_object_lookups_positive);
++              fscache_stat_unchecked(&fscache_n_object_lookups_positive);
+               clear_bit(FSCACHE_COOKIE_NO_DATA_YET, &cookie->flags);
+@@ -586,7 +586,7 @@ void fscache_obtained_object(struct fscache_object *object)
+               set_bit(FSCACHE_OBJECT_EV_REQUEUE, &object->events);
+       } else {
+               ASSERTCMP(object->state, ==, FSCACHE_OBJECT_CREATING);
+-              fscache_stat(&fscache_n_object_created);
++              fscache_stat_unchecked(&fscache_n_object_created);
+               object->state = FSCACHE_OBJECT_AVAILABLE;
+               spin_unlock(&object->lock);
+@@ -633,7 +633,7 @@ static void fscache_object_available(struct fscache_object *object)
+       fscache_enqueue_dependents(object);
+       fscache_hist(fscache_obj_instantiate_histogram, object->lookup_jif);
+-      fscache_stat(&fscache_n_object_avail);
++      fscache_stat_unchecked(&fscache_n_object_avail);
+       _leave("");
+ }
+@@ -861,7 +861,7 @@ enum fscache_checkaux fscache_check_aux(struct fscache_object *object,
+       enum fscache_checkaux result;
+       if (!object->cookie->def->check_aux) {
+-              fscache_stat(&fscache_n_checkaux_none);
++              fscache_stat_unchecked(&fscache_n_checkaux_none);
+               return FSCACHE_CHECKAUX_OKAY;
+       }
+@@ -870,17 +870,17 @@ enum fscache_checkaux fscache_check_aux(struct fscache_object *object,
+       switch (result) {
+               /* entry okay as is */
+       case FSCACHE_CHECKAUX_OKAY:
+-              fscache_stat(&fscache_n_checkaux_okay);
++              fscache_stat_unchecked(&fscache_n_checkaux_okay);
+               break;
+               /* entry requires update */
+       case FSCACHE_CHECKAUX_NEEDS_UPDATE:
+-              fscache_stat(&fscache_n_checkaux_update);
++              fscache_stat_unchecked(&fscache_n_checkaux_update);
+               break;
+               /* entry requires deletion */
+       case FSCACHE_CHECKAUX_OBSOLETE:
+-              fscache_stat(&fscache_n_checkaux_obsolete);
++              fscache_stat_unchecked(&fscache_n_checkaux_obsolete);
+               break;
+       default:
+diff --git a/fs/fscache/operation.c b/fs/fscache/operation.c
+index 313e79a..775240f 100644
+--- a/fs/fscache/operation.c
++++ b/fs/fscache/operation.c
+@@ -16,7 +16,7 @@
+ #include <linux/seq_file.h>
+ #include "internal.h"
+-atomic_t fscache_op_debug_id;
++atomic_unchecked_t fscache_op_debug_id;
+ EXPORT_SYMBOL(fscache_op_debug_id);
+ /**
+@@ -39,7 +39,7 @@ void fscache_enqueue_operation(struct fscache_operation *op)
+       ASSERTCMP(op->object->state, >=, FSCACHE_OBJECT_AVAILABLE);
+       ASSERTCMP(atomic_read(&op->usage), >, 0);
+-      fscache_stat(&fscache_n_op_enqueue);
++      fscache_stat_unchecked(&fscache_n_op_enqueue);
+       switch (op->flags & FSCACHE_OP_TYPE) {
+       case FSCACHE_OP_FAST:
+               _debug("queue fast");
+@@ -76,7 +76,7 @@ static void fscache_run_op(struct fscache_object *object,
+               wake_up_bit(&op->flags, FSCACHE_OP_WAITING);
+       if (op->processor)
+               fscache_enqueue_operation(op);
+-      fscache_stat(&fscache_n_op_run);
++      fscache_stat_unchecked(&fscache_n_op_run);
+ }
+ /*
+@@ -107,11 +107,11 @@ int fscache_submit_exclusive_op(struct fscache_object *object,
+               if (object->n_ops > 0) {
+                       atomic_inc(&op->usage);
+                       list_add_tail(&op->pend_link, &object->pending_ops);
+-                      fscache_stat(&fscache_n_op_pend);
++                      fscache_stat_unchecked(&fscache_n_op_pend);
+               } else if (!list_empty(&object->pending_ops)) {
+                       atomic_inc(&op->usage);
+                       list_add_tail(&op->pend_link, &object->pending_ops);
+-                      fscache_stat(&fscache_n_op_pend);
++                      fscache_stat_unchecked(&fscache_n_op_pend);
+                       fscache_start_operations(object);
+               } else {
+                       ASSERTCMP(object->n_in_progress, ==, 0);
+@@ -127,7 +127,7 @@ int fscache_submit_exclusive_op(struct fscache_object *object,
+               object->n_exclusive++;  /* reads and writes must wait */
+               atomic_inc(&op->usage);
+               list_add_tail(&op->pend_link, &object->pending_ops);
+-              fscache_stat(&fscache_n_op_pend);
++              fscache_stat_unchecked(&fscache_n_op_pend);
+               ret = 0;
+       } else {
+               /* not allowed to submit ops in any other state */
+@@ -214,11 +214,11 @@ int fscache_submit_op(struct fscache_object *object,
+               if (object->n_exclusive > 0) {
+                       atomic_inc(&op->usage);
+                       list_add_tail(&op->pend_link, &object->pending_ops);
+-                      fscache_stat(&fscache_n_op_pend);
++                      fscache_stat_unchecked(&fscache_n_op_pend);
+               } else if (!list_empty(&object->pending_ops)) {
+                       atomic_inc(&op->usage);
+                       list_add_tail(&op->pend_link, &object->pending_ops);
+-                      fscache_stat(&fscache_n_op_pend);
++                      fscache_stat_unchecked(&fscache_n_op_pend);
+                       fscache_start_operations(object);
+               } else {
+                       ASSERTCMP(object->n_exclusive, ==, 0);
+@@ -230,12 +230,12 @@ int fscache_submit_op(struct fscache_object *object,
+               object->n_ops++;
+               atomic_inc(&op->usage);
+               list_add_tail(&op->pend_link, &object->pending_ops);
+-              fscache_stat(&fscache_n_op_pend);
++              fscache_stat_unchecked(&fscache_n_op_pend);
+               ret = 0;
+       } else if (object->state == FSCACHE_OBJECT_DYING ||
+                  object->state == FSCACHE_OBJECT_LC_DYING ||
+                  object->state == FSCACHE_OBJECT_WITHDRAWING) {
+-              fscache_stat(&fscache_n_op_rejected);
++              fscache_stat_unchecked(&fscache_n_op_rejected);
+               ret = -ENOBUFS;
+       } else if (!test_bit(FSCACHE_IOERROR, &object->cache->flags)) {
+               fscache_report_unexpected_submission(object, op, ostate);
+@@ -305,7 +305,7 @@ int fscache_cancel_op(struct fscache_operation *op)
+       ret = -EBUSY;
+       if (!list_empty(&op->pend_link)) {
+-              fscache_stat(&fscache_n_op_cancelled);
++              fscache_stat_unchecked(&fscache_n_op_cancelled);
+               list_del_init(&op->pend_link);
+               object->n_ops--;
+               if (test_bit(FSCACHE_OP_EXCLUSIVE, &op->flags))
+@@ -344,7 +344,7 @@ void fscache_put_operation(struct fscache_operation *op)
+       if (test_and_set_bit(FSCACHE_OP_DEAD, &op->flags))
+               BUG();
+-      fscache_stat(&fscache_n_op_release);
++      fscache_stat_unchecked(&fscache_n_op_release);
+       if (op->release) {
+               op->release(op);
+@@ -361,7 +361,7 @@ void fscache_put_operation(struct fscache_operation *op)
+        * lock, and defer it otherwise */
+       if (!spin_trylock(&object->lock)) {
+               _debug("defer put");
+-              fscache_stat(&fscache_n_op_deferred_release);
++              fscache_stat_unchecked(&fscache_n_op_deferred_release);
+               cache = object->cache;
+               spin_lock(&cache->op_gc_list_lock);
+@@ -423,7 +423,7 @@ void fscache_operation_gc(struct work_struct *work)
+               _debug("GC DEFERRED REL OBJ%x OP%x",
+                      object->debug_id, op->debug_id);
+-              fscache_stat(&fscache_n_op_gc);
++              fscache_stat_unchecked(&fscache_n_op_gc);
+               ASSERTCMP(atomic_read(&op->usage), ==, 0);
+diff --git a/fs/fscache/page.c b/fs/fscache/page.c
+index c598ea4..6aac13e 100644
+--- a/fs/fscache/page.c
++++ b/fs/fscache/page.c
+@@ -59,7 +59,7 @@ bool __fscache_maybe_release_page(struct fscache_cookie *cookie,
+       val = radix_tree_lookup(&cookie->stores, page->index);
+       if (!val) {
+               rcu_read_unlock();
+-              fscache_stat(&fscache_n_store_vmscan_not_storing);
++              fscache_stat_unchecked(&fscache_n_store_vmscan_not_storing);
+               __fscache_uncache_page(cookie, page);
+               return true;
+       }
+@@ -89,11 +89,11 @@ bool __fscache_maybe_release_page(struct fscache_cookie *cookie,
+       spin_unlock(&cookie->stores_lock);
+       if (xpage) {
+-              fscache_stat(&fscache_n_store_vmscan_cancelled);
+-              fscache_stat(&fscache_n_store_radix_deletes);
++              fscache_stat_unchecked(&fscache_n_store_vmscan_cancelled);
++              fscache_stat_unchecked(&fscache_n_store_radix_deletes);
+               ASSERTCMP(xpage, ==, page);
+       } else {
+-              fscache_stat(&fscache_n_store_vmscan_gone);
++              fscache_stat_unchecked(&fscache_n_store_vmscan_gone);
+       }
+       wake_up_bit(&cookie->flags, 0);
+@@ -106,7 +106,7 @@ page_busy:
+       /* we might want to wait here, but that could deadlock the allocator as
+        * the slow-work threads writing to the cache may all end up sleeping
+        * on memory allocation */
+-      fscache_stat(&fscache_n_store_vmscan_busy);
++      fscache_stat_unchecked(&fscache_n_store_vmscan_busy);
+       return false;
+ }
+ EXPORT_SYMBOL(__fscache_maybe_release_page);
+@@ -130,7 +130,7 @@ static void fscache_end_page_write(struct fscache_object *object,
+                                    FSCACHE_COOKIE_STORING_TAG);
+               if (!radix_tree_tag_get(&cookie->stores, page->index,
+                                       FSCACHE_COOKIE_PENDING_TAG)) {
+-                      fscache_stat(&fscache_n_store_radix_deletes);
++                      fscache_stat_unchecked(&fscache_n_store_radix_deletes);
+                       xpage = radix_tree_delete(&cookie->stores, page->index);
+               }
+               spin_unlock(&cookie->stores_lock);
+@@ -151,7 +151,7 @@ static void fscache_attr_changed_op(struct fscache_operation *op)
+       _enter("{OBJ%x OP%x}", object->debug_id, op->debug_id);
+-      fscache_stat(&fscache_n_attr_changed_calls);
++      fscache_stat_unchecked(&fscache_n_attr_changed_calls);
+       if (fscache_object_is_active(object)) {
+               fscache_set_op_state(op, "CallFS");
+@@ -178,11 +178,11 @@ int __fscache_attr_changed(struct fscache_cookie *cookie)
+       ASSERTCMP(cookie->def->type, !=, FSCACHE_COOKIE_TYPE_INDEX);
+-      fscache_stat(&fscache_n_attr_changed);
++      fscache_stat_unchecked(&fscache_n_attr_changed);
+       op = kzalloc(sizeof(*op), GFP_KERNEL);
+       if (!op) {
+-              fscache_stat(&fscache_n_attr_changed_nomem);
++              fscache_stat_unchecked(&fscache_n_attr_changed_nomem);
+               _leave(" = -ENOMEM");
+               return -ENOMEM;
+       }
+@@ -202,7 +202,7 @@ int __fscache_attr_changed(struct fscache_cookie *cookie)
+       if (fscache_submit_exclusive_op(object, op) < 0)
+               goto nobufs;
+       spin_unlock(&cookie->lock);
+-      fscache_stat(&fscache_n_attr_changed_ok);
++      fscache_stat_unchecked(&fscache_n_attr_changed_ok);
+       fscache_put_operation(op);
+       _leave(" = 0");
+       return 0;
+@@ -210,7 +210,7 @@ int __fscache_attr_changed(struct fscache_cookie *cookie)
+ nobufs:
+       spin_unlock(&cookie->lock);
+       kfree(op);
+-      fscache_stat(&fscache_n_attr_changed_nobufs);
++      fscache_stat_unchecked(&fscache_n_attr_changed_nobufs);
+       _leave(" = %d", -ENOBUFS);
+       return -ENOBUFS;
+ }
+@@ -264,7 +264,7 @@ static struct fscache_retrieval *fscache_alloc_retrieval(
+       /* allocate a retrieval operation and attempt to submit it */
+       op = kzalloc(sizeof(*op), GFP_NOIO);
+       if (!op) {
+-              fscache_stat(&fscache_n_retrievals_nomem);
++              fscache_stat_unchecked(&fscache_n_retrievals_nomem);
+               return NULL;
+       }
+@@ -294,13 +294,13 @@ static int fscache_wait_for_deferred_lookup(struct fscache_cookie *cookie)
+               return 0;
+       }
+-      fscache_stat(&fscache_n_retrievals_wait);
++      fscache_stat_unchecked(&fscache_n_retrievals_wait);
+       jif = jiffies;
+       if (wait_on_bit(&cookie->flags, FSCACHE_COOKIE_LOOKING_UP,
+                       fscache_wait_bit_interruptible,
+                       TASK_INTERRUPTIBLE) != 0) {
+-              fscache_stat(&fscache_n_retrievals_intr);
++              fscache_stat_unchecked(&fscache_n_retrievals_intr);
+               _leave(" = -ERESTARTSYS");
+               return -ERESTARTSYS;
+       }
+@@ -318,8 +318,8 @@ static int fscache_wait_for_deferred_lookup(struct fscache_cookie *cookie)
+  */
+ static int fscache_wait_for_retrieval_activation(struct fscache_object *object,
+                                                struct fscache_retrieval *op,
+-                                               atomic_t *stat_op_waits,
+-                                               atomic_t *stat_object_dead)
++                                               atomic_unchecked_t *stat_op_waits,
++                                               atomic_unchecked_t *stat_object_dead)
+ {
+       int ret;
+@@ -327,7 +327,7 @@ static int fscache_wait_for_retrieval_activation(struct fscache_object *object,
+               goto check_if_dead;
+       _debug(">>> WT");
+-      fscache_stat(stat_op_waits);
++      fscache_stat_unchecked(stat_op_waits);
+       if (wait_on_bit(&op->op.flags, FSCACHE_OP_WAITING,
+                       fscache_wait_bit_interruptible,
+                       TASK_INTERRUPTIBLE) < 0) {
+@@ -344,7 +344,7 @@ static int fscache_wait_for_retrieval_activation(struct fscache_object *object,
+ check_if_dead:
+       if (unlikely(fscache_object_is_dead(object))) {
+-              fscache_stat(stat_object_dead);
++              fscache_stat_unchecked(stat_object_dead);
+               return -ENOBUFS;
+       }
+       return 0;
+@@ -371,7 +371,7 @@ int __fscache_read_or_alloc_page(struct fscache_cookie *cookie,
+       _enter("%p,%p,,,", cookie, page);
+-      fscache_stat(&fscache_n_retrievals);
++      fscache_stat_unchecked(&fscache_n_retrievals);
+       if (hlist_empty(&cookie->backing_objects))
+               goto nobufs;
+@@ -405,7 +405,7 @@ int __fscache_read_or_alloc_page(struct fscache_cookie *cookie,
+               goto nobufs_unlock;
+       spin_unlock(&cookie->lock);
+-      fscache_stat(&fscache_n_retrieval_ops);
++      fscache_stat_unchecked(&fscache_n_retrieval_ops);
+       /* pin the netfs read context in case we need to do the actual netfs
+        * read because we've encountered a cache read failure */
+@@ -435,15 +435,15 @@ int __fscache_read_or_alloc_page(struct fscache_cookie *cookie,
+ error:
+       if (ret == -ENOMEM)
+-              fscache_stat(&fscache_n_retrievals_nomem);
++              fscache_stat_unchecked(&fscache_n_retrievals_nomem);
+       else if (ret == -ERESTARTSYS)
+-              fscache_stat(&fscache_n_retrievals_intr);
++              fscache_stat_unchecked(&fscache_n_retrievals_intr);
+       else if (ret == -ENODATA)
+-              fscache_stat(&fscache_n_retrievals_nodata);
++              fscache_stat_unchecked(&fscache_n_retrievals_nodata);
+       else if (ret < 0)
+-              fscache_stat(&fscache_n_retrievals_nobufs);
++              fscache_stat_unchecked(&fscache_n_retrievals_nobufs);
+       else
+-              fscache_stat(&fscache_n_retrievals_ok);
++              fscache_stat_unchecked(&fscache_n_retrievals_ok);
+       fscache_put_retrieval(op);
+       _leave(" = %d", ret);
+@@ -453,7 +453,7 @@ nobufs_unlock:
+       spin_unlock(&cookie->lock);
+       kfree(op);
+ nobufs:
+-      fscache_stat(&fscache_n_retrievals_nobufs);
++      fscache_stat_unchecked(&fscache_n_retrievals_nobufs);
+       _leave(" = -ENOBUFS");
+       return -ENOBUFS;
+ }
+@@ -491,7 +491,7 @@ int __fscache_read_or_alloc_pages(struct fscache_cookie *cookie,
+       _enter("%p,,%d,,,", cookie, *nr_pages);
+-      fscache_stat(&fscache_n_retrievals);
++      fscache_stat_unchecked(&fscache_n_retrievals);
+       if (hlist_empty(&cookie->backing_objects))
+               goto nobufs;
+@@ -522,7 +522,7 @@ int __fscache_read_or_alloc_pages(struct fscache_cookie *cookie,
+               goto nobufs_unlock;
+       spin_unlock(&cookie->lock);
+-      fscache_stat(&fscache_n_retrieval_ops);
++      fscache_stat_unchecked(&fscache_n_retrieval_ops);
+       /* pin the netfs read context in case we need to do the actual netfs
+        * read because we've encountered a cache read failure */
+@@ -552,15 +552,15 @@ int __fscache_read_or_alloc_pages(struct fscache_cookie *cookie,
+ error:
+       if (ret == -ENOMEM)
+-              fscache_stat(&fscache_n_retrievals_nomem);
++              fscache_stat_unchecked(&fscache_n_retrievals_nomem);
+       else if (ret == -ERESTARTSYS)
+-              fscache_stat(&fscache_n_retrievals_intr);
++              fscache_stat_unchecked(&fscache_n_retrievals_intr);
+       else if (ret == -ENODATA)
+-              fscache_stat(&fscache_n_retrievals_nodata);
++              fscache_stat_unchecked(&fscache_n_retrievals_nodata);
+       else if (ret < 0)
+-              fscache_stat(&fscache_n_retrievals_nobufs);
++              fscache_stat_unchecked(&fscache_n_retrievals_nobufs);
+       else
+-              fscache_stat(&fscache_n_retrievals_ok);
++              fscache_stat_unchecked(&fscache_n_retrievals_ok);
+       fscache_put_retrieval(op);
+       _leave(" = %d", ret);
+@@ -570,7 +570,7 @@ nobufs_unlock:
+       spin_unlock(&cookie->lock);
+       kfree(op);
+ nobufs:
+-      fscache_stat(&fscache_n_retrievals_nobufs);
++      fscache_stat_unchecked(&fscache_n_retrievals_nobufs);
+       _leave(" = -ENOBUFS");
+       return -ENOBUFS;
+ }
+@@ -594,7 +594,7 @@ int __fscache_alloc_page(struct fscache_cookie *cookie,
+       _enter("%p,%p,,,", cookie, page);
+-      fscache_stat(&fscache_n_allocs);
++      fscache_stat_unchecked(&fscache_n_allocs);
+       if (hlist_empty(&cookie->backing_objects))
+               goto nobufs;
+@@ -621,7 +621,7 @@ int __fscache_alloc_page(struct fscache_cookie *cookie,
+               goto nobufs_unlock;
+       spin_unlock(&cookie->lock);
+-      fscache_stat(&fscache_n_alloc_ops);
++      fscache_stat_unchecked(&fscache_n_alloc_ops);
+       ret = fscache_wait_for_retrieval_activation(
+               object, op,
+@@ -637,11 +637,11 @@ int __fscache_alloc_page(struct fscache_cookie *cookie,
+ error:
+       if (ret == -ERESTARTSYS)
+-              fscache_stat(&fscache_n_allocs_intr);
++              fscache_stat_unchecked(&fscache_n_allocs_intr);
+       else if (ret < 0)
+-              fscache_stat(&fscache_n_allocs_nobufs);
++              fscache_stat_unchecked(&fscache_n_allocs_nobufs);
+       else
+-              fscache_stat(&fscache_n_allocs_ok);
++              fscache_stat_unchecked(&fscache_n_allocs_ok);
+       fscache_put_retrieval(op);
+       _leave(" = %d", ret);
+@@ -651,7 +651,7 @@ nobufs_unlock:
+       spin_unlock(&cookie->lock);
+       kfree(op);
+ nobufs:
+-      fscache_stat(&fscache_n_allocs_nobufs);
++      fscache_stat_unchecked(&fscache_n_allocs_nobufs);
+       _leave(" = -ENOBUFS");
+       return -ENOBUFS;
+ }
+@@ -694,7 +694,7 @@ static void fscache_write_op(struct fscache_operation *_op)
+       spin_lock(&cookie->stores_lock);
+-      fscache_stat(&fscache_n_store_calls);
++      fscache_stat_unchecked(&fscache_n_store_calls);
+       /* find a page to store */
+       page = NULL;
+@@ -705,7 +705,7 @@ static void fscache_write_op(struct fscache_operation *_op)
+       page = results[0];
+       _debug("gang %d [%lx]", n, page->index);
+       if (page->index > op->store_limit) {
+-              fscache_stat(&fscache_n_store_pages_over_limit);
++              fscache_stat_unchecked(&fscache_n_store_pages_over_limit);
+               goto superseded;
+       }
+@@ -721,7 +721,7 @@ static void fscache_write_op(struct fscache_operation *_op)
+       if (page) {
+               fscache_set_op_state(&op->op, "Store");
+-              fscache_stat(&fscache_n_store_pages);
++              fscache_stat_unchecked(&fscache_n_store_pages);
+               fscache_stat(&fscache_n_cop_write_page);
+               ret = object->cache->ops->write_page(op, page);
+               fscache_stat_d(&fscache_n_cop_write_page);
+@@ -792,7 +792,7 @@ int __fscache_write_page(struct fscache_cookie *cookie,
+       ASSERTCMP(cookie->def->type, !=, FSCACHE_COOKIE_TYPE_INDEX);
+       ASSERT(PageFsCache(page));
+-      fscache_stat(&fscache_n_stores);
++      fscache_stat_unchecked(&fscache_n_stores);
+       op = kzalloc(sizeof(*op), GFP_NOIO);
+       if (!op)
+@@ -844,7 +844,7 @@ int __fscache_write_page(struct fscache_cookie *cookie,
+       spin_unlock(&cookie->stores_lock);
+       spin_unlock(&object->lock);
+-      op->op.debug_id = atomic_inc_return(&fscache_op_debug_id);
++      op->op.debug_id = atomic_inc_return_unchecked(&fscache_op_debug_id);
+       op->store_limit = object->store_limit;
+       if (fscache_submit_op(object, &op->op) < 0)
+@@ -852,8 +852,8 @@ int __fscache_write_page(struct fscache_cookie *cookie,
+       spin_unlock(&cookie->lock);
+       radix_tree_preload_end();
+-      fscache_stat(&fscache_n_store_ops);
+-      fscache_stat(&fscache_n_stores_ok);
++      fscache_stat_unchecked(&fscache_n_store_ops);
++      fscache_stat_unchecked(&fscache_n_stores_ok);
+       /* the slow work queue now carries its own ref on the object */
+       fscache_put_operation(&op->op);
+@@ -861,14 +861,14 @@ int __fscache_write_page(struct fscache_cookie *cookie,
+       return 0;
+ already_queued:
+-      fscache_stat(&fscache_n_stores_again);
++      fscache_stat_unchecked(&fscache_n_stores_again);
+ already_pending:
+       spin_unlock(&cookie->stores_lock);
+       spin_unlock(&object->lock);
+       spin_unlock(&cookie->lock);
+       radix_tree_preload_end();
+       kfree(op);
+-      fscache_stat(&fscache_n_stores_ok);
++      fscache_stat_unchecked(&fscache_n_stores_ok);
+       _leave(" = 0");
+       return 0;
+@@ -886,14 +886,14 @@ nobufs:
+       spin_unlock(&cookie->lock);
+       radix_tree_preload_end();
+       kfree(op);
+-      fscache_stat(&fscache_n_stores_nobufs);
++      fscache_stat_unchecked(&fscache_n_stores_nobufs);
+       _leave(" = -ENOBUFS");
+       return -ENOBUFS;
+ nomem_free:
+       kfree(op);
+ nomem:
+-      fscache_stat(&fscache_n_stores_oom);
++      fscache_stat_unchecked(&fscache_n_stores_oom);
+       _leave(" = -ENOMEM");
+       return -ENOMEM;
+ }
+@@ -911,7 +911,7 @@ void __fscache_uncache_page(struct fscache_cookie *cookie, struct page *page)
+       ASSERTCMP(cookie->def->type, !=, FSCACHE_COOKIE_TYPE_INDEX);
+       ASSERTCMP(page, !=, NULL);
+-      fscache_stat(&fscache_n_uncaches);
++      fscache_stat_unchecked(&fscache_n_uncaches);
+       /* cache withdrawal may beat us to it */
+       if (!PageFsCache(page))
+@@ -964,7 +964,7 @@ void fscache_mark_pages_cached(struct fscache_retrieval *op,
+       unsigned long loop;
+ #ifdef CONFIG_FSCACHE_STATS
+-      atomic_add(pagevec->nr, &fscache_n_marks);
++      atomic_add_unchecked(pagevec->nr, &fscache_n_marks);
+ #endif
+       for (loop = 0; loop < pagevec->nr; loop++) {
+diff --git a/fs/fscache/stats.c b/fs/fscache/stats.c
+index 46435f3..8cddf18 100644
+--- a/fs/fscache/stats.c
++++ b/fs/fscache/stats.c
+@@ -18,95 +18,95 @@
+ /*
+  * operation counters
+  */
+-atomic_t fscache_n_op_pend;
+-atomic_t fscache_n_op_run;
+-atomic_t fscache_n_op_enqueue;
+-atomic_t fscache_n_op_requeue;
+-atomic_t fscache_n_op_deferred_release;
+-atomic_t fscache_n_op_release;
+-atomic_t fscache_n_op_gc;
+-atomic_t fscache_n_op_cancelled;
+-atomic_t fscache_n_op_rejected;
++atomic_unchecked_t fscache_n_op_pend;
++atomic_unchecked_t fscache_n_op_run;
++atomic_unchecked_t fscache_n_op_enqueue;
++atomic_unchecked_t fscache_n_op_requeue;
++atomic_unchecked_t fscache_n_op_deferred_release;
++atomic_unchecked_t fscache_n_op_release;
++atomic_unchecked_t fscache_n_op_gc;
++atomic_unchecked_t fscache_n_op_cancelled;
++atomic_unchecked_t fscache_n_op_rejected;
+-atomic_t fscache_n_attr_changed;
+-atomic_t fscache_n_attr_changed_ok;
+-atomic_t fscache_n_attr_changed_nobufs;
+-atomic_t fscache_n_attr_changed_nomem;
+-atomic_t fscache_n_attr_changed_calls;
++atomic_unchecked_t fscache_n_attr_changed;
++atomic_unchecked_t fscache_n_attr_changed_ok;
++atomic_unchecked_t fscache_n_attr_changed_nobufs;
++atomic_unchecked_t fscache_n_attr_changed_nomem;
++atomic_unchecked_t fscache_n_attr_changed_calls;
+-atomic_t fscache_n_allocs;
+-atomic_t fscache_n_allocs_ok;
+-atomic_t fscache_n_allocs_wait;
+-atomic_t fscache_n_allocs_nobufs;
+-atomic_t fscache_n_allocs_intr;
+-atomic_t fscache_n_allocs_object_dead;
+-atomic_t fscache_n_alloc_ops;
+-atomic_t fscache_n_alloc_op_waits;
++atomic_unchecked_t fscache_n_allocs;
++atomic_unchecked_t fscache_n_allocs_ok;
++atomic_unchecked_t fscache_n_allocs_wait;
++atomic_unchecked_t fscache_n_allocs_nobufs;
++atomic_unchecked_t fscache_n_allocs_intr;
++atomic_unchecked_t fscache_n_allocs_object_dead;
++atomic_unchecked_t fscache_n_alloc_ops;
++atomic_unchecked_t fscache_n_alloc_op_waits;
+-atomic_t fscache_n_retrievals;
+-atomic_t fscache_n_retrievals_ok;
+-atomic_t fscache_n_retrievals_wait;
+-atomic_t fscache_n_retrievals_nodata;
+-atomic_t fscache_n_retrievals_nobufs;
+-atomic_t fscache_n_retrievals_intr;
+-atomic_t fscache_n_retrievals_nomem;
+-atomic_t fscache_n_retrievals_object_dead;
+-atomic_t fscache_n_retrieval_ops;
+-atomic_t fscache_n_retrieval_op_waits;
++atomic_unchecked_t fscache_n_retrievals;
++atomic_unchecked_t fscache_n_retrievals_ok;
++atomic_unchecked_t fscache_n_retrievals_wait;
++atomic_unchecked_t fscache_n_retrievals_nodata;
++atomic_unchecked_t fscache_n_retrievals_nobufs;
++atomic_unchecked_t fscache_n_retrievals_intr;
++atomic_unchecked_t fscache_n_retrievals_nomem;
++atomic_unchecked_t fscache_n_retrievals_object_dead;
++atomic_unchecked_t fscache_n_retrieval_ops;
++atomic_unchecked_t fscache_n_retrieval_op_waits;
+-atomic_t fscache_n_stores;
+-atomic_t fscache_n_stores_ok;
+-atomic_t fscache_n_stores_again;
+-atomic_t fscache_n_stores_nobufs;
+-atomic_t fscache_n_stores_oom;
+-atomic_t fscache_n_store_ops;
+-atomic_t fscache_n_store_calls;
+-atomic_t fscache_n_store_pages;
+-atomic_t fscache_n_store_radix_deletes;
+-atomic_t fscache_n_store_pages_over_limit;
++atomic_unchecked_t fscache_n_stores;
++atomic_unchecked_t fscache_n_stores_ok;
++atomic_unchecked_t fscache_n_stores_again;
++atomic_unchecked_t fscache_n_stores_nobufs;
++atomic_unchecked_t fscache_n_stores_oom;
++atomic_unchecked_t fscache_n_store_ops;
++atomic_unchecked_t fscache_n_store_calls;
++atomic_unchecked_t fscache_n_store_pages;
++atomic_unchecked_t fscache_n_store_radix_deletes;
++atomic_unchecked_t fscache_n_store_pages_over_limit;
+-atomic_t fscache_n_store_vmscan_not_storing;
+-atomic_t fscache_n_store_vmscan_gone;
+-atomic_t fscache_n_store_vmscan_busy;
+-atomic_t fscache_n_store_vmscan_cancelled;
++atomic_unchecked_t fscache_n_store_vmscan_not_storing;
++atomic_unchecked_t fscache_n_store_vmscan_gone;
++atomic_unchecked_t fscache_n_store_vmscan_busy;
++atomic_unchecked_t fscache_n_store_vmscan_cancelled;
+-atomic_t fscache_n_marks;
+-atomic_t fscache_n_uncaches;
++atomic_unchecked_t fscache_n_marks;
++atomic_unchecked_t fscache_n_uncaches;
+-atomic_t fscache_n_acquires;
+-atomic_t fscache_n_acquires_null;
+-atomic_t fscache_n_acquires_no_cache;
+-atomic_t fscache_n_acquires_ok;
+-atomic_t fscache_n_acquires_nobufs;
+-atomic_t fscache_n_acquires_oom;
++atomic_unchecked_t fscache_n_acquires;
++atomic_unchecked_t fscache_n_acquires_null;
++atomic_unchecked_t fscache_n_acquires_no_cache;
++atomic_unchecked_t fscache_n_acquires_ok;
++atomic_unchecked_t fscache_n_acquires_nobufs;
++atomic_unchecked_t fscache_n_acquires_oom;
+-atomic_t fscache_n_updates;
+-atomic_t fscache_n_updates_null;
+-atomic_t fscache_n_updates_run;
++atomic_unchecked_t fscache_n_updates;
++atomic_unchecked_t fscache_n_updates_null;
++atomic_unchecked_t fscache_n_updates_run;
+-atomic_t fscache_n_relinquishes;
+-atomic_t fscache_n_relinquishes_null;
+-atomic_t fscache_n_relinquishes_waitcrt;
+-atomic_t fscache_n_relinquishes_retire;
++atomic_unchecked_t fscache_n_relinquishes;
++atomic_unchecked_t fscache_n_relinquishes_null;
++atomic_unchecked_t fscache_n_relinquishes_waitcrt;
++atomic_unchecked_t fscache_n_relinquishes_retire;
+-atomic_t fscache_n_cookie_index;
+-atomic_t fscache_n_cookie_data;
+-atomic_t fscache_n_cookie_special;
++atomic_unchecked_t fscache_n_cookie_index;
++atomic_unchecked_t fscache_n_cookie_data;
++atomic_unchecked_t fscache_n_cookie_special;
+-atomic_t fscache_n_object_alloc;
+-atomic_t fscache_n_object_no_alloc;
+-atomic_t fscache_n_object_lookups;
+-atomic_t fscache_n_object_lookups_negative;
+-atomic_t fscache_n_object_lookups_positive;
+-atomic_t fscache_n_object_lookups_timed_out;
+-atomic_t fscache_n_object_created;
+-atomic_t fscache_n_object_avail;
+-atomic_t fscache_n_object_dead;
++atomic_unchecked_t fscache_n_object_alloc;
++atomic_unchecked_t fscache_n_object_no_alloc;
++atomic_unchecked_t fscache_n_object_lookups;
++atomic_unchecked_t fscache_n_object_lookups_negative;
++atomic_unchecked_t fscache_n_object_lookups_positive;
++atomic_unchecked_t fscache_n_object_lookups_timed_out;
++atomic_unchecked_t fscache_n_object_created;
++atomic_unchecked_t fscache_n_object_avail;
++atomic_unchecked_t fscache_n_object_dead;
+-atomic_t fscache_n_checkaux_none;
+-atomic_t fscache_n_checkaux_okay;
+-atomic_t fscache_n_checkaux_update;
+-atomic_t fscache_n_checkaux_obsolete;
++atomic_unchecked_t fscache_n_checkaux_none;
++atomic_unchecked_t fscache_n_checkaux_okay;
++atomic_unchecked_t fscache_n_checkaux_update;
++atomic_unchecked_t fscache_n_checkaux_obsolete;
+ atomic_t fscache_n_cop_alloc_object;
+ atomic_t fscache_n_cop_lookup_object;
+@@ -133,113 +133,113 @@ static int fscache_stats_show(struct seq_file *m, void *v)
+       seq_puts(m, "FS-Cache statistics\n");
+       seq_printf(m, "Cookies: idx=%u dat=%u spc=%u\n",
+-                 atomic_read(&fscache_n_cookie_index),
+-                 atomic_read(&fscache_n_cookie_data),
+-                 atomic_read(&fscache_n_cookie_special));
++                 atomic_read_unchecked(&fscache_n_cookie_index),
++                 atomic_read_unchecked(&fscache_n_cookie_data),
++                 atomic_read_unchecked(&fscache_n_cookie_special));
+       seq_printf(m, "Objects: alc=%u nal=%u avl=%u ded=%u\n",
+-                 atomic_read(&fscache_n_object_alloc),
+-                 atomic_read(&fscache_n_object_no_alloc),
+-                 atomic_read(&fscache_n_object_avail),
+-                 atomic_read(&fscache_n_object_dead));
++                 atomic_read_unchecked(&fscache_n_object_alloc),
++                 atomic_read_unchecked(&fscache_n_object_no_alloc),
++                 atomic_read_unchecked(&fscache_n_object_avail),
++                 atomic_read_unchecked(&fscache_n_object_dead));
+       seq_printf(m, "ChkAux : non=%u ok=%u upd=%u obs=%u\n",
+-                 atomic_read(&fscache_n_checkaux_none),
+-                 atomic_read(&fscache_n_checkaux_okay),
+-                 atomic_read(&fscache_n_checkaux_update),
+-                 atomic_read(&fscache_n_checkaux_obsolete));
++                 atomic_read_unchecked(&fscache_n_checkaux_none),
++                 atomic_read_unchecked(&fscache_n_checkaux_okay),
++                 atomic_read_unchecked(&fscache_n_checkaux_update),
++                 atomic_read_unchecked(&fscache_n_checkaux_obsolete));
+       seq_printf(m, "Pages  : mrk=%u unc=%u\n",
+-                 atomic_read(&fscache_n_marks),
+-                 atomic_read(&fscache_n_uncaches));
++                 atomic_read_unchecked(&fscache_n_marks),
++                 atomic_read_unchecked(&fscache_n_uncaches));
+       seq_printf(m, "Acquire: n=%u nul=%u noc=%u ok=%u nbf=%u"
+                  " oom=%u\n",
+-                 atomic_read(&fscache_n_acquires),
+-                 atomic_read(&fscache_n_acquires_null),
+-                 atomic_read(&fscache_n_acquires_no_cache),
+-                 atomic_read(&fscache_n_acquires_ok),
+-                 atomic_read(&fscache_n_acquires_nobufs),
+-                 atomic_read(&fscache_n_acquires_oom));
++                 atomic_read_unchecked(&fscache_n_acquires),
++                 atomic_read_unchecked(&fscache_n_acquires_null),
++                 atomic_read_unchecked(&fscache_n_acquires_no_cache),
++                 atomic_read_unchecked(&fscache_n_acquires_ok),
++                 atomic_read_unchecked(&fscache_n_acquires_nobufs),
++                 atomic_read_unchecked(&fscache_n_acquires_oom));
+       seq_printf(m, "Lookups: n=%u neg=%u pos=%u crt=%u tmo=%u\n",
+-                 atomic_read(&fscache_n_object_lookups),
+-                 atomic_read(&fscache_n_object_lookups_negative),
+-                 atomic_read(&fscache_n_object_lookups_positive),
+-                 atomic_read(&fscache_n_object_lookups_timed_out),
+-                 atomic_read(&fscache_n_object_created));
++                 atomic_read_unchecked(&fscache_n_object_lookups),
++                 atomic_read_unchecked(&fscache_n_object_lookups_negative),
++                 atomic_read_unchecked(&fscache_n_object_lookups_positive),
++                 atomic_read_unchecked(&fscache_n_object_lookups_timed_out),
++                 atomic_read_unchecked(&fscache_n_object_created));
+       seq_printf(m, "Updates: n=%u nul=%u run=%u\n",
+-                 atomic_read(&fscache_n_updates),
+-                 atomic_read(&fscache_n_updates_null),
+-                 atomic_read(&fscache_n_updates_run));
++                 atomic_read_unchecked(&fscache_n_updates),
++                 atomic_read_unchecked(&fscache_n_updates_null),
++                 atomic_read_unchecked(&fscache_n_updates_run));
+       seq_printf(m, "Relinqs: n=%u nul=%u wcr=%u rtr=%u\n",
+-                 atomic_read(&fscache_n_relinquishes),
+-                 atomic_read(&fscache_n_relinquishes_null),
+-                 atomic_read(&fscache_n_relinquishes_waitcrt),
+-                 atomic_read(&fscache_n_relinquishes_retire));
++                 atomic_read_unchecked(&fscache_n_relinquishes),
++                 atomic_read_unchecked(&fscache_n_relinquishes_null),
++                 atomic_read_unchecked(&fscache_n_relinquishes_waitcrt),
++                 atomic_read_unchecked(&fscache_n_relinquishes_retire));
+       seq_printf(m, "AttrChg: n=%u ok=%u nbf=%u oom=%u run=%u\n",
+-                 atomic_read(&fscache_n_attr_changed),
+-                 atomic_read(&fscache_n_attr_changed_ok),
+-                 atomic_read(&fscache_n_attr_changed_nobufs),
+-                 atomic_read(&fscache_n_attr_changed_nomem),
+-                 atomic_read(&fscache_n_attr_changed_calls));
++                 atomic_read_unchecked(&fscache_n_attr_changed),
++                 atomic_read_unchecked(&fscache_n_attr_changed_ok),
++                 atomic_read_unchecked(&fscache_n_attr_changed_nobufs),
++                 atomic_read_unchecked(&fscache_n_attr_changed_nomem),
++                 atomic_read_unchecked(&fscache_n_attr_changed_calls));
+       seq_printf(m, "Allocs : n=%u ok=%u wt=%u nbf=%u int=%u\n",
+-                 atomic_read(&fscache_n_allocs),
+-                 atomic_read(&fscache_n_allocs_ok),
+-                 atomic_read(&fscache_n_allocs_wait),
+-                 atomic_read(&fscache_n_allocs_nobufs),
+-                 atomic_read(&fscache_n_allocs_intr));
++                 atomic_read_unchecked(&fscache_n_allocs),
++                 atomic_read_unchecked(&fscache_n_allocs_ok),
++                 atomic_read_unchecked(&fscache_n_allocs_wait),
++                 atomic_read_unchecked(&fscache_n_allocs_nobufs),
++                 atomic_read_unchecked(&fscache_n_allocs_intr));
+       seq_printf(m, "Allocs : ops=%u owt=%u abt=%u\n",
+-                 atomic_read(&fscache_n_alloc_ops),
+-                 atomic_read(&fscache_n_alloc_op_waits),
+-                 atomic_read(&fscache_n_allocs_object_dead));
++                 atomic_read_unchecked(&fscache_n_alloc_ops),
++                 atomic_read_unchecked(&fscache_n_alloc_op_waits),
++                 atomic_read_unchecked(&fscache_n_allocs_object_dead));
+       seq_printf(m, "Retrvls: n=%u ok=%u wt=%u nod=%u nbf=%u"
+                  " int=%u oom=%u\n",
+-                 atomic_read(&fscache_n_retrievals),
+-                 atomic_read(&fscache_n_retrievals_ok),
+-                 atomic_read(&fscache_n_retrievals_wait),
+-                 atomic_read(&fscache_n_retrievals_nodata),
+-                 atomic_read(&fscache_n_retrievals_nobufs),
+-                 atomic_read(&fscache_n_retrievals_intr),
+-                 atomic_read(&fscache_n_retrievals_nomem));
++                 atomic_read_unchecked(&fscache_n_retrievals),
++                 atomic_read_unchecked(&fscache_n_retrievals_ok),
++                 atomic_read_unchecked(&fscache_n_retrievals_wait),
++                 atomic_read_unchecked(&fscache_n_retrievals_nodata),
++                 atomic_read_unchecked(&fscache_n_retrievals_nobufs),
++                 atomic_read_unchecked(&fscache_n_retrievals_intr),
++                 atomic_read_unchecked(&fscache_n_retrievals_nomem));
+       seq_printf(m, "Retrvls: ops=%u owt=%u abt=%u\n",
+-                 atomic_read(&fscache_n_retrieval_ops),
+-                 atomic_read(&fscache_n_retrieval_op_waits),
+-                 atomic_read(&fscache_n_retrievals_object_dead));
++                 atomic_read_unchecked(&fscache_n_retrieval_ops),
++                 atomic_read_unchecked(&fscache_n_retrieval_op_waits),
++                 atomic_read_unchecked(&fscache_n_retrievals_object_dead));
+       seq_printf(m, "Stores : n=%u ok=%u agn=%u nbf=%u oom=%u\n",
+-                 atomic_read(&fscache_n_stores),
+-                 atomic_read(&fscache_n_stores_ok),
+-                 atomic_read(&fscache_n_stores_again),
+-                 atomic_read(&fscache_n_stores_nobufs),
+-                 atomic_read(&fscache_n_stores_oom));
++                 atomic_read_unchecked(&fscache_n_stores),
++                 atomic_read_unchecked(&fscache_n_stores_ok),
++                 atomic_read_unchecked(&fscache_n_stores_again),
++                 atomic_read_unchecked(&fscache_n_stores_nobufs),
++                 atomic_read_unchecked(&fscache_n_stores_oom));
+       seq_printf(m, "Stores : ops=%u run=%u pgs=%u rxd=%u olm=%u\n",
+-                 atomic_read(&fscache_n_store_ops),
+-                 atomic_read(&fscache_n_store_calls),
+-                 atomic_read(&fscache_n_store_pages),
+-                 atomic_read(&fscache_n_store_radix_deletes),
+-                 atomic_read(&fscache_n_store_pages_over_limit));
++                 atomic_read_unchecked(&fscache_n_store_ops),
++                 atomic_read_unchecked(&fscache_n_store_calls),
++                 atomic_read_unchecked(&fscache_n_store_pages),
++                 atomic_read_unchecked(&fscache_n_store_radix_deletes),
++                 atomic_read_unchecked(&fscache_n_store_pages_over_limit));
+       seq_printf(m, "VmScan : nos=%u gon=%u bsy=%u can=%u\n",
+-                 atomic_read(&fscache_n_store_vmscan_not_storing),
+-                 atomic_read(&fscache_n_store_vmscan_gone),
+-                 atomic_read(&fscache_n_store_vmscan_busy),
+-                 atomic_read(&fscache_n_store_vmscan_cancelled));
++                 atomic_read_unchecked(&fscache_n_store_vmscan_not_storing),
++                 atomic_read_unchecked(&fscache_n_store_vmscan_gone),
++                 atomic_read_unchecked(&fscache_n_store_vmscan_busy),
++                 atomic_read_unchecked(&fscache_n_store_vmscan_cancelled));
+       seq_printf(m, "Ops    : pend=%u run=%u enq=%u can=%u rej=%u\n",
+-                 atomic_read(&fscache_n_op_pend),
+-                 atomic_read(&fscache_n_op_run),
+-                 atomic_read(&fscache_n_op_enqueue),
+-                 atomic_read(&fscache_n_op_cancelled),
+-                 atomic_read(&fscache_n_op_rejected));
++                 atomic_read_unchecked(&fscache_n_op_pend),
++                 atomic_read_unchecked(&fscache_n_op_run),
++                 atomic_read_unchecked(&fscache_n_op_enqueue),
++                 atomic_read_unchecked(&fscache_n_op_cancelled),
++                 atomic_read_unchecked(&fscache_n_op_rejected));
+       seq_printf(m, "Ops    : dfr=%u rel=%u gc=%u\n",
+-                 atomic_read(&fscache_n_op_deferred_release),
+-                 atomic_read(&fscache_n_op_release),
+-                 atomic_read(&fscache_n_op_gc));
++                 atomic_read_unchecked(&fscache_n_op_deferred_release),
++                 atomic_read_unchecked(&fscache_n_op_release),
++                 atomic_read_unchecked(&fscache_n_op_gc));
+       seq_printf(m, "CacheOp: alo=%d luo=%d luc=%d gro=%d\n",
+                  atomic_read(&fscache_n_cop_alloc_object),
+diff --git a/fs/fuse/cuse.c b/fs/fuse/cuse.c
+index de792dc..448b532 100644
+--- a/fs/fuse/cuse.c
++++ b/fs/fuse/cuse.c
+@@ -576,10 +576,12 @@ static int __init cuse_init(void)
+               INIT_LIST_HEAD(&cuse_conntbl[i]);
+       /* inherit and extend fuse_dev_operations */
+-      cuse_channel_fops               = fuse_dev_operations;
+-      cuse_channel_fops.owner         = THIS_MODULE;
+-      cuse_channel_fops.open          = cuse_channel_open;
+-      cuse_channel_fops.release       = cuse_channel_release;
++      pax_open_kernel();
++      memcpy((void *)&cuse_channel_fops, &fuse_dev_operations, sizeof(fuse_dev_operations));
++      *(void **)&cuse_channel_fops.owner      = THIS_MODULE;
++      *(void **)&cuse_channel_fops.open       = cuse_channel_open;
++      *(void **)&cuse_channel_fops.release    = cuse_channel_release;
++      pax_close_kernel();
+       cuse_class = class_create(THIS_MODULE, "cuse");
+       if (IS_ERR(cuse_class))
+diff --git a/fs/fuse/dev.c b/fs/fuse/dev.c
+index 1facb39..7f48557 100644
+--- a/fs/fuse/dev.c
++++ b/fs/fuse/dev.c
+@@ -885,7 +885,7 @@ static int fuse_notify_inval_entry(struct fuse_conn *fc, unsigned int size,
+ {
+       struct fuse_notify_inval_entry_out outarg;
+       int err = -EINVAL;
+-      char buf[FUSE_NAME_MAX+1];
++      char *buf = NULL;
+       struct qstr name;
+       if (size < sizeof(outarg))
+@@ -899,6 +899,11 @@ static int fuse_notify_inval_entry(struct fuse_conn *fc, unsigned int size,
+       if (outarg.namelen > FUSE_NAME_MAX)
+               goto err;
++      err = -ENOMEM;
++      buf = kmalloc(FUSE_NAME_MAX+1, GFP_KERNEL);
++      if (!buf)
++              goto err;
++
+       err = -EINVAL;
+       if (size != sizeof(outarg) + outarg.namelen + 1)
+               goto err;
+@@ -914,17 +919,15 @@ static int fuse_notify_inval_entry(struct fuse_conn *fc, unsigned int size,
+       down_read(&fc->killsb);
+       err = -ENOENT;
+-      if (!fc->sb)
+-              goto err_unlock;
+-
+-      err = fuse_reverse_inval_entry(fc->sb, outarg.parent, &name);
+-
+-err_unlock:
++      if (fc->sb)
++              err = fuse_reverse_inval_entry(fc->sb, outarg.parent, &name);
+       up_read(&fc->killsb);
++      kfree(buf);
+       return err;
+ err:
+       fuse_copy_finish(cs);
++      kfree(buf);
+       return err;
+ }
+diff --git a/fs/fuse/dir.c b/fs/fuse/dir.c
+index 4787ae6..73efff7 100644
+--- a/fs/fuse/dir.c
++++ b/fs/fuse/dir.c
+@@ -1127,7 +1127,7 @@ static char *read_link(struct dentry *dentry)
+       return link;
+ }
+-static void free_link(char *link)
++static void free_link(const char *link)
+ {
+       if (!IS_ERR(link))
+               free_page((unsigned long) link);
+diff --git a/fs/gfs2/ops_inode.c b/fs/gfs2/ops_inode.c
+index 247436c..e650ccb 100644
+--- a/fs/gfs2/ops_inode.c
++++ b/fs/gfs2/ops_inode.c
+@@ -752,6 +752,8 @@ static int gfs2_rename(struct inode *odir, struct dentry *odentry,
+       unsigned int x;
+       int error;
++      pax_track_stack();
++
+       if (ndentry->d_inode) {
+               nip = GFS2_I(ndentry->d_inode);
+               if (ip == nip)
+diff --git a/fs/gfs2/sys.c b/fs/gfs2/sys.c
+index 4463297..4fed53b 100644
+--- a/fs/gfs2/sys.c
++++ b/fs/gfs2/sys.c
+@@ -49,7 +49,7 @@ static ssize_t gfs2_attr_store(struct kobject *kobj, struct attribute *attr,
+       return a->store ? a->store(sdp, buf, len) : len;
+ }
+-static struct sysfs_ops gfs2_attr_ops = {
++static const struct sysfs_ops gfs2_attr_ops = {
+       .show  = gfs2_attr_show,
+       .store = gfs2_attr_store,
+ };
+@@ -584,7 +584,7 @@ static int gfs2_uevent(struct kset *kset, struct kobject *kobj,
+       return 0;
+ }
+-static struct kset_uevent_ops gfs2_uevent_ops = {
++static const struct kset_uevent_ops gfs2_uevent_ops = {
+       .uevent = gfs2_uevent,
+ };
+diff --git a/fs/hfsplus/catalog.c b/fs/hfsplus/catalog.c
+index f6874ac..7cd98a8 100644
+--- a/fs/hfsplus/catalog.c
++++ b/fs/hfsplus/catalog.c
+@@ -157,6 +157,8 @@ int hfsplus_find_cat(struct super_block *sb, u32 cnid,
+       int err;
+       u16 type;
++      pax_track_stack();
++
+       hfsplus_cat_build_key(sb, fd->search_key, cnid, NULL);
+       err = hfs_brec_read(fd, &tmp, sizeof(hfsplus_cat_entry));
+       if (err)
+@@ -186,6 +188,8 @@ int hfsplus_create_cat(u32 cnid, struct inode *dir, struct qstr *str, struct ino
+       int entry_size;
+       int err;
++      pax_track_stack();
++
+       dprint(DBG_CAT_MOD, "create_cat: %s,%u(%d)\n", str->name, cnid, inode->i_nlink);
+       sb = dir->i_sb;
+       hfs_find_init(HFSPLUS_SB(sb).cat_tree, &fd);
+@@ -318,6 +322,8 @@ int hfsplus_rename_cat(u32 cnid,
+       int entry_size, type;
+       int err = 0;
++      pax_track_stack();
++
+       dprint(DBG_CAT_MOD, "rename_cat: %u - %lu,%s - %lu,%s\n", cnid, src_dir->i_ino, src_name->name,
+               dst_dir->i_ino, dst_name->name);
+       sb = src_dir->i_sb;
+diff --git a/fs/hfsplus/dir.c b/fs/hfsplus/dir.c
+index 5f40236..dac3421 100644
+--- a/fs/hfsplus/dir.c
++++ b/fs/hfsplus/dir.c
+@@ -121,6 +121,8 @@ static int hfsplus_readdir(struct file *filp, void *dirent, filldir_t filldir)
+       struct hfsplus_readdir_data *rd;
+       u16 type;
++      pax_track_stack();
++
+       if (filp->f_pos >= inode->i_size)
+               return 0;
+diff --git a/fs/hfsplus/inode.c b/fs/hfsplus/inode.c
+index 1bcf597..905a251 100644
+--- a/fs/hfsplus/inode.c
++++ b/fs/hfsplus/inode.c
+@@ -399,6 +399,8 @@ int hfsplus_cat_read_inode(struct inode *inode, struct hfs_find_data *fd)
+       int res = 0;
+       u16 type;
++      pax_track_stack();
++
+       type = hfs_bnode_read_u16(fd->bnode, fd->entryoffset);
+       HFSPLUS_I(inode).dev = 0;
+@@ -461,6 +463,8 @@ int hfsplus_cat_write_inode(struct inode *inode)
+       struct hfs_find_data fd;
+       hfsplus_cat_entry entry;
++      pax_track_stack();
++
+       if (HFSPLUS_IS_RSRC(inode))
+               main_inode = HFSPLUS_I(inode).rsrc_inode;
+diff --git a/fs/hfsplus/ioctl.c b/fs/hfsplus/ioctl.c
+index f457d2c..7ef4ad5 100644
+--- a/fs/hfsplus/ioctl.c
++++ b/fs/hfsplus/ioctl.c
+@@ -101,6 +101,8 @@ int hfsplus_setxattr(struct dentry *dentry, const char *name,
+       struct hfsplus_cat_file *file;
+       int res;
++      pax_track_stack();
++
+       if (!S_ISREG(inode->i_mode) || HFSPLUS_IS_RSRC(inode))
+               return -EOPNOTSUPP;
+@@ -143,6 +145,8 @@ ssize_t hfsplus_getxattr(struct dentry *dentry, const char *name,
+       struct hfsplus_cat_file *file;
+       ssize_t res = 0;
++      pax_track_stack();
++
+       if (!S_ISREG(inode->i_mode) || HFSPLUS_IS_RSRC(inode))
+               return -EOPNOTSUPP;
+diff --git a/fs/hfsplus/super.c b/fs/hfsplus/super.c
+index 43022f3..7298079 100644
+--- a/fs/hfsplus/super.c
++++ b/fs/hfsplus/super.c
+@@ -312,6 +312,8 @@ static int hfsplus_fill_super(struct super_block *sb, void *data, int silent)
+       struct nls_table *nls = NULL;
+       int err = -EINVAL;
++      pax_track_stack();
++
+       sbi = kzalloc(sizeof(*sbi), GFP_KERNEL);
+       if (!sbi)
+               return -ENOMEM;
+diff --git a/fs/hugetlbfs/inode.c b/fs/hugetlbfs/inode.c
+index 87a1258..5694d91 100644
+--- a/fs/hugetlbfs/inode.c
++++ b/fs/hugetlbfs/inode.c
+@@ -909,7 +909,7 @@ static struct file_system_type hugetlbfs_fs_type = {
+       .kill_sb        = kill_litter_super,
+ };
+-static struct vfsmount *hugetlbfs_vfsmount;
++struct vfsmount *hugetlbfs_vfsmount;
+ static int can_do_hugetlb_shm(void)
+ {
+diff --git a/fs/ioctl.c b/fs/ioctl.c
+index 6c75110..19d2c3c 100644
+--- a/fs/ioctl.c
++++ b/fs/ioctl.c
+@@ -97,7 +97,7 @@ int fiemap_fill_next_extent(struct fiemap_extent_info *fieinfo, u64 logical,
+                           u64 phys, u64 len, u32 flags)
+ {
+       struct fiemap_extent extent;
+-      struct fiemap_extent *dest = fieinfo->fi_extents_start;
++      struct fiemap_extent __user *dest = fieinfo->fi_extents_start;
+       /* only count the extents */
+       if (fieinfo->fi_extents_max == 0) {
+@@ -207,7 +207,7 @@ static int ioctl_fiemap(struct file *filp, unsigned long arg)
+       fieinfo.fi_flags = fiemap.fm_flags;
+       fieinfo.fi_extents_max = fiemap.fm_extent_count;
+-      fieinfo.fi_extents_start = (struct fiemap_extent *)(arg + sizeof(fiemap));
++      fieinfo.fi_extents_start = (struct fiemap_extent __user *)(arg + sizeof(fiemap));
+       if (fiemap.fm_extent_count != 0 &&
+           !access_ok(VERIFY_WRITE, fieinfo.fi_extents_start,
+@@ -220,7 +220,7 @@ static int ioctl_fiemap(struct file *filp, unsigned long arg)
+       error = inode->i_op->fiemap(inode, &fieinfo, fiemap.fm_start, len);
+       fiemap.fm_flags = fieinfo.fi_flags;
+       fiemap.fm_mapped_extents = fieinfo.fi_extents_mapped;
+-      if (copy_to_user((char *)arg, &fiemap, sizeof(fiemap)))
++      if (copy_to_user((__force char __user *)arg, &fiemap, sizeof(fiemap)))
+               error = -EFAULT;
+       return error;
+diff --git a/fs/jbd/checkpoint.c b/fs/jbd/checkpoint.c
+index b0435dd..81ee0be 100644
+--- a/fs/jbd/checkpoint.c
++++ b/fs/jbd/checkpoint.c
+@@ -348,6 +348,8 @@ int log_do_checkpoint(journal_t *journal)
+       tid_t this_tid;
+       int result;
++      pax_track_stack();
++
+       jbd_debug(1, "Start checkpoint\n");
+       /*
+diff --git a/fs/jffs2/compr_rtime.c b/fs/jffs2/compr_rtime.c
+index 546d153..736896c 100644
+--- a/fs/jffs2/compr_rtime.c
++++ b/fs/jffs2/compr_rtime.c
+@@ -37,6 +37,8 @@ static int jffs2_rtime_compress(unsigned char *data_in,
+       int outpos = 0;
+       int pos=0;
++      pax_track_stack();
++
+       memset(positions,0,sizeof(positions));
+       while (pos < (*sourcelen) && outpos <= (*dstlen)-2) {
+@@ -79,6 +81,8 @@ static int jffs2_rtime_decompress(unsigned char *data_in,
+       int outpos = 0;
+       int pos=0;
++      pax_track_stack();
++
+       memset(positions,0,sizeof(positions));
+       while (outpos<destlen) {
+diff --git a/fs/jffs2/compr_rubin.c b/fs/jffs2/compr_rubin.c
+index 170d289..3254b98 100644
+--- a/fs/jffs2/compr_rubin.c
++++ b/fs/jffs2/compr_rubin.c
+@@ -314,6 +314,8 @@ static int jffs2_dynrubin_compress(unsigned char *data_in,
+       int ret;
+       uint32_t mysrclen, mydstlen;
++      pax_track_stack();
++
+       mysrclen = *sourcelen;
+       mydstlen = *dstlen - 8;
+diff --git a/fs/jffs2/erase.c b/fs/jffs2/erase.c
+index b47679b..00d65d3 100644
+--- a/fs/jffs2/erase.c
++++ b/fs/jffs2/erase.c
+@@ -434,7 +434,8 @@ static void jffs2_mark_erased_block(struct jffs2_sb_info *c, struct jffs2_eraseb
+               struct jffs2_unknown_node marker = {
+                       .magic =        cpu_to_je16(JFFS2_MAGIC_BITMASK),
+                       .nodetype =     cpu_to_je16(JFFS2_NODETYPE_CLEANMARKER),
+-                      .totlen =       cpu_to_je32(c->cleanmarker_size)
++                      .totlen =       cpu_to_je32(c->cleanmarker_size),
++                      .hdr_crc =      cpu_to_je32(0)
+               };
+               jffs2_prealloc_raw_node_refs(c, jeb, 1);
+diff --git a/fs/jffs2/wbuf.c b/fs/jffs2/wbuf.c
+index 5ef7bac..4fd1e3c 100644
+--- a/fs/jffs2/wbuf.c
++++ b/fs/jffs2/wbuf.c
+@@ -1012,7 +1012,8 @@ static const struct jffs2_unknown_node oob_cleanmarker =
+ {
+       .magic = constant_cpu_to_je16(JFFS2_MAGIC_BITMASK),
+       .nodetype = constant_cpu_to_je16(JFFS2_NODETYPE_CLEANMARKER),
+-      .totlen = constant_cpu_to_je32(8)
++      .totlen = constant_cpu_to_je32(8),
++      .hdr_crc = constant_cpu_to_je32(0)
+ };
+ /*
+diff --git a/fs/jffs2/xattr.c b/fs/jffs2/xattr.c
+index 082e844..52012a1 100644
+--- a/fs/jffs2/xattr.c
++++ b/fs/jffs2/xattr.c
+@@ -773,6 +773,8 @@ void jffs2_build_xattr_subsystem(struct jffs2_sb_info *c)
+       BUG_ON(!(c->flags & JFFS2_SB_FLAG_BUILDING));
++      pax_track_stack();
++
+       /* Phase.1 : Merge same xref */
+       for (i=0; i < XREF_TMPHASH_SIZE; i++)
+               xref_tmphash[i] = NULL;
+diff --git a/fs/jfs/super.c b/fs/jfs/super.c
+index 2234c73..f6e6e6b 100644
+--- a/fs/jfs/super.c
++++ b/fs/jfs/super.c
+@@ -793,7 +793,7 @@ static int __init init_jfs_fs(void)
+       jfs_inode_cachep =
+           kmem_cache_create("jfs_ip", sizeof(struct jfs_inode_info), 0,
+-                          SLAB_RECLAIM_ACCOUNT|SLAB_MEM_SPREAD,
++                          SLAB_RECLAIM_ACCOUNT|SLAB_MEM_SPREAD|SLAB_USERCOPY,
+                           init_once);
+       if (jfs_inode_cachep == NULL)
+               return -ENOMEM;
+diff --git a/fs/libfs.c b/fs/libfs.c
+index ba36e93..3153fce 100644
+--- a/fs/libfs.c
++++ b/fs/libfs.c
+@@ -157,12 +157,20 @@ int dcache_readdir(struct file * filp, void * dirent, filldir_t filldir)
+                       for (p=q->next; p != &dentry->d_subdirs; p=p->next) {
+                               struct dentry *next;
++                              char d_name[sizeof(next->d_iname)];
++                              const unsigned char *name;
++
+                               next = list_entry(p, struct dentry, d_u.d_child);
+                               if (d_unhashed(next) || !next->d_inode)
+                                       continue;
+                               spin_unlock(&dcache_lock);
+-                              if (filldir(dirent, next->d_name.name, 
++                              name = next->d_name.name;
++                              if (name == next->d_iname) {
++                                      memcpy(d_name, name, next->d_name.len);
++                                      name = d_name;
++                              }
++                              if (filldir(dirent, name, 
+                                           next->d_name.len, filp->f_pos, 
+                                           next->d_inode->i_ino, 
+                                           dt_type(next->d_inode)) < 0)
+diff --git a/fs/lockd/clntproc.c b/fs/lockd/clntproc.c
+index c325a83..d15b07b 100644
+--- a/fs/lockd/clntproc.c
++++ b/fs/lockd/clntproc.c
+@@ -36,11 +36,11 @@ static const struct rpc_call_ops nlmclnt_cancel_ops;
+ /*
+  * Cookie counter for NLM requests
+  */
+-static atomic_t       nlm_cookie = ATOMIC_INIT(0x1234);
++static atomic_unchecked_t     nlm_cookie = ATOMIC_INIT(0x1234);
+ void nlmclnt_next_cookie(struct nlm_cookie *c)
+ {
+-      u32     cookie = atomic_inc_return(&nlm_cookie);
++      u32     cookie = atomic_inc_return_unchecked(&nlm_cookie);
+       memcpy(c->data, &cookie, 4);
+       c->len=4;
+@@ -621,6 +621,8 @@ nlmclnt_reclaim(struct nlm_host *host, struct file_lock *fl)
+       struct nlm_rqst reqst, *req;
+       int             status;
++      pax_track_stack();
++
+       req = &reqst;
+       memset(req, 0, sizeof(*req));
+       locks_init_lock(&req->a_args.lock.fl);
+diff --git a/fs/lockd/svc.c b/fs/lockd/svc.c
+index 1a54ae1..6a16c27 100644
+--- a/fs/lockd/svc.c
++++ b/fs/lockd/svc.c
+@@ -43,7 +43,7 @@
+ static struct svc_program     nlmsvc_program;
+-struct nlmsvc_binding *               nlmsvc_ops;
++const struct nlmsvc_binding * nlmsvc_ops;
+ EXPORT_SYMBOL_GPL(nlmsvc_ops);
+ static DEFINE_MUTEX(nlmsvc_mutex);
+diff --git a/fs/locks.c b/fs/locks.c
+index a8794f2..4041e55 100644
+--- a/fs/locks.c
++++ b/fs/locks.c
+@@ -145,10 +145,28 @@ static LIST_HEAD(blocked_list);
+ static struct kmem_cache *filelock_cache __read_mostly;
++static void locks_init_lock_always(struct file_lock *fl)
++{
++      fl->fl_next = NULL;
++      fl->fl_fasync = NULL;
++      fl->fl_owner = NULL;
++      fl->fl_pid = 0;
++      fl->fl_nspid = NULL;
++      fl->fl_file = NULL;
++      fl->fl_flags = 0;
++      fl->fl_type = 0;
++      fl->fl_start = fl->fl_end = 0;
++}
++
+ /* Allocate an empty lock structure. */
+ static struct file_lock *locks_alloc_lock(void)
+ {
+-      return kmem_cache_alloc(filelock_cache, GFP_KERNEL);
++      struct file_lock *fl = kmem_cache_alloc(filelock_cache, GFP_KERNEL);
++
++      if (fl)
++              locks_init_lock_always(fl);
++
++      return fl;
+ }
+ void locks_release_private(struct file_lock *fl)
+@@ -183,17 +201,9 @@ void locks_init_lock(struct file_lock *fl)
+       INIT_LIST_HEAD(&fl->fl_link);
+       INIT_LIST_HEAD(&fl->fl_block);
+       init_waitqueue_head(&fl->fl_wait);
+-      fl->fl_next = NULL;
+-      fl->fl_fasync = NULL;
+-      fl->fl_owner = NULL;
+-      fl->fl_pid = 0;
+-      fl->fl_nspid = NULL;
+-      fl->fl_file = NULL;
+-      fl->fl_flags = 0;
+-      fl->fl_type = 0;
+-      fl->fl_start = fl->fl_end = 0;
+       fl->fl_ops = NULL;
+       fl->fl_lmops = NULL;
++      locks_init_lock_always(fl);
+ }
+ EXPORT_SYMBOL(locks_init_lock);
+@@ -2007,16 +2017,16 @@ void locks_remove_flock(struct file *filp)
+               return;
+       if (filp->f_op && filp->f_op->flock) {
+-              struct file_lock fl = {
++              struct file_lock flock = {
+                       .fl_pid = current->tgid,
+                       .fl_file = filp,
+                       .fl_flags = FL_FLOCK,
+                       .fl_type = F_UNLCK,
+                       .fl_end = OFFSET_MAX,
+               };
+-              filp->f_op->flock(filp, F_SETLKW, &fl);
+-              if (fl.fl_ops && fl.fl_ops->fl_release_private)
+-                      fl.fl_ops->fl_release_private(&fl);
++              filp->f_op->flock(filp, F_SETLKW, &flock);
++              if (flock.fl_ops && flock.fl_ops->fl_release_private)
++                      flock.fl_ops->fl_release_private(&flock);
+       }
+       lock_kernel();
+diff --git a/fs/mbcache.c b/fs/mbcache.c
+index ec88ff3..b843a82 100644
+--- a/fs/mbcache.c
++++ b/fs/mbcache.c
+@@ -266,9 +266,9 @@ mb_cache_create(const char *name, struct mb_cache_op *cache_op,
+       if (!cache)
+               goto fail;
+       cache->c_name = name;
+-      cache->c_op.free = NULL;
++      *(void **)&cache->c_op.free = NULL;
+       if (cache_op)
+-              cache->c_op.free = cache_op->free;
++              *(void **)&cache->c_op.free = cache_op->free;
+       atomic_set(&cache->c_entry_count, 0);
+       cache->c_bucket_bits = bucket_bits;
+ #ifdef MB_CACHE_INDEXES_COUNT
+diff --git a/fs/namei.c b/fs/namei.c
+index b0afbd4..8d065a1 100644
+--- a/fs/namei.c
++++ b/fs/namei.c
+@@ -224,6 +224,14 @@ int generic_permission(struct inode *inode, int mask,
+               return ret;
+       /*
++       * Searching includes executable on directories, else just read.
++       */
++      mask &= MAY_READ | MAY_WRITE | MAY_EXEC;
++      if (mask == MAY_READ || (S_ISDIR(inode->i_mode) && !(mask & MAY_WRITE)))
++              if (capable(CAP_DAC_READ_SEARCH))
++                      return 0;
++
++      /*
+        * Read/write DACs are always overridable.
+        * Executable DACs are overridable if at least one exec bit is set.
+        */
+@@ -231,14 +239,6 @@ int generic_permission(struct inode *inode, int mask,
+               if (capable(CAP_DAC_OVERRIDE))
+                       return 0;
+-      /*
+-       * Searching includes executable on directories, else just read.
+-       */
+-      mask &= MAY_READ | MAY_WRITE | MAY_EXEC;
+-      if (mask == MAY_READ || (S_ISDIR(inode->i_mode) && !(mask & MAY_WRITE)))
+-              if (capable(CAP_DAC_READ_SEARCH))
+-                      return 0;
+-
+       return -EACCES;
+ }
+@@ -458,7 +458,8 @@ static int exec_permission_lite(struct inode *inode)
+       if (!ret)
+               goto ok;
+-      if (capable(CAP_DAC_OVERRIDE) || capable(CAP_DAC_READ_SEARCH))
++      if (capable_nolog(CAP_DAC_OVERRIDE) || capable(CAP_DAC_READ_SEARCH) ||
++                      capable(CAP_DAC_OVERRIDE))
+               goto ok;
+       return ret;
+@@ -638,7 +639,7 @@ static __always_inline int __do_follow_link(struct path *path, struct nameidata
+       cookie = dentry->d_inode->i_op->follow_link(dentry, nd);
+       error = PTR_ERR(cookie);
+       if (!IS_ERR(cookie)) {
+-              char *s = nd_get_link(nd);
++              const char *s = nd_get_link(nd);
+               error = 0;
+               if (s)
+                       error = __vfs_follow_link(nd, s);
+@@ -669,6 +670,13 @@ static inline int do_follow_link(struct path *path, struct nameidata *nd)
+       err = security_inode_follow_link(path->dentry, nd);
+       if (err)
+               goto loop;
++
++      if (gr_handle_follow_link(path->dentry->d_parent->d_inode,
++                                path->dentry->d_inode, path->dentry, nd->path.mnt)) {
++              err = -EACCES;
++              goto loop;
++      }
++
+       current->link_count++;
+       current->total_link_count++;
+       nd->depth++;
+@@ -1016,11 +1024,19 @@ return_reval:
+                               break;
+               }
+ return_base:
++              if (!(nd->flags & (LOOKUP_CONTINUE | LOOKUP_PARENT)) &&
++                  !gr_acl_handle_hidden_file(nd->path.dentry, nd->path.mnt)) {
++                      path_put(&nd->path);
++                      return -ENOENT;
++              }
+               return 0;
+ out_dput:
+               path_put_conditional(&next, nd);
+               break;
+       }
++      if (!gr_acl_handle_hidden_file(nd->path.dentry, nd->path.mnt))
++              err = -ENOENT;
++
+       path_put(&nd->path);
+ return_err:
+       return err;
+@@ -1091,13 +1107,20 @@ static int do_path_lookup(int dfd, const char *name,
+       int retval = path_init(dfd, name, flags, nd);
+       if (!retval)
+               retval = path_walk(name, nd);
+-      if (unlikely(!retval && !audit_dummy_context() && nd->path.dentry &&
+-                              nd->path.dentry->d_inode))
+-              audit_inode(name, nd->path.dentry);
++
++      if (likely(!retval)) {
++              if (nd->path.dentry && nd->path.dentry->d_inode) {
++                      if (*name != '/' && !gr_chroot_fchdir(nd->path.dentry, nd->path.mnt))
++                              retval = -ENOENT;
++                      if (!audit_dummy_context())
++                              audit_inode(name, nd->path.dentry);
++              }
++      }
+       if (nd->root.mnt) {
+               path_put(&nd->root);
+               nd->root.mnt = NULL;
+       }
++
+       return retval;
+ }
+@@ -1576,6 +1599,20 @@ int may_open(struct path *path, int acc_mode, int flag)
+       if (error)
+               goto err_out;
++
++      if (gr_handle_rofs_blockwrite(dentry, path->mnt, acc_mode)) {
++              error = -EPERM;
++              goto err_out;
++      }
++      if (gr_handle_rawio(inode)) {
++              error = -EPERM;
++              goto err_out;
++      }
++      if (!gr_acl_handle_open(dentry, path->mnt, acc_mode)) {
++              error = -EACCES;
++              goto err_out;
++      }
++
+       if (flag & O_TRUNC) {
+               error = get_write_access(inode);
+               if (error)
+@@ -1620,6 +1657,17 @@ static int __open_namei_create(struct nameidata *nd, struct path *path,
+ {
+       int error;
+       struct dentry *dir = nd->path.dentry;
++      int acc_mode = ACC_MODE(flag);
++
++        if (flag & O_TRUNC)
++                acc_mode |= MAY_WRITE;
++        if (flag & O_APPEND)
++                acc_mode |= MAY_APPEND;
++
++      if (!gr_acl_handle_creat(path->dentry, dir, nd->path.mnt, flag, acc_mode, mode)) {
++              error = -EACCES;
++              goto out_unlock;
++      }
+       if (!IS_POSIXACL(dir->d_inode))
+               mode &= ~current_umask();
+@@ -1627,6 +1675,8 @@ static int __open_namei_create(struct nameidata *nd, struct path *path,
+       if (error)
+               goto out_unlock;
+       error = vfs_create(dir->d_inode, path->dentry, mode, nd);
++      if (!error)
++              gr_handle_create(path->dentry, nd->path.mnt);
+ out_unlock:
+       mutex_unlock(&dir->d_inode->i_mutex);
+       dput(nd->path.dentry);
+@@ -1709,6 +1759,22 @@ struct file *do_filp_open(int dfd, const char *pathname,
+                                        &nd, flag);
+               if (error)
+                       return ERR_PTR(error);
++
++              if (gr_handle_rofs_blockwrite(nd.path.dentry, nd.path.mnt, acc_mode)) {
++                      error = -EPERM;
++                      goto exit;
++              }
++
++              if (gr_handle_rawio(nd.path.dentry->d_inode)) {
++                      error = -EPERM;
++                      goto exit;
++              }
++
++              if (!gr_acl_handle_open(nd.path.dentry, nd.path.mnt, acc_mode)) {
++                      error = -EACCES;
++                      goto exit;
++              }
++
+               goto ok;
+       }
+@@ -1795,6 +1861,19 @@ do_last:
+       /*
+        * It already exists.
+        */
++
++      if (!gr_acl_handle_hidden_file(path.dentry, path.mnt)) {
++              error = -ENOENT;
++              goto exit_mutex_unlock;
++      }
++
++      /* only check if O_CREAT is specified, all other checks need
++         to go into may_open */
++      if (gr_handle_fifo(path.dentry, path.mnt, dir, flag, acc_mode)) {
++              error = -EACCES;
++              goto exit_mutex_unlock;
++      }
++
+       mutex_unlock(&dir->d_inode->i_mutex);
+       audit_inode(pathname, path.dentry);
+@@ -1887,6 +1966,13 @@ do_link:
+       error = security_inode_follow_link(path.dentry, &nd);
+       if (error)
+               goto exit_dput;
++
++      if (gr_handle_follow_link(path.dentry->d_parent->d_inode, path.dentry->d_inode,
++                                path.dentry, nd.path.mnt)) {
++              error = -EACCES;
++              goto exit_dput;
++      }
++
+       error = __do_follow_link(&path, &nd);
+       if (error) {
+               /* Does someone understand code flow here? Or it is only
+@@ -1984,6 +2070,10 @@ struct dentry *lookup_create(struct nameidata *nd, int is_dir)
+       }
+       return dentry;
+ eexist:
++      if (!gr_acl_handle_hidden_file(dentry, nd->path.mnt)) {
++              dput(dentry);
++              return ERR_PTR(-ENOENT);
++      }
+       dput(dentry);
+       dentry = ERR_PTR(-EEXIST);
+ fail:
+@@ -2061,6 +2151,17 @@ SYSCALL_DEFINE4(mknodat, int, dfd, const char __user *, filename, int, mode,
+       error = may_mknod(mode);
+       if (error)
+               goto out_dput;
++
++      if (gr_handle_chroot_mknod(dentry, nd.path.mnt, mode)) {
++              error = -EPERM;
++              goto out_dput;
++      }
++
++      if (!gr_acl_handle_mknod(dentry, nd.path.dentry, nd.path.mnt, mode)) {
++              error = -EACCES;
++              goto out_dput;
++      }
++
+       error = mnt_want_write(nd.path.mnt);
+       if (error)
+               goto out_dput;
+@@ -2081,6 +2182,9 @@ SYSCALL_DEFINE4(mknodat, int, dfd, const char __user *, filename, int, mode,
+       }
+ out_drop_write:
+       mnt_drop_write(nd.path.mnt);
++
++      if (!error)
++              gr_handle_create(dentry, nd.path.mnt);
+ out_dput:
+       dput(dentry);
+ out_unlock:
+@@ -2134,6 +2238,11 @@ SYSCALL_DEFINE3(mkdirat, int, dfd, const char __user *, pathname, int, mode)
+       if (IS_ERR(dentry))
+               goto out_unlock;
++      if (!gr_acl_handle_mkdir(dentry, nd.path.dentry, nd.path.mnt)) {
++              error = -EACCES;
++              goto out_dput;
++      }
++
+       if (!IS_POSIXACL(nd.path.dentry->d_inode))
+               mode &= ~current_umask();
+       error = mnt_want_write(nd.path.mnt);
+@@ -2145,6 +2254,10 @@ SYSCALL_DEFINE3(mkdirat, int, dfd, const char __user *, pathname, int, mode)
+       error = vfs_mkdir(nd.path.dentry->d_inode, dentry, mode);
+ out_drop_write:
+       mnt_drop_write(nd.path.mnt);
++
++      if (!error)
++              gr_handle_create(dentry, nd.path.mnt);
++
+ out_dput:
+       dput(dentry);
+ out_unlock:
+@@ -2226,6 +2339,8 @@ static long do_rmdir(int dfd, const char __user *pathname)
+       char * name;
+       struct dentry *dentry;
+       struct nameidata nd;
++      ino_t saved_ino = 0;
++      dev_t saved_dev = 0;
+       error = user_path_parent(dfd, pathname, &nd, &name);
+       if (error)
+@@ -2250,6 +2365,17 @@ static long do_rmdir(int dfd, const char __user *pathname)
+       error = PTR_ERR(dentry);
+       if (IS_ERR(dentry))
+               goto exit2;
++
++      if (dentry->d_inode != NULL) {
++              saved_ino = dentry->d_inode->i_ino;
++              saved_dev = gr_get_dev_from_dentry(dentry);
++
++              if (!gr_acl_handle_rmdir(dentry, nd.path.mnt)) {
++                      error = -EACCES;
++                      goto exit3;
++              }
++      }
++
+       error = mnt_want_write(nd.path.mnt);
+       if (error)
+               goto exit3;
+@@ -2257,6 +2383,8 @@ static long do_rmdir(int dfd, const char __user *pathname)
+       if (error)
+               goto exit4;
+       error = vfs_rmdir(nd.path.dentry->d_inode, dentry);
++      if (!error && (saved_dev || saved_ino))
++              gr_handle_delete(saved_ino, saved_dev);
+ exit4:
+       mnt_drop_write(nd.path.mnt);
+ exit3:
+@@ -2318,6 +2446,8 @@ static long do_unlinkat(int dfd, const char __user *pathname)
+       struct dentry *dentry;
+       struct nameidata nd;
+       struct inode *inode = NULL;
++      ino_t saved_ino = 0;
++      dev_t saved_dev = 0;
+       error = user_path_parent(dfd, pathname, &nd, &name);
+       if (error)
+@@ -2337,8 +2467,19 @@ static long do_unlinkat(int dfd, const char __user *pathname)
+               if (nd.last.name[nd.last.len])
+                       goto slashes;
+               inode = dentry->d_inode;
+-              if (inode)
++              if (inode) {
++                      if (inode->i_nlink <= 1) {
++                              saved_ino = inode->i_ino;
++                              saved_dev = gr_get_dev_from_dentry(dentry);
++                      }
++
+                       atomic_inc(&inode->i_count);
++
++                      if (!gr_acl_handle_unlink(dentry, nd.path.mnt)) {
++                              error = -EACCES;
++                              goto exit2;
++                      }
++              }
+               error = mnt_want_write(nd.path.mnt);
+               if (error)
+                       goto exit2;
+@@ -2346,6 +2487,8 @@ static long do_unlinkat(int dfd, const char __user *pathname)
+               if (error)
+                       goto exit3;
+               error = vfs_unlink(nd.path.dentry->d_inode, dentry);
++              if (!error && (saved_ino || saved_dev))
++                      gr_handle_delete(saved_ino, saved_dev);
+ exit3:
+               mnt_drop_write(nd.path.mnt);
+       exit2:
+@@ -2424,6 +2567,11 @@ SYSCALL_DEFINE3(symlinkat, const char __user *, oldname,
+       if (IS_ERR(dentry))
+               goto out_unlock;
++      if (!gr_acl_handle_symlink(dentry, nd.path.dentry, nd.path.mnt, from)) {
++              error = -EACCES;
++              goto out_dput;
++      }
++
+       error = mnt_want_write(nd.path.mnt);
+       if (error)
+               goto out_dput;
+@@ -2431,6 +2579,8 @@ SYSCALL_DEFINE3(symlinkat, const char __user *, oldname,
+       if (error)
+               goto out_drop_write;
+       error = vfs_symlink(nd.path.dentry->d_inode, dentry, from);
++      if (!error)
++              gr_handle_create(dentry, nd.path.mnt);
+ out_drop_write:
+       mnt_drop_write(nd.path.mnt);
+ out_dput:
+@@ -2524,6 +2674,20 @@ SYSCALL_DEFINE5(linkat, int, olddfd, const char __user *, oldname,
+       error = PTR_ERR(new_dentry);
+       if (IS_ERR(new_dentry))
+               goto out_unlock;
++
++      if (gr_handle_hardlink(old_path.dentry, old_path.mnt,
++                             old_path.dentry->d_inode,
++                             old_path.dentry->d_inode->i_mode, to)) {
++              error = -EACCES;
++              goto out_dput;
++      }
++
++      if (!gr_acl_handle_link(new_dentry, nd.path.dentry, nd.path.mnt,
++                              old_path.dentry, old_path.mnt, to)) {
++              error = -EACCES;
++              goto out_dput;
++      }
++
+       error = mnt_want_write(nd.path.mnt);
+       if (error)
+               goto out_dput;
+@@ -2531,6 +2695,8 @@ SYSCALL_DEFINE5(linkat, int, olddfd, const char __user *, oldname,
+       if (error)
+               goto out_drop_write;
+       error = vfs_link(old_path.dentry, nd.path.dentry->d_inode, new_dentry);
++      if (!error)
++              gr_handle_create(new_dentry, nd.path.mnt);
+ out_drop_write:
+       mnt_drop_write(nd.path.mnt);
+ out_dput:
+@@ -2708,6 +2874,8 @@ SYSCALL_DEFINE4(renameat, int, olddfd, const char __user *, oldname,
+       char *to;
+       int error;
++      pax_track_stack();
++
+       error = user_path_parent(olddfd, oldname, &oldnd, &from);
+       if (error)
+               goto exit;
+@@ -2764,6 +2932,12 @@ SYSCALL_DEFINE4(renameat, int, olddfd, const char __user *, oldname,
+       if (new_dentry == trap)
+               goto exit5;
++      error = gr_acl_handle_rename(new_dentry, new_dir, newnd.path.mnt,
++                                   old_dentry, old_dir->d_inode, oldnd.path.mnt,
++                                   to);
++      if (error)
++              goto exit5;
++
+       error = mnt_want_write(oldnd.path.mnt);
+       if (error)
+               goto exit5;
+@@ -2773,6 +2947,9 @@ SYSCALL_DEFINE4(renameat, int, olddfd, const char __user *, oldname,
+               goto exit6;
+       error = vfs_rename(old_dir->d_inode, old_dentry,
+                                  new_dir->d_inode, new_dentry);
++      if (!error)
++              gr_handle_rename(old_dir->d_inode, new_dir->d_inode, old_dentry,
++                               new_dentry, oldnd.path.mnt, new_dentry->d_inode ? 1 : 0);
+ exit6:
+       mnt_drop_write(oldnd.path.mnt);
+ exit5:
+@@ -2798,6 +2975,8 @@ SYSCALL_DEFINE2(rename, const char __user *, oldname, const char __user *, newna
+ int vfs_readlink(struct dentry *dentry, char __user *buffer, int buflen, const char *link)
+ {
++      char tmpbuf[64];
++      const char *newlink;
+       int len;
+       len = PTR_ERR(link);
+@@ -2807,7 +2986,14 @@ int vfs_readlink(struct dentry *dentry, char __user *buffer, int buflen, const c
+       len = strlen(link);
+       if (len > (unsigned) buflen)
+               len = buflen;
+-      if (copy_to_user(buffer, link, len))
++
++      if (len < sizeof(tmpbuf)) {
++              memcpy(tmpbuf, link, len);
++              newlink = tmpbuf;
++      } else
++              newlink = link;
++
++      if (copy_to_user(buffer, newlink, len))
+               len = -EFAULT;
+ out:
+       return len;
+diff --git a/fs/namespace.c b/fs/namespace.c
+index 2beb0fb..11a95a5 100644
+--- a/fs/namespace.c
++++ b/fs/namespace.c
+@@ -1083,6 +1083,9 @@ static int do_umount(struct vfsmount *mnt, int flags)
+               if (!(sb->s_flags & MS_RDONLY))
+                       retval = do_remount_sb(sb, MS_RDONLY, NULL, 0);
+               up_write(&sb->s_umount);
++
++              gr_log_remount(mnt->mnt_devname, retval);
++
+               return retval;
+       }
+@@ -1104,6 +1107,9 @@ static int do_umount(struct vfsmount *mnt, int flags)
+               security_sb_umount_busy(mnt);
+       up_write(&namespace_sem);
+       release_mounts(&umount_list);
++
++      gr_log_unmount(mnt->mnt_devname, retval);
++
+       return retval;
+ }
+@@ -1962,6 +1968,16 @@ long do_mount(char *dev_name, char *dir_name, char *type_page,
+       if (retval)
+               goto dput_out;
++      if (gr_handle_rofs_mount(path.dentry, path.mnt, mnt_flags)) {
++              retval = -EPERM;
++              goto dput_out;
++      }
++
++      if (gr_handle_chroot_mount(path.dentry, path.mnt, dev_name)) {
++              retval = -EPERM;
++              goto dput_out;
++      }
++
+       if (flags & MS_REMOUNT)
+               retval = do_remount(&path, flags & ~MS_REMOUNT, mnt_flags,
+                                   data_page);
+@@ -1976,6 +1992,9 @@ long do_mount(char *dev_name, char *dir_name, char *type_page,
+                                     dev_name, data_page);
+ dput_out:
+       path_put(&path);
++
++      gr_log_mount(dev_name, dir_name, retval);
++
+       return retval;
+ }
+@@ -2182,6 +2201,12 @@ SYSCALL_DEFINE2(pivot_root, const char __user *, new_root,
+               goto out1;
+       }
++      if (gr_handle_chroot_pivot()) {
++              error = -EPERM;
++              path_put(&old);
++              goto out1;
++      }
++
+       read_lock(&current->fs->lock);
+       root = current->fs->root;
+       path_get(&current->fs->root);
+diff --git a/fs/ncpfs/dir.c b/fs/ncpfs/dir.c
+index b8b5b30..2bd9ccb 100644
+--- a/fs/ncpfs/dir.c
++++ b/fs/ncpfs/dir.c
+@@ -275,6 +275,8 @@ __ncp_lookup_validate(struct dentry *dentry)
+       int res, val = 0, len;
+       __u8 __name[NCP_MAXPATHLEN + 1];
++      pax_track_stack();
++
+       parent = dget_parent(dentry);
+       dir = parent->d_inode;
+@@ -799,6 +801,8 @@ static struct dentry *ncp_lookup(struct inode *dir, struct dentry *dentry, struc
+       int error, res, len;
+       __u8 __name[NCP_MAXPATHLEN + 1];
++      pax_track_stack();
++
+       lock_kernel();
+       error = -EIO;
+       if (!ncp_conn_valid(server))
+@@ -883,10 +887,12 @@ int ncp_create_new(struct inode *dir, struct dentry *dentry, int mode,
+       int error, result, len;
+       int opmode;
+       __u8 __name[NCP_MAXPATHLEN + 1];
+-      
++
+       PPRINTK("ncp_create_new: creating %s/%s, mode=%x\n",
+               dentry->d_parent->d_name.name, dentry->d_name.name, mode);
++      pax_track_stack();
++
+       error = -EIO;
+       lock_kernel();
+       if (!ncp_conn_valid(server))
+@@ -952,6 +958,8 @@ static int ncp_mkdir(struct inode *dir, struct dentry *dentry, int mode)
+       int error, len;
+       __u8 __name[NCP_MAXPATHLEN + 1];
++      pax_track_stack();
++
+       DPRINTK("ncp_mkdir: making %s/%s\n",
+               dentry->d_parent->d_name.name, dentry->d_name.name);
+@@ -960,6 +968,8 @@ static int ncp_mkdir(struct inode *dir, struct dentry *dentry, int mode)
+       if (!ncp_conn_valid(server))
+               goto out;
++      pax_track_stack();
++
+       ncp_age_dentry(server, dentry);
+       len = sizeof(__name);
+       error = ncp_io2vol(server, __name, &len, dentry->d_name.name,
+@@ -1114,6 +1124,8 @@ static int ncp_rename(struct inode *old_dir, struct dentry *old_dentry,
+       int old_len, new_len;
+       __u8 __old_name[NCP_MAXPATHLEN + 1], __new_name[NCP_MAXPATHLEN + 1];
++      pax_track_stack();
++
+       DPRINTK("ncp_rename: %s/%s to %s/%s\n",
+               old_dentry->d_parent->d_name.name, old_dentry->d_name.name,
+               new_dentry->d_parent->d_name.name, new_dentry->d_name.name);
+diff --git a/fs/ncpfs/inode.c b/fs/ncpfs/inode.c
+index cf98da1..da890a9 100644
+--- a/fs/ncpfs/inode.c
++++ b/fs/ncpfs/inode.c
+@@ -445,6 +445,8 @@ static int ncp_fill_super(struct super_block *sb, void *raw_data, int silent)
+ #endif
+       struct ncp_entry_info finfo;
++      pax_track_stack();
++
+       data.wdog_pid = NULL;
+       server = kzalloc(sizeof(struct ncp_server), GFP_KERNEL);
+       if (!server)
+diff --git a/fs/nfs/inode.c b/fs/nfs/inode.c
+index bfaef7b..e9d03ca 100644
+--- a/fs/nfs/inode.c
++++ b/fs/nfs/inode.c
+@@ -156,7 +156,7 @@ static void nfs_zap_caches_locked(struct inode *inode)
+       nfsi->attrtimeo = NFS_MINATTRTIMEO(inode);
+       nfsi->attrtimeo_timestamp = jiffies;
+-      memset(NFS_COOKIEVERF(inode), 0, sizeof(NFS_COOKIEVERF(inode)));
++      memset(NFS_COOKIEVERF(inode), 0, sizeof(NFS_I(inode)->cookieverf));
+       if (S_ISREG(mode) || S_ISDIR(mode) || S_ISLNK(mode))
+               nfsi->cache_validity |= NFS_INO_INVALID_ATTR|NFS_INO_INVALID_DATA|NFS_INO_INVALID_ACCESS|NFS_INO_INVALID_ACL|NFS_INO_REVAL_PAGECACHE;
+       else
+@@ -973,16 +973,16 @@ static int nfs_size_need_update(const struct inode *inode, const struct nfs_fatt
+       return nfs_size_to_loff_t(fattr->size) > i_size_read(inode);
+ }
+-static atomic_long_t nfs_attr_generation_counter;
++static atomic_long_unchecked_t nfs_attr_generation_counter;
+ static unsigned long nfs_read_attr_generation_counter(void)
+ {
+-      return atomic_long_read(&nfs_attr_generation_counter);
++      return atomic_long_read_unchecked(&nfs_attr_generation_counter);
+ }
+ unsigned long nfs_inc_attr_generation_counter(void)
+ {
+-      return atomic_long_inc_return(&nfs_attr_generation_counter);
++      return atomic_long_inc_return_unchecked(&nfs_attr_generation_counter);
+ }
+ void nfs_fattr_init(struct nfs_fattr *fattr)
+diff --git a/fs/nfsd/lockd.c b/fs/nfsd/lockd.c
+index cc2f505..f6a236f 100644
+--- a/fs/nfsd/lockd.c
++++ b/fs/nfsd/lockd.c
+@@ -66,7 +66,7 @@ nlm_fclose(struct file *filp)
+       fput(filp);
+ }
+-static struct nlmsvc_binding  nfsd_nlm_ops = {
++static const struct nlmsvc_binding    nfsd_nlm_ops = {
+       .fopen          = nlm_fopen,            /* open file for locking */
+       .fclose         = nlm_fclose,           /* close file */
+ };
+diff --git a/fs/nfsd/nfs4state.c b/fs/nfsd/nfs4state.c
+index cfc3391..dcc083a 100644
+--- a/fs/nfsd/nfs4state.c
++++ b/fs/nfsd/nfs4state.c
+@@ -3459,6 +3459,8 @@ nfsd4_lock(struct svc_rqst *rqstp, struct nfsd4_compound_state *cstate,
+       unsigned int cmd;
+       int err;
++      pax_track_stack();
++
+       dprintk("NFSD: nfsd4_lock: start=%Ld length=%Ld\n",
+               (long long) lock->lk_offset,
+               (long long) lock->lk_length);
+diff --git a/fs/nfsd/nfs4xdr.c b/fs/nfsd/nfs4xdr.c
+index 4a82a96..0d5fb49 100644
+--- a/fs/nfsd/nfs4xdr.c
++++ b/fs/nfsd/nfs4xdr.c
+@@ -1751,6 +1751,8 @@ nfsd4_encode_fattr(struct svc_fh *fhp, struct svc_export *exp,
+       struct nfsd4_compoundres *resp = rqstp->rq_resp;
+       u32 minorversion = resp->cstate.minorversion;
++      pax_track_stack();
++
+       BUG_ON(bmval1 & NFSD_WRITEONLY_ATTRS_WORD1);
+       BUG_ON(bmval0 & ~nfsd_suppattrs0(minorversion));
+       BUG_ON(bmval1 & ~nfsd_suppattrs1(minorversion));
+diff --git a/fs/nfsd/vfs.c b/fs/nfsd/vfs.c
+index 2e09588..596421d 100644
+--- a/fs/nfsd/vfs.c
++++ b/fs/nfsd/vfs.c
+@@ -937,7 +937,7 @@ nfsd_vfs_read(struct svc_rqst *rqstp, struct svc_fh *fhp, struct file *file,
+       } else {
+               oldfs = get_fs();
+               set_fs(KERNEL_DS);
+-              host_err = vfs_readv(file, (struct iovec __user *)vec, vlen, &offset);
++              host_err = vfs_readv(file, (struct iovec __force_user *)vec, vlen, &offset);
+               set_fs(oldfs);
+       }
+@@ -1060,7 +1060,7 @@ nfsd_vfs_write(struct svc_rqst *rqstp, struct svc_fh *fhp, struct file *file,
+       /* Write the data. */
+       oldfs = get_fs(); set_fs(KERNEL_DS);
+-      host_err = vfs_writev(file, (struct iovec __user *)vec, vlen, &offset);
++      host_err = vfs_writev(file, (struct iovec __force_user *)vec, vlen, &offset);
+       set_fs(oldfs);
+       if (host_err < 0)
+               goto out_nfserr;
+@@ -1542,7 +1542,7 @@ nfsd_readlink(struct svc_rqst *rqstp, struct svc_fh *fhp, char *buf, int *lenp)
+        */
+       oldfs = get_fs(); set_fs(KERNEL_DS);
+-      host_err = inode->i_op->readlink(dentry, buf, *lenp);
++      host_err = inode->i_op->readlink(dentry, (char __force_user *)buf, *lenp);
+       set_fs(oldfs);
+       if (host_err < 0)
+diff --git a/fs/nilfs2/ioctl.c b/fs/nilfs2/ioctl.c
+index f6af760..d0adf34 100644
+--- a/fs/nilfs2/ioctl.c
++++ b/fs/nilfs2/ioctl.c
+@@ -480,7 +480,7 @@ static int nilfs_ioctl_clean_segments(struct inode *inode, struct file *filp,
+                                     unsigned int cmd, void __user *argp)
+ {
+       struct nilfs_argv argv[5];
+-      const static size_t argsz[5] = {
++      static const size_t argsz[5] = {
+               sizeof(struct nilfs_vdesc),
+               sizeof(struct nilfs_period),
+               sizeof(__u64),
+@@ -522,6 +522,9 @@ static int nilfs_ioctl_clean_segments(struct inode *inode, struct file *filp,
+               if (argv[n].v_nmembs > nsegs * nilfs->ns_blocks_per_segment)
+                       goto out_free;
++              if (argv[n].v_nmembs >= UINT_MAX / argv[n].v_size)
++                      goto out_free;
++
+               len = argv[n].v_size * argv[n].v_nmembs;
+               base = (void __user *)(unsigned long)argv[n].v_base;
+               if (len == 0) {
+diff --git a/fs/notify/dnotify/dnotify.c b/fs/notify/dnotify/dnotify.c
+index 7e54e52..9337248 100644
+--- a/fs/notify/dnotify/dnotify.c
++++ b/fs/notify/dnotify/dnotify.c
+@@ -173,7 +173,7 @@ static void dnotify_free_mark(struct fsnotify_mark_entry *entry)
+       kmem_cache_free(dnotify_mark_entry_cache, dnentry);
+ }
+-static struct fsnotify_ops dnotify_fsnotify_ops = {
++static const struct fsnotify_ops dnotify_fsnotify_ops = {
+       .handle_event = dnotify_handle_event,
+       .should_send_event = dnotify_should_send_event,
+       .free_group_priv = NULL,
+diff --git a/fs/notify/notification.c b/fs/notify/notification.c
+index b8bf53b..c518688 100644
+--- a/fs/notify/notification.c
++++ b/fs/notify/notification.c
+@@ -57,7 +57,7 @@ static struct kmem_cache *fsnotify_event_holder_cachep;
+  * get set to 0 so it will never get 'freed'
+  */
+ static struct fsnotify_event q_overflow_event;
+-static atomic_t fsnotify_sync_cookie = ATOMIC_INIT(0);
++static atomic_unchecked_t fsnotify_sync_cookie = ATOMIC_INIT(0);
+ /**
+  * fsnotify_get_cookie - return a unique cookie for use in synchronizing events.
+@@ -65,7 +65,7 @@ static atomic_t fsnotify_sync_cookie = ATOMIC_INIT(0);
+  */
+ u32 fsnotify_get_cookie(void)
+ {
+-      return atomic_inc_return(&fsnotify_sync_cookie);
++      return atomic_inc_return_unchecked(&fsnotify_sync_cookie);
+ }
+ EXPORT_SYMBOL_GPL(fsnotify_get_cookie);
+diff --git a/fs/ntfs/dir.c b/fs/ntfs/dir.c
+index 5a9e344..0f8cd28 100644
+--- a/fs/ntfs/dir.c
++++ b/fs/ntfs/dir.c
+@@ -1328,7 +1328,7 @@ find_next_index_buffer:
+       ia = (INDEX_ALLOCATION*)(kaddr + (ia_pos & ~PAGE_CACHE_MASK &
+                       ~(s64)(ndir->itype.index.block_size - 1)));
+       /* Bounds checks. */
+-      if (unlikely((u8*)ia < kaddr || (u8*)ia > kaddr + PAGE_CACHE_SIZE)) {
++      if (unlikely(!kaddr || (u8*)ia < kaddr || (u8*)ia > kaddr + PAGE_CACHE_SIZE)) {
+               ntfs_error(sb, "Out of bounds check failed. Corrupt directory "
+                               "inode 0x%lx or driver bug.", vdir->i_ino);
+               goto err_out;
+diff --git a/fs/ntfs/file.c b/fs/ntfs/file.c
+index 663c0e3..b6868e9 100644
+--- a/fs/ntfs/file.c
++++ b/fs/ntfs/file.c
+@@ -2243,6 +2243,6 @@ const struct inode_operations ntfs_file_inode_ops = {
+ #endif /* NTFS_RW */
+ };
+-const struct file_operations ntfs_empty_file_ops = {};
++const struct file_operations ntfs_empty_file_ops __read_only;
+-const struct inode_operations ntfs_empty_inode_ops = {};
++const struct inode_operations ntfs_empty_inode_ops __read_only;
+diff --git a/fs/ocfs2/cluster/masklog.c b/fs/ocfs2/cluster/masklog.c
+index 1cd2934..880b5d2 100644
+--- a/fs/ocfs2/cluster/masklog.c
++++ b/fs/ocfs2/cluster/masklog.c
+@@ -135,7 +135,7 @@ static ssize_t mlog_store(struct kobject *obj, struct attribute *attr,
+       return mlog_mask_store(mlog_attr->mask, buf, count);
+ }
+-static struct sysfs_ops mlog_attr_ops = {
++static const struct sysfs_ops mlog_attr_ops = {
+       .show  = mlog_show,
+       .store = mlog_store,
+ };
+diff --git a/fs/ocfs2/localalloc.c b/fs/ocfs2/localalloc.c
+index ac10f83..2cd2607 100644
+--- a/fs/ocfs2/localalloc.c
++++ b/fs/ocfs2/localalloc.c
+@@ -1188,7 +1188,7 @@ static int ocfs2_local_alloc_slide_window(struct ocfs2_super *osb,
+               goto bail;
+       }
+-      atomic_inc(&osb->alloc_stats.moves);
++      atomic_inc_unchecked(&osb->alloc_stats.moves);
+       status = 0;
+ bail:
+diff --git a/fs/ocfs2/namei.c b/fs/ocfs2/namei.c
+index f010b22..9f9ed34 100644
+--- a/fs/ocfs2/namei.c
++++ b/fs/ocfs2/namei.c
+@@ -1043,6 +1043,8 @@ static int ocfs2_rename(struct inode *old_dir,
+       struct ocfs2_dir_lookup_result orphan_insert = { NULL, };
+       struct ocfs2_dir_lookup_result target_insert = { NULL, };
++      pax_track_stack();
++
+       /* At some point it might be nice to break this function up a
+        * bit. */
+diff --git a/fs/ocfs2/ocfs2.h b/fs/ocfs2/ocfs2.h
+index d963d86..914cfbd 100644
+--- a/fs/ocfs2/ocfs2.h
++++ b/fs/ocfs2/ocfs2.h
+@@ -217,11 +217,11 @@ enum ocfs2_vol_state
+ struct ocfs2_alloc_stats
+ {
+-      atomic_t moves;
+-      atomic_t local_data;
+-      atomic_t bitmap_data;
+-      atomic_t bg_allocs;
+-      atomic_t bg_extends;
++      atomic_unchecked_t moves;
++      atomic_unchecked_t local_data;
++      atomic_unchecked_t bitmap_data;
++      atomic_unchecked_t bg_allocs;
++      atomic_unchecked_t bg_extends;
+ };
+ enum ocfs2_local_alloc_state
+diff --git a/fs/ocfs2/suballoc.c b/fs/ocfs2/suballoc.c
+index 79b5dac..d322952 100644
+--- a/fs/ocfs2/suballoc.c
++++ b/fs/ocfs2/suballoc.c
+@@ -623,7 +623,7 @@ static int ocfs2_reserve_suballoc_bits(struct ocfs2_super *osb,
+                               mlog_errno(status);
+                       goto bail;
+               }
+-              atomic_inc(&osb->alloc_stats.bg_extends);
++              atomic_inc_unchecked(&osb->alloc_stats.bg_extends);
+               /* You should never ask for this much metadata */
+               BUG_ON(bits_wanted >
+@@ -1654,7 +1654,7 @@ int ocfs2_claim_metadata(struct ocfs2_super *osb,
+               mlog_errno(status);
+               goto bail;
+       }
+-      atomic_inc(&osb->alloc_stats.bg_allocs);
++      atomic_inc_unchecked(&osb->alloc_stats.bg_allocs);
+       *blkno_start = bg_blkno + (u64) *suballoc_bit_start;
+       ac->ac_bits_given += (*num_bits);
+@@ -1728,7 +1728,7 @@ int ocfs2_claim_new_inode(struct ocfs2_super *osb,
+               mlog_errno(status);
+               goto bail;
+       }
+-      atomic_inc(&osb->alloc_stats.bg_allocs);
++      atomic_inc_unchecked(&osb->alloc_stats.bg_allocs);
+       BUG_ON(num_bits != 1);
+@@ -1830,7 +1830,7 @@ int __ocfs2_claim_clusters(struct ocfs2_super *osb,
+                                                     cluster_start,
+                                                     num_clusters);
+               if (!status)
+-                      atomic_inc(&osb->alloc_stats.local_data);
++                      atomic_inc_unchecked(&osb->alloc_stats.local_data);
+       } else {
+               if (min_clusters > (osb->bitmap_cpg - 1)) {
+                       /* The only paths asking for contiguousness
+@@ -1858,7 +1858,7 @@ int __ocfs2_claim_clusters(struct ocfs2_super *osb,
+                               ocfs2_desc_bitmap_to_cluster_off(ac->ac_inode,
+                                                                bg_blkno,
+                                                                bg_bit_off);
+-                      atomic_inc(&osb->alloc_stats.bitmap_data);
++                      atomic_inc_unchecked(&osb->alloc_stats.bitmap_data);
+               }
+       }
+       if (status < 0) {
+diff --git a/fs/ocfs2/super.c b/fs/ocfs2/super.c
+index 9f55be4..a3f8048 100644
+--- a/fs/ocfs2/super.c
++++ b/fs/ocfs2/super.c
+@@ -284,11 +284,11 @@ static int ocfs2_osb_dump(struct ocfs2_super *osb, char *buf, int len)
+                       "%10s => GlobalAllocs: %d  LocalAllocs: %d  "
+                       "SubAllocs: %d  LAWinMoves: %d  SAExtends: %d\n",
+                       "Stats",
+-                      atomic_read(&osb->alloc_stats.bitmap_data),
+-                      atomic_read(&osb->alloc_stats.local_data),
+-                      atomic_read(&osb->alloc_stats.bg_allocs),
+-                      atomic_read(&osb->alloc_stats.moves),
+-                      atomic_read(&osb->alloc_stats.bg_extends));
++                      atomic_read_unchecked(&osb->alloc_stats.bitmap_data),
++                      atomic_read_unchecked(&osb->alloc_stats.local_data),
++                      atomic_read_unchecked(&osb->alloc_stats.bg_allocs),
++                      atomic_read_unchecked(&osb->alloc_stats.moves),
++                      atomic_read_unchecked(&osb->alloc_stats.bg_extends));
+       out += snprintf(buf + out, len - out,
+                       "%10s => State: %u  Descriptor: %llu  Size: %u bits  "
+@@ -2002,11 +2002,11 @@ static int ocfs2_initialize_super(struct super_block *sb,
+       spin_lock_init(&osb->osb_xattr_lock);
+       ocfs2_init_inode_steal_slot(osb);
+-      atomic_set(&osb->alloc_stats.moves, 0);
+-      atomic_set(&osb->alloc_stats.local_data, 0);
+-      atomic_set(&osb->alloc_stats.bitmap_data, 0);
+-      atomic_set(&osb->alloc_stats.bg_allocs, 0);
+-      atomic_set(&osb->alloc_stats.bg_extends, 0);
++      atomic_set_unchecked(&osb->alloc_stats.moves, 0);
++      atomic_set_unchecked(&osb->alloc_stats.local_data, 0);
++      atomic_set_unchecked(&osb->alloc_stats.bitmap_data, 0);
++      atomic_set_unchecked(&osb->alloc_stats.bg_allocs, 0);
++      atomic_set_unchecked(&osb->alloc_stats.bg_extends, 0);
+       /* Copy the blockcheck stats from the superblock probe */
+       osb->osb_ecc_stats = *stats;
+diff --git a/fs/open.c b/fs/open.c
+index 4f01e06..091f6c3 100644
+--- a/fs/open.c
++++ b/fs/open.c
+@@ -275,6 +275,10 @@ static long do_sys_truncate(const char __user *pathname, loff_t length)
+       error = locks_verify_truncate(inode, NULL, length);
+       if (!error)
+               error = security_path_truncate(&path, length, 0);
++
++      if (!error && !gr_acl_handle_truncate(path.dentry, path.mnt))
++              error = -EACCES;
++
+       if (!error) {
+               vfs_dq_init(inode);
+               error = do_truncate(path.dentry, length, 0, NULL);
+@@ -511,6 +515,9 @@ SYSCALL_DEFINE3(faccessat, int, dfd, const char __user *, filename, int, mode)
+       if (__mnt_is_readonly(path.mnt))
+               res = -EROFS;
++      if (!res && !gr_acl_handle_access(path.dentry, path.mnt, mode))
++              res = -EACCES;
++
+ out_path_release:
+       path_put(&path);
+ out:
+@@ -537,6 +544,8 @@ SYSCALL_DEFINE1(chdir, const char __user *, filename)
+       if (error)
+               goto dput_and_out;
++      gr_log_chdir(path.dentry, path.mnt);
++
+       set_fs_pwd(current->fs, &path);
+ dput_and_out:
+@@ -563,6 +572,13 @@ SYSCALL_DEFINE1(fchdir, unsigned int, fd)
+               goto out_putf;
+       error = inode_permission(inode, MAY_EXEC | MAY_ACCESS);
++
++      if (!error && !gr_chroot_fchdir(file->f_path.dentry, file->f_path.mnt))
++              error = -EPERM;
++
++      if (!error)
++              gr_log_chdir(file->f_path.dentry, file->f_path.mnt);
++
+       if (!error)
+               set_fs_pwd(current->fs, &file->f_path);
+ out_putf:
+@@ -588,7 +604,13 @@ SYSCALL_DEFINE1(chroot, const char __user *, filename)
+       if (!capable(CAP_SYS_CHROOT))
+               goto dput_and_out;
++      if (gr_handle_chroot_chroot(path.dentry, path.mnt))
++              goto dput_and_out;
++
+       set_fs_root(current->fs, &path);
++
++      gr_handle_chroot_chdir(&path);
++
+       error = 0;
+ dput_and_out:
+       path_put(&path);
+@@ -616,12 +638,27 @@ SYSCALL_DEFINE2(fchmod, unsigned int, fd, mode_t, mode)
+       err = mnt_want_write_file(file);
+       if (err)
+               goto out_putf;
++
+       mutex_lock(&inode->i_mutex);
++
++      if (!gr_acl_handle_fchmod(dentry, file->f_path.mnt, mode)) {
++              err = -EACCES;
++              goto out_unlock;
++      }
++
+       if (mode == (mode_t) -1)
+               mode = inode->i_mode;
++
++      if (gr_handle_chroot_chmod(dentry, file->f_path.mnt, mode)) {
++              err = -EPERM;
++              goto out_unlock;
++      }
++
+       newattrs.ia_mode = (mode & S_IALLUGO) | (inode->i_mode & ~S_IALLUGO);
+       newattrs.ia_valid = ATTR_MODE | ATTR_CTIME;
+       err = notify_change(dentry, &newattrs);
++
++out_unlock:
+       mutex_unlock(&inode->i_mutex);
+       mnt_drop_write(file->f_path.mnt);
+ out_putf:
+@@ -645,12 +682,27 @@ SYSCALL_DEFINE3(fchmodat, int, dfd, const char __user *, filename, mode_t, mode)
+       error = mnt_want_write(path.mnt);
+       if (error)
+               goto dput_and_out;
++
+       mutex_lock(&inode->i_mutex);
++
++      if (!gr_acl_handle_chmod(path.dentry, path.mnt, mode)) {
++              error = -EACCES;
++              goto out_unlock;
++      }
++
+       if (mode == (mode_t) -1)
+               mode = inode->i_mode;
++
++      if (gr_handle_chroot_chmod(path.dentry, path.mnt, mode)) {
++              error = -EACCES;
++              goto out_unlock;
++      }
++
+       newattrs.ia_mode = (mode & S_IALLUGO) | (inode->i_mode & ~S_IALLUGO);
+       newattrs.ia_valid = ATTR_MODE | ATTR_CTIME;
+       error = notify_change(path.dentry, &newattrs);
++
++out_unlock:
+       mutex_unlock(&inode->i_mutex);
+       mnt_drop_write(path.mnt);
+ dput_and_out:
+@@ -664,12 +716,15 @@ SYSCALL_DEFINE2(chmod, const char __user *, filename, mode_t, mode)
+       return sys_fchmodat(AT_FDCWD, filename, mode);
+ }
+-static int chown_common(struct dentry * dentry, uid_t user, gid_t group)
++static int chown_common(struct dentry * dentry, uid_t user, gid_t group, struct vfsmount *mnt)
+ {
+       struct inode *inode = dentry->d_inode;
+       int error;
+       struct iattr newattrs;
++      if (!gr_acl_handle_chown(dentry, mnt))
++              return -EACCES;
++
+       newattrs.ia_valid =  ATTR_CTIME;
+       if (user != (uid_t) -1) {
+               newattrs.ia_valid |= ATTR_UID;
+@@ -700,7 +755,7 @@ SYSCALL_DEFINE3(chown, const char __user *, filename, uid_t, user, gid_t, group)
+       error = mnt_want_write(path.mnt);
+       if (error)
+               goto out_release;
+-      error = chown_common(path.dentry, user, group);
++      error = chown_common(path.dentry, user, group, path.mnt);
+       mnt_drop_write(path.mnt);
+ out_release:
+       path_put(&path);
+@@ -725,7 +780,7 @@ SYSCALL_DEFINE5(fchownat, int, dfd, const char __user *, filename, uid_t, user,
+       error = mnt_want_write(path.mnt);
+       if (error)
+               goto out_release;
+-      error = chown_common(path.dentry, user, group);
++      error = chown_common(path.dentry, user, group, path.mnt);
+       mnt_drop_write(path.mnt);
+ out_release:
+       path_put(&path);
+@@ -744,7 +799,7 @@ SYSCALL_DEFINE3(lchown, const char __user *, filename, uid_t, user, gid_t, group
+       error = mnt_want_write(path.mnt);
+       if (error)
+               goto out_release;
+-      error = chown_common(path.dentry, user, group);
++      error = chown_common(path.dentry, user, group, path.mnt);
+       mnt_drop_write(path.mnt);
+ out_release:
+       path_put(&path);
+@@ -767,7 +822,7 @@ SYSCALL_DEFINE3(fchown, unsigned int, fd, uid_t, user, gid_t, group)
+               goto out_fput;
+       dentry = file->f_path.dentry;
+       audit_inode(NULL, dentry);
+-      error = chown_common(dentry, user, group);
++      error = chown_common(dentry, user, group, file->f_path.mnt);
+       mnt_drop_write(file->f_path.mnt);
+ out_fput:
+       fput(file);
+@@ -1036,7 +1091,7 @@ long do_sys_open(int dfd, const char __user *filename, int flags, int mode)
+       if (!IS_ERR(tmp)) {
+               fd = get_unused_fd_flags(flags);
+               if (fd >= 0) {
+-                      struct file *f = do_filp_open(dfd, tmp, flags, mode, 0);
++                      struct file *f  = do_filp_open(dfd, tmp, flags, mode, 0);
+                       if (IS_ERR(f)) {
+                               put_unused_fd(fd);
+                               fd = PTR_ERR(f);
+diff --git a/fs/partitions/efi.c b/fs/partitions/efi.c
+index 6ab70f4..f4103d1 100644
+--- a/fs/partitions/efi.c
++++ b/fs/partitions/efi.c
+@@ -231,14 +231,14 @@ alloc_read_gpt_entries(struct block_device *bdev, gpt_header *gpt)
+       if (!bdev || !gpt)
+               return NULL;
++      if (!le32_to_cpu(gpt->num_partition_entries))
++              return NULL;
++      pte = kcalloc(le32_to_cpu(gpt->num_partition_entries), le32_to_cpu(gpt->sizeof_partition_entry), GFP_KERNEL);
++      if (!pte)
++              return NULL;
++
+       count = le32_to_cpu(gpt->num_partition_entries) *
+                 le32_to_cpu(gpt->sizeof_partition_entry);
+-      if (!count)
+-              return NULL;
+-      pte = kzalloc(count, GFP_KERNEL);
+-      if (!pte)
+-              return NULL;
+-
+       if (read_lba(bdev, le64_to_cpu(gpt->partition_entry_lba),
+                      (u8 *) pte,
+                    count) < count) {
+diff --git a/fs/partitions/ldm.c b/fs/partitions/ldm.c
+index dd6efdb..3babc6c 100644
+--- a/fs/partitions/ldm.c
++++ b/fs/partitions/ldm.c
+@@ -1311,6 +1311,7 @@ static bool ldm_frag_add (const u8 *data, int size, struct list_head *frags)
+               ldm_error ("A VBLK claims to have %d parts.", num);
+               return false;
+       }
++
+       if (rec >= num) {
+               ldm_error("REC value (%d) exceeds NUM value (%d)", rec, num);
+               return false;
+@@ -1322,7 +1323,7 @@ static bool ldm_frag_add (const u8 *data, int size, struct list_head *frags)
+                       goto found;
+       }
+-      f = kmalloc (sizeof (*f) + size*num, GFP_KERNEL);
++      f = kmalloc (size*num + sizeof (*f), GFP_KERNEL);
+       if (!f) {
+               ldm_crit ("Out of memory.");
+               return false;
+diff --git a/fs/partitions/mac.c b/fs/partitions/mac.c
+index 5765198..7f8e9e0 100644
+--- a/fs/partitions/mac.c
++++ b/fs/partitions/mac.c
+@@ -59,11 +59,11 @@ int mac_partition(struct parsed_partitions *state, struct block_device *bdev)
+               return 0;               /* not a MacOS disk */
+       }
+       blocks_in_map = be32_to_cpu(part->map_count);
+-      if (blocks_in_map < 0 || blocks_in_map >= DISK_MAX_PARTS) {
+-              put_dev_sector(sect);
+-              return 0;
+-      }
+       printk(" [mac]");
++      if (blocks_in_map < 0 || blocks_in_map >= DISK_MAX_PARTS) {
++              put_dev_sector(sect);
++              return 0;
++      }
+       for (slot = 1; slot <= blocks_in_map; ++slot) {
+               int pos = slot * secsize;
+               put_dev_sector(sect);
+diff --git a/fs/pipe.c b/fs/pipe.c
+index d0cc080..8a6f211 100644
+--- a/fs/pipe.c
++++ b/fs/pipe.c
+@@ -401,9 +401,9 @@ redo:
+               }
+               if (bufs)       /* More to do? */
+                       continue;
+-              if (!pipe->writers)
++              if (!atomic_read(&pipe->writers))
+                       break;
+-              if (!pipe->waiting_writers) {
++              if (!atomic_read(&pipe->waiting_writers)) {
+                       /* syscall merging: Usually we must not sleep
+                        * if O_NONBLOCK is set, or if we got some data.
+                        * But if a writer sleeps in kernel space, then
+@@ -462,7 +462,7 @@ pipe_write(struct kiocb *iocb, const struct iovec *_iov,
+       mutex_lock(&inode->i_mutex);
+       pipe = inode->i_pipe;
+-      if (!pipe->readers) {
++      if (!atomic_read(&pipe->readers)) {
+               send_sig(SIGPIPE, current, 0);
+               ret = -EPIPE;
+               goto out;
+@@ -511,7 +511,7 @@ redo1:
+       for (;;) {
+               int bufs;
+-              if (!pipe->readers) {
++              if (!atomic_read(&pipe->readers)) {
+                       send_sig(SIGPIPE, current, 0);
+                       if (!ret)
+                               ret = -EPIPE;
+@@ -597,9 +597,9 @@ redo2:
+                       kill_fasync(&pipe->fasync_readers, SIGIO, POLL_IN);
+                       do_wakeup = 0;
+               }
+-              pipe->waiting_writers++;
++              atomic_inc(&pipe->waiting_writers);
+               pipe_wait(pipe);
+-              pipe->waiting_writers--;
++              atomic_dec(&pipe->waiting_writers);
+       }
+ out:
+       mutex_unlock(&inode->i_mutex);
+@@ -666,7 +666,7 @@ pipe_poll(struct file *filp, poll_table *wait)
+       mask = 0;
+       if (filp->f_mode & FMODE_READ) {
+               mask = (nrbufs > 0) ? POLLIN | POLLRDNORM : 0;
+-              if (!pipe->writers && filp->f_version != pipe->w_counter)
++              if (!atomic_read(&pipe->writers) && filp->f_version != pipe->w_counter)
+                       mask |= POLLHUP;
+       }
+@@ -676,7 +676,7 @@ pipe_poll(struct file *filp, poll_table *wait)
+                * Most Unices do not set POLLERR for FIFOs but on Linux they
+                * behave exactly like pipes for poll().
+                */
+-              if (!pipe->readers)
++              if (!atomic_read(&pipe->readers))
+                       mask |= POLLERR;
+       }
+@@ -690,10 +690,10 @@ pipe_release(struct inode *inode, int decr, int decw)
+       mutex_lock(&inode->i_mutex);
+       pipe = inode->i_pipe;
+-      pipe->readers -= decr;
+-      pipe->writers -= decw;
++      atomic_sub(decr, &pipe->readers);
++      atomic_sub(decw, &pipe->writers);
+-      if (!pipe->readers && !pipe->writers) {
++      if (!atomic_read(&pipe->readers) && !atomic_read(&pipe->writers)) {
+               free_pipe_info(inode);
+       } else {
+               wake_up_interruptible_sync(&pipe->wait);
+@@ -783,7 +783,7 @@ pipe_read_open(struct inode *inode, struct file *filp)
+       if (inode->i_pipe) {
+               ret = 0;
+-              inode->i_pipe->readers++;
++              atomic_inc(&inode->i_pipe->readers);
+       }
+       mutex_unlock(&inode->i_mutex);
+@@ -800,7 +800,7 @@ pipe_write_open(struct inode *inode, struct file *filp)
+       if (inode->i_pipe) {
+               ret = 0;
+-              inode->i_pipe->writers++;
++              atomic_inc(&inode->i_pipe->writers);
+       }
+       mutex_unlock(&inode->i_mutex);
+@@ -818,9 +818,9 @@ pipe_rdwr_open(struct inode *inode, struct file *filp)
+       if (inode->i_pipe) {
+               ret = 0;
+               if (filp->f_mode & FMODE_READ)
+-                      inode->i_pipe->readers++;
++                      atomic_inc(&inode->i_pipe->readers);
+               if (filp->f_mode & FMODE_WRITE)
+-                      inode->i_pipe->writers++;
++                      atomic_inc(&inode->i_pipe->writers);
+       }
+       mutex_unlock(&inode->i_mutex);
+@@ -905,7 +905,7 @@ void free_pipe_info(struct inode *inode)
+       inode->i_pipe = NULL;
+ }
+-static struct vfsmount *pipe_mnt __read_mostly;
++struct vfsmount *pipe_mnt __read_mostly;
+ static int pipefs_delete_dentry(struct dentry *dentry)
+ {
+       /*
+@@ -945,7 +945,8 @@ static struct inode * get_pipe_inode(void)
+               goto fail_iput;
+       inode->i_pipe = pipe;
+-      pipe->readers = pipe->writers = 1;
++      atomic_set(&pipe->readers, 1);
++      atomic_set(&pipe->writers, 1);
+       inode->i_fop = &rdwr_pipefifo_fops;
+       /*
+diff --git a/fs/proc/Kconfig b/fs/proc/Kconfig
+index 50f8f06..c5755df 100644
+--- a/fs/proc/Kconfig
++++ b/fs/proc/Kconfig
+@@ -30,12 +30,12 @@ config PROC_FS
+ config PROC_KCORE
+       bool "/proc/kcore support" if !ARM
+-      depends on PROC_FS && MMU
++      depends on PROC_FS && MMU && !GRKERNSEC_PROC_ADD
+ config PROC_VMCORE
+         bool "/proc/vmcore support (EXPERIMENTAL)"
+-        depends on PROC_FS && CRASH_DUMP
+-      default y
++        depends on PROC_FS && CRASH_DUMP && !GRKERNSEC
++      default n
+         help
+         Exports the dump image of crashed kernel in ELF format.
+@@ -59,8 +59,8 @@ config PROC_SYSCTL
+         limited in memory.
+ config PROC_PAGE_MONITOR
+-      default y
+-      depends on PROC_FS && MMU
++      default n
++      depends on PROC_FS && MMU && !GRKERNSEC
+       bool "Enable /proc page monitoring" if EMBEDDED
+       help
+         Various /proc files exist to monitor process memory utilization:
+diff --git a/fs/proc/array.c b/fs/proc/array.c
+index c5ef152..24a1b87 100644
+--- a/fs/proc/array.c
++++ b/fs/proc/array.c
+@@ -60,6 +60,7 @@
+ #include <linux/tty.h>
+ #include <linux/string.h>
+ #include <linux/mman.h>
++#include <linux/grsecurity.h>
+ #include <linux/proc_fs.h>
+ #include <linux/ioport.h>
+ #include <linux/uaccess.h>
+@@ -321,6 +322,21 @@ static inline void task_context_switch_counts(struct seq_file *m,
+                       p->nivcsw);
+ }
++#if defined(CONFIG_PAX_NOEXEC) || defined(CONFIG_PAX_ASLR)
++static inline void task_pax(struct seq_file *m, struct task_struct *p)
++{
++      if (p->mm)
++              seq_printf(m, "PaX:\t%c%c%c%c%c\n",
++                         p->mm->pax_flags & MF_PAX_PAGEEXEC ? 'P' : 'p',
++                         p->mm->pax_flags & MF_PAX_EMUTRAMP ? 'E' : 'e',
++                         p->mm->pax_flags & MF_PAX_MPROTECT ? 'M' : 'm',
++                         p->mm->pax_flags & MF_PAX_RANDMMAP ? 'R' : 'r',
++                         p->mm->pax_flags & MF_PAX_SEGMEXEC ? 'S' : 's');
++      else
++              seq_printf(m, "PaX:\t-----\n");
++}
++#endif
++
+ int proc_pid_status(struct seq_file *m, struct pid_namespace *ns,
+                       struct pid *pid, struct task_struct *task)
+ {
+@@ -337,9 +353,24 @@ int proc_pid_status(struct seq_file *m, struct pid_namespace *ns,
+       task_cap(m, task);
+       cpuset_task_status_allowed(m, task);
+       task_context_switch_counts(m, task);
++
++#if defined(CONFIG_PAX_NOEXEC) || defined(CONFIG_PAX_ASLR)
++      task_pax(m, task);
++#endif
++
++#if defined(CONFIG_GRKERNSEC) && !defined(CONFIG_GRKERNSEC_NO_RBAC)
++      task_grsec_rbac(m, task);
++#endif
++
+       return 0;
+ }
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++#define PAX_RAND_FLAGS(_mm) (_mm != NULL && _mm != current->mm && \
++                           (_mm->pax_flags & MF_PAX_RANDMMAP || \
++                            _mm->pax_flags & MF_PAX_SEGMEXEC))
++#endif
++
+ static int do_task_stat(struct seq_file *m, struct pid_namespace *ns,
+                       struct pid *pid, struct task_struct *task, int whole)
+ {
+@@ -358,9 +389,18 @@ static int do_task_stat(struct seq_file *m, struct pid_namespace *ns,
+       cputime_t cutime, cstime, utime, stime;
+       cputime_t cgtime, gtime;
+       unsigned long rsslim = 0;
+-      char tcomm[sizeof(task->comm)];
++      char tcomm[sizeof(task->comm)] = { 0 };
+       unsigned long flags;
++      pax_track_stack();
++
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (current->exec_id != m->exec_id) {
++              gr_log_badprocpid("stat");
++              return 0;
++      }
++#endif
++
+       state = *get_task_state(task);
+       vsize = eip = esp = 0;
+       permitted = ptrace_may_access(task, PTRACE_MODE_READ);
+@@ -433,6 +473,19 @@ static int do_task_stat(struct seq_file *m, struct pid_namespace *ns,
+               gtime = task_gtime(task);
+       }
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (PAX_RAND_FLAGS(mm)) {
++              eip = 0;
++              esp = 0;
++              wchan = 0;
++      }
++#endif
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      wchan = 0;
++      eip =0;
++      esp =0;
++#endif
++
+       /* scale priority and nice values from timeslices to -20..20 */
+       /* to make it look like a "normal" Unix priority/nice value  */
+       priority = task_prio(task);
+@@ -473,9 +526,15 @@ static int do_task_stat(struct seq_file *m, struct pid_namespace *ns,
+               vsize,
+               mm ? get_mm_rss(mm) : 0,
+               rsslim,
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++              PAX_RAND_FLAGS(mm) ? 1 : (mm ? (permitted ? mm->start_code : 1) : 0),
++              PAX_RAND_FLAGS(mm) ? 1 : (mm ? (permitted ? mm->end_code : 1) : 0),
++              PAX_RAND_FLAGS(mm) ? 0 : ((permitted && mm) ? mm->start_stack : 0),
++#else
+               mm ? (permitted ? mm->start_code : 1) : 0,
+               mm ? (permitted ? mm->end_code : 1) : 0,
+               (permitted && mm) ? mm->start_stack : 0,
++#endif
+               esp,
+               eip,
+               /* The signal information here is obsolete.
+@@ -519,6 +578,13 @@ int proc_pid_statm(struct seq_file *m, struct pid_namespace *ns,
+       int size = 0, resident = 0, shared = 0, text = 0, lib = 0, data = 0;
+       struct mm_struct *mm = get_task_mm(task);
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (current->exec_id != m->exec_id) {
++              gr_log_badprocpid("statm");
++              return 0;
++      }
++#endif
++
+       if (mm) {
+               size = task_statm(mm, &shared, &text, &data, &resident);
+               mmput(mm);
+@@ -528,3 +594,18 @@ int proc_pid_statm(struct seq_file *m, struct pid_namespace *ns,
+       return 0;
+ }
++
++#ifdef CONFIG_GRKERNSEC_PROC_IPADDR
++int proc_pid_ipaddr(struct task_struct *task, char *buffer)
++{
++      u32 curr_ip = 0;
++      unsigned long flags;
++
++      if (lock_task_sighand(task, &flags)) {
++              curr_ip = task->signal->curr_ip;
++              unlock_task_sighand(task, &flags);
++      }
++
++      return sprintf(buffer, "%pI4\n", &curr_ip);
++}
++#endif
+diff --git a/fs/proc/base.c b/fs/proc/base.c
+index 67f7dc0..67ab883 100644
+--- a/fs/proc/base.c
++++ b/fs/proc/base.c
+@@ -102,6 +102,22 @@ struct pid_entry {
+       union proc_op op;
+ };
++struct getdents_callback {
++      struct linux_dirent __user * current_dir;
++      struct linux_dirent __user * previous;
++      struct file * file;
++      int count;
++      int error;
++};
++
++static int gr_fake_filldir(void * __buf, const char *name, int namlen, 
++                         loff_t offset, u64 ino, unsigned int d_type)
++{
++      struct getdents_callback * buf = (struct getdents_callback *) __buf;
++      buf->error = -EINVAL;
++      return 0;
++}
++
+ #define NOD(NAME, MODE, IOP, FOP, OP) {                       \
+       .name = (NAME),                                 \
+       .len  = sizeof(NAME) - 1,                       \
+@@ -213,6 +229,9 @@ static int check_mem_permission(struct task_struct *task)
+       if (task == current)
+               return 0;
++      if (gr_handle_proc_ptrace(task) || gr_acl_handle_procpidmem(task))
++              return -EPERM;
++
+       /*
+        * If current is actively ptrace'ing, and would also be
+        * permitted to freshly attach with ptrace now, permit it.
+@@ -260,6 +279,9 @@ static int proc_pid_cmdline(struct task_struct *task, char * buffer)
+       if (!mm->arg_end)
+               goto out_mm;    /* Shh! No looking before we're done */
++      if (gr_acl_handle_procpidmem(task))
++              goto out_mm;
++
+       len = mm->arg_end - mm->arg_start;
+  
+       if (len > PAGE_SIZE)
+@@ -287,12 +309,28 @@ out:
+       return res;
+ }
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++#define PAX_RAND_FLAGS(_mm) (_mm != NULL && _mm != current->mm && \
++                           (_mm->pax_flags & MF_PAX_RANDMMAP || \
++                            _mm->pax_flags & MF_PAX_SEGMEXEC))
++#endif
++
+ static int proc_pid_auxv(struct task_struct *task, char *buffer)
+ {
+       int res = 0;
+       struct mm_struct *mm = get_task_mm(task);
+       if (mm) {
+               unsigned int nwords = 0;
++
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++              /* allow if we're currently ptracing this task */
++              if (PAX_RAND_FLAGS(mm) &&
++                  (!(task->ptrace & PT_PTRACED) || (task->parent != current))) {
++                      mmput(mm);
++                      return 0;
++              }
++#endif
++
+               do {
+                       nwords += 2;
+               } while (mm->saved_auxv[nwords - 2] != 0); /* AT_NULL */
+@@ -306,7 +344,7 @@ static int proc_pid_auxv(struct task_struct *task, char *buffer)
+ }
+-#ifdef CONFIG_KALLSYMS
++#if defined(CONFIG_KALLSYMS) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+ /*
+  * Provides a wchan file via kallsyms in a proper one-value-per-file format.
+  * Returns the resolved symbol.  If that fails, simply return the address.
+@@ -345,7 +383,7 @@ static void unlock_trace(struct task_struct *task)
+       mutex_unlock(&task->cred_guard_mutex);
+ }
+-#ifdef CONFIG_STACKTRACE
++#if defined(CONFIG_STACKTRACE) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+ #define MAX_STACK_TRACE_DEPTH 64
+@@ -545,7 +583,7 @@ static int proc_pid_limits(struct task_struct *task, char *buffer)
+       return count;
+ }
+-#ifdef CONFIG_HAVE_ARCH_TRACEHOOK
++#if defined(CONFIG_HAVE_ARCH_TRACEHOOK) && !defined(CONFIG_GRKERNSEC_PROC_MEMMAP)
+ static int proc_pid_syscall(struct task_struct *task, char *buffer)
+ {
+       long nr;
+@@ -574,7 +612,7 @@ static int proc_pid_syscall(struct task_struct *task, char *buffer)
+ /************************************************************************/
+ /* permission checks */
+-static int proc_fd_access_allowed(struct inode *inode)
++static int proc_fd_access_allowed(struct inode *inode, unsigned int log)
+ {
+       struct task_struct *task;
+       int allowed = 0;
+@@ -584,7 +622,10 @@ static int proc_fd_access_allowed(struct inode *inode)
+        */
+       task = get_proc_task(inode);
+       if (task) {
+-              allowed = ptrace_may_access(task, PTRACE_MODE_READ);
++              if (log)
++                      allowed = ptrace_may_access_log(task, PTRACE_MODE_READ);
++              else
++                      allowed = ptrace_may_access(task, PTRACE_MODE_READ);
+               put_task_struct(task);
+       }
+       return allowed;
+@@ -809,6 +850,8 @@ static int mem_open(struct inode* inode, struct file* file)
+       return 0;
+ }
++static int task_dumpable(struct task_struct *task);
++
+ static ssize_t mem_read(struct file * file, char __user * buf,
+                       size_t count, loff_t *ppos)
+ {
+@@ -824,6 +867,12 @@ static ssize_t mem_read(struct file * file, char __user * buf,
+       if (check_mem_permission(task))
+               goto out;
++      // XXX: temporary workaround
++      if (!task_dumpable(task) && task == current) {
++              ret = -EACCES;
++              goto out;
++      }
++
+       ret = -ENOMEM;
+       page = (char *)__get_free_page(GFP_TEMPORARY);
+       if (!page)
+@@ -963,6 +1012,9 @@ static ssize_t environ_read(struct file *file, char __user *buf,
+       if (!task)
+               goto out_no_task;
++      if (gr_acl_handle_procpidmem(task))
++              goto out;
++
+       if (!ptrace_may_access(task, PTRACE_MODE_READ))
+               goto out;
+@@ -1377,7 +1429,7 @@ static void *proc_pid_follow_link(struct dentry *dentry, struct nameidata *nd)
+       path_put(&nd->path);
+       /* Are we allowed to snoop on the tasks file descriptors? */
+-      if (!proc_fd_access_allowed(inode))
++      if (!proc_fd_access_allowed(inode,0))
+               goto out;
+       error = PROC_I(inode)->op.proc_get_link(inode, &nd->path);
+@@ -1417,8 +1469,18 @@ static int proc_pid_readlink(struct dentry * dentry, char __user * buffer, int b
+       struct path path;
+       /* Are we allowed to snoop on the tasks file descriptors? */
+-      if (!proc_fd_access_allowed(inode))
+-              goto out;
++      /* logging this is needed for learning on chromium to work properly,
++         but we don't want to flood the logs from 'ps' which does a readlink
++         on /proc/fd/2 of tasks in the listing, nor do we want 'ps' to learn
++         CAP_SYS_PTRACE as it's not necessary for its basic functionality
++       */
++      if (dentry->d_name.name[0] == '2' && dentry->d_name.name[1] == '\0') {
++              if (!proc_fd_access_allowed(inode,0))
++                      goto out;
++      } else {
++              if (!proc_fd_access_allowed(inode,1))
++                      goto out;
++      }
+       error = PROC_I(inode)->op.proc_get_link(inode, &path);
+       if (error)
+@@ -1483,7 +1545,11 @@ static struct inode *proc_pid_make_inode(struct super_block * sb, struct task_st
+               rcu_read_lock();
+               cred = __task_cred(task);
+               inode->i_uid = cred->euid;
++#ifdef CONFIG_GRKERNSEC_PROC_USERGROUP
++              inode->i_gid = CONFIG_GRKERNSEC_PROC_GID;
++#else
+               inode->i_gid = cred->egid;
++#endif
+               rcu_read_unlock();
+       }
+       security_task_to_inode(task, inode);
+@@ -1501,6 +1567,9 @@ static int pid_getattr(struct vfsmount *mnt, struct dentry *dentry, struct kstat
+       struct inode *inode = dentry->d_inode;
+       struct task_struct *task;
+       const struct cred *cred;
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      const struct cred *tmpcred = current_cred();
++#endif
+       generic_fillattr(inode, stat);
+@@ -1508,13 +1577,41 @@ static int pid_getattr(struct vfsmount *mnt, struct dentry *dentry, struct kstat
+       stat->uid = 0;
+       stat->gid = 0;
+       task = pid_task(proc_pid(inode), PIDTYPE_PID);
++
++      if (task && (gr_pid_is_chrooted(task) || gr_check_hidden_task(task))) {
++              rcu_read_unlock();
++              return -ENOENT;
++      }
++
+       if (task) {
++              cred = __task_cred(task);
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++              if (!tmpcred->uid || (tmpcred->uid == cred->uid)
++#ifdef CONFIG_GRKERNSEC_PROC_USERGROUP
++                  || in_group_p(CONFIG_GRKERNSEC_PROC_GID)
++#endif
++              ) {
++#endif
+               if ((inode->i_mode == (S_IFDIR|S_IRUGO|S_IXUGO)) ||
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++                  (inode->i_mode == (S_IFDIR|S_IRUSR|S_IXUSR)) ||
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++                  (inode->i_mode == (S_IFDIR|S_IRUSR|S_IRGRP|S_IXUSR|S_IXGRP)) ||
++#endif
+                   task_dumpable(task)) {
+-                      cred = __task_cred(task);
+                       stat->uid = cred->euid;
++#ifdef CONFIG_GRKERNSEC_PROC_USERGROUP
++                      stat->gid = CONFIG_GRKERNSEC_PROC_GID;
++#else
+                       stat->gid = cred->egid;
++#endif
+               }
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++              } else {
++                      rcu_read_unlock();
++                      return -ENOENT;
++              }
++#endif
+       }
+       rcu_read_unlock();
+       return 0;
+@@ -1545,11 +1642,20 @@ static int pid_revalidate(struct dentry *dentry, struct nameidata *nd)
+       if (task) {
+               if ((inode->i_mode == (S_IFDIR|S_IRUGO|S_IXUGO)) ||
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++                  (inode->i_mode == (S_IFDIR|S_IRUSR|S_IXUSR)) ||
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++                  (inode->i_mode == (S_IFDIR|S_IRUSR|S_IRGRP|S_IXUSR|S_IXGRP)) ||
++#endif
+                   task_dumpable(task)) {
+                       rcu_read_lock();
+                       cred = __task_cred(task);
+                       inode->i_uid = cred->euid;
++#ifdef CONFIG_GRKERNSEC_PROC_USERGROUP
++                      inode->i_gid = CONFIG_GRKERNSEC_PROC_GID;
++#else
+                       inode->i_gid = cred->egid;
++#endif
+                       rcu_read_unlock();
+               } else {
+                       inode->i_uid = 0;
+@@ -1670,7 +1776,8 @@ static int proc_fd_info(struct inode *inode, struct path *path, char *info)
+       int fd = proc_fd(inode);
+       if (task) {
+-              files = get_files_struct(task);
++              if (!gr_acl_handle_procpidmem(task))
++                      files = get_files_struct(task);
+               put_task_struct(task);
+       }
+       if (files) {
+@@ -1922,12 +2029,22 @@ static const struct file_operations proc_fd_operations = {
+ static int proc_fd_permission(struct inode *inode, int mask)
+ {
+       int rv;
++      struct task_struct *task;
+       rv = generic_permission(inode, mask, NULL);
+-      if (rv == 0)
+-              return 0;
++
+       if (task_pid(current) == proc_pid(inode))
+               rv = 0;
++
++      task = get_proc_task(inode);
++      if (task == NULL)
++              return rv;
++
++      if (gr_acl_handle_procpidmem(task))
++              rv = -EACCES;
++
++      put_task_struct(task);
++
+       return rv;
+ }
+@@ -2036,6 +2153,9 @@ static struct dentry *proc_pident_lookup(struct inode *dir,
+       if (!task)
+               goto out_no_task;
++      if (gr_pid_is_chrooted(task) || gr_check_hidden_task(task))
++              goto out;
++
+       /*
+        * Yes, it does not scale. And it should not. Don't add
+        * new entries into /proc/<tgid>/ without very good reasons.
+@@ -2080,6 +2200,9 @@ static int proc_pident_readdir(struct file *filp,
+       if (!task)
+               goto out_no_task;
++      if (gr_pid_is_chrooted(task) || gr_check_hidden_task(task))
++              goto out;
++
+       ret = 0;
+       i = filp->f_pos;
+       switch (i) {
+@@ -2347,7 +2470,7 @@ static void *proc_self_follow_link(struct dentry *dentry, struct nameidata *nd)
+ static void proc_self_put_link(struct dentry *dentry, struct nameidata *nd,
+                               void *cookie)
+ {
+-      char *s = nd_get_link(nd);
++      const char *s = nd_get_link(nd);
+       if (!IS_ERR(s))
+               __putname(s);
+ }
+@@ -2553,7 +2676,7 @@ static const struct pid_entry tgid_base_stuff[] = {
+ #ifdef CONFIG_SCHED_DEBUG
+       REG("sched",      S_IRUGO|S_IWUSR, proc_pid_sched_operations),
+ #endif
+-#ifdef CONFIG_HAVE_ARCH_TRACEHOOK
++#if defined(CONFIG_HAVE_ARCH_TRACEHOOK) && !defined(CONFIG_GRKERNSEC_PROC_MEMMAP)
+       INF("syscall",    S_IRUGO, proc_pid_syscall),
+ #endif
+       INF("cmdline",    S_IRUGO, proc_pid_cmdline),
+@@ -2578,10 +2701,10 @@ static const struct pid_entry tgid_base_stuff[] = {
+ #ifdef CONFIG_SECURITY
+       DIR("attr",       S_IRUGO|S_IXUGO, proc_attr_dir_inode_operations, proc_attr_dir_operations),
+ #endif
+-#ifdef CONFIG_KALLSYMS
++#if defined(CONFIG_KALLSYMS) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+       INF("wchan",      S_IRUGO, proc_pid_wchan),
+ #endif
+-#ifdef CONFIG_STACKTRACE
++#if defined(CONFIG_STACKTRACE) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+       ONE("stack",      S_IRUGO, proc_pid_stack),
+ #endif
+ #ifdef CONFIG_SCHEDSTATS
+@@ -2611,6 +2734,9 @@ static const struct pid_entry tgid_base_stuff[] = {
+ #ifdef CONFIG_TASK_IO_ACCOUNTING
+       INF("io",       S_IRUSR, proc_tgid_io_accounting),
+ #endif
++#ifdef CONFIG_GRKERNSEC_PROC_IPADDR
++      INF("ipaddr",     S_IRUSR, proc_pid_ipaddr),
++#endif
+ };
+ static int proc_tgid_base_readdir(struct file * filp,
+@@ -2735,7 +2861,14 @@ static struct dentry *proc_pid_instantiate(struct inode *dir,
+       if (!inode)
+               goto out;
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++      inode->i_mode = S_IFDIR|S_IRUSR|S_IXUSR;
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      inode->i_gid = CONFIG_GRKERNSEC_PROC_GID;
++      inode->i_mode = S_IFDIR|S_IRUSR|S_IRGRP|S_IXUSR|S_IXGRP;
++#else
+       inode->i_mode = S_IFDIR|S_IRUGO|S_IXUGO;
++#endif
+       inode->i_op = &proc_tgid_base_inode_operations;
+       inode->i_fop = &proc_tgid_base_operations;
+       inode->i_flags|=S_IMMUTABLE;
+@@ -2777,7 +2910,11 @@ struct dentry *proc_pid_lookup(struct inode *dir, struct dentry * dentry, struct
+       if (!task)
+               goto out;
++      if (gr_pid_is_chrooted(task) || gr_check_hidden_task(task))
++              goto out_put_task;
++
+       result = proc_pid_instantiate(dir, dentry, task, NULL);
++out_put_task:
+       put_task_struct(task);
+ out:
+       return result;
+@@ -2842,6 +2979,11 @@ int proc_pid_readdir(struct file * filp, void * dirent, filldir_t filldir)
+ {
+       unsigned int nr;
+       struct task_struct *reaper;
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      const struct cred *tmpcred = current_cred();
++      const struct cred *itercred;
++#endif
++      filldir_t __filldir = filldir;
+       struct tgid_iter iter;
+       struct pid_namespace *ns;
+@@ -2865,8 +3007,27 @@ int proc_pid_readdir(struct file * filp, void * dirent, filldir_t filldir)
+       for (iter = next_tgid(ns, iter);
+            iter.task;
+            iter.tgid += 1, iter = next_tgid(ns, iter)) {
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++              rcu_read_lock();
++              itercred = __task_cred(iter.task);
++#endif
++              if (gr_pid_is_chrooted(iter.task) || gr_check_hidden_task(iter.task)
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++                  || (tmpcred->uid && (itercred->uid != tmpcred->uid)
++#ifdef CONFIG_GRKERNSEC_PROC_USERGROUP
++                      && !in_group_p(CONFIG_GRKERNSEC_PROC_GID)
++#endif
++                      )
++#endif
++              )
++                      __filldir = &gr_fake_filldir;
++              else
++                      __filldir = filldir;
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      rcu_read_unlock();
++#endif
+               filp->f_pos = iter.tgid + TGID_OFFSET;
+-              if (proc_pid_fill_cache(filp, dirent, filldir, iter) < 0) {
++              if (proc_pid_fill_cache(filp, dirent, __filldir, iter) < 0) {
+                       put_task_struct(iter.task);
+                       goto out;
+               }
+@@ -2892,7 +3053,7 @@ static const struct pid_entry tid_base_stuff[] = {
+ #ifdef CONFIG_SCHED_DEBUG
+       REG("sched",     S_IRUGO|S_IWUSR, proc_pid_sched_operations),
+ #endif
+-#ifdef CONFIG_HAVE_ARCH_TRACEHOOK
++#if defined(CONFIG_HAVE_ARCH_TRACEHOOK) && !defined(CONFIG_GRKERNSEC_PROC_MEMMAP)
+       INF("syscall",   S_IRUGO, proc_pid_syscall),
+ #endif
+       INF("cmdline",   S_IRUGO, proc_pid_cmdline),
+@@ -2916,10 +3077,10 @@ static const struct pid_entry tid_base_stuff[] = {
+ #ifdef CONFIG_SECURITY
+       DIR("attr",      S_IRUGO|S_IXUGO, proc_attr_dir_inode_operations, proc_attr_dir_operations),
+ #endif
+-#ifdef CONFIG_KALLSYMS
++#if defined(CONFIG_KALLSYMS) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+       INF("wchan",     S_IRUGO, proc_pid_wchan),
+ #endif
+-#ifdef CONFIG_STACKTRACE
++#if defined(CONFIG_STACKTRACE) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+       ONE("stack",      S_IRUGO, proc_pid_stack),
+ #endif
+ #ifdef CONFIG_SCHEDSTATS
+diff --git a/fs/proc/cmdline.c b/fs/proc/cmdline.c
+index 82676e3..5f8518a 100644
+--- a/fs/proc/cmdline.c
++++ b/fs/proc/cmdline.c
+@@ -23,7 +23,11 @@ static const struct file_operations cmdline_proc_fops = {
+ static int __init proc_cmdline_init(void)
+ {
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++      proc_create_grsec("cmdline", 0, NULL, &cmdline_proc_fops);
++#else
+       proc_create("cmdline", 0, NULL, &cmdline_proc_fops);
++#endif
+       return 0;
+ }
+ module_init(proc_cmdline_init);
+diff --git a/fs/proc/devices.c b/fs/proc/devices.c
+index 59ee7da..469b4b6 100644
+--- a/fs/proc/devices.c
++++ b/fs/proc/devices.c
+@@ -64,7 +64,11 @@ static const struct file_operations proc_devinfo_operations = {
+ static int __init proc_devices_init(void)
+ {
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++      proc_create_grsec("devices", 0, NULL, &proc_devinfo_operations);
++#else
+       proc_create("devices", 0, NULL, &proc_devinfo_operations);
++#endif
+       return 0;
+ }
+ module_init(proc_devices_init);
+diff --git a/fs/proc/inode.c b/fs/proc/inode.c
+index d78ade3..81767f9 100644
+--- a/fs/proc/inode.c
++++ b/fs/proc/inode.c
+@@ -18,12 +18,19 @@
+ #include <linux/module.h>
+ #include <linux/smp_lock.h>
+ #include <linux/sysctl.h>
++#include <linux/grsecurity.h>
+ #include <asm/system.h>
+ #include <asm/uaccess.h>
+ #include "internal.h"
++#ifdef CONFIG_PROC_SYSCTL
++extern const struct inode_operations proc_sys_inode_operations;
++extern const struct inode_operations proc_sys_dir_operations;
++#endif
++
++
+ struct proc_dir_entry *de_get(struct proc_dir_entry *de)
+ {
+       atomic_inc(&de->count);
+@@ -62,6 +69,13 @@ static void proc_delete_inode(struct inode *inode)
+               de_put(de);
+       if (PROC_I(inode)->sysctl)
+               sysctl_head_put(PROC_I(inode)->sysctl);
++
++#ifdef CONFIG_PROC_SYSCTL
++      if (inode->i_op == &proc_sys_inode_operations ||
++          inode->i_op == &proc_sys_dir_operations)
++              gr_handle_delete(inode->i_ino, inode->i_sb->s_dev);
++#endif
++
+       clear_inode(inode);
+ }
+@@ -457,7 +471,11 @@ struct inode *proc_get_inode(struct super_block *sb, unsigned int ino,
+               if (de->mode) {
+                       inode->i_mode = de->mode;
+                       inode->i_uid = de->uid;
++#ifdef CONFIG_GRKERNSEC_PROC_USERGROUP
++                      inode->i_gid = CONFIG_GRKERNSEC_PROC_GID;
++#else
+                       inode->i_gid = de->gid;
++#endif
+               }
+               if (de->size)
+                       inode->i_size = de->size;
+diff --git a/fs/proc/internal.h b/fs/proc/internal.h
+index 753ca37..26bcf3b 100644
+--- a/fs/proc/internal.h
++++ b/fs/proc/internal.h
+@@ -51,6 +51,9 @@ extern int proc_pid_status(struct seq_file *m, struct pid_namespace *ns,
+                               struct pid *pid, struct task_struct *task);
+ extern int proc_pid_statm(struct seq_file *m, struct pid_namespace *ns,
+                               struct pid *pid, struct task_struct *task);
++#ifdef CONFIG_GRKERNSEC_PROC_IPADDR
++extern int proc_pid_ipaddr(struct task_struct *task, char *buffer);
++#endif
+ extern loff_t mem_lseek(struct file *file, loff_t offset, int orig);
+ extern const struct file_operations proc_maps_operations;
+diff --git a/fs/proc/kcore.c b/fs/proc/kcore.c
+index b442dac..aab29cb 100644
+--- a/fs/proc/kcore.c
++++ b/fs/proc/kcore.c
+@@ -320,6 +320,8 @@ static void elf_kcore_store_hdr(char *bufp, int nphdr, int dataoff)
+       off_t offset = 0;
+       struct kcore_list *m;
++      pax_track_stack();
++
+       /* setup ELF header */
+       elf = (struct elfhdr *) bufp;
+       bufp += sizeof(struct elfhdr);
+@@ -477,9 +479,10 @@ read_kcore(struct file *file, char __user *buffer, size_t buflen, loff_t *fpos)
+        * the addresses in the elf_phdr on our list.
+        */
+       start = kc_offset_to_vaddr(*fpos - elf_buflen);
+-      if ((tsz = (PAGE_SIZE - (start & ~PAGE_MASK))) > buflen)
++      tsz = PAGE_SIZE - (start & ~PAGE_MASK);
++      if (tsz > buflen)
+               tsz = buflen;
+-              
++
+       while (buflen) {
+               struct kcore_list *m;
+@@ -508,20 +511,23 @@ read_kcore(struct file *file, char __user *buffer, size_t buflen, loff_t *fpos)
+                       kfree(elf_buf);
+               } else {
+                       if (kern_addr_valid(start)) {
+-                              unsigned long n;
++                              char *elf_buf;
++                              mm_segment_t oldfs;
+-                              n = copy_to_user(buffer, (char *)start, tsz);
+-                              /*
+-                               * We cannot distingush between fault on source
+-                               * and fault on destination. When this happens
+-                               * we clear too and hope it will trigger the
+-                               * EFAULT again.
+-                               */
+-                              if (n) { 
+-                                      if (clear_user(buffer + tsz - n,
+-                                                              n))
++                              elf_buf = kmalloc(tsz, GFP_KERNEL);
++                              if (!elf_buf)
++                                      return -ENOMEM;
++                              oldfs = get_fs();
++                              set_fs(KERNEL_DS);
++                              if (!__copy_from_user(elf_buf, (const void __user *)start, tsz)) {
++                                      set_fs(oldfs);
++                                      if (copy_to_user(buffer, elf_buf, tsz)) {
++                                              kfree(elf_buf);
+                                               return -EFAULT;
++                                      }
+                               }
++                              set_fs(oldfs);
++                              kfree(elf_buf);
+                       } else {
+                               if (clear_user(buffer, tsz))
+                                       return -EFAULT;
+@@ -541,6 +547,9 @@ read_kcore(struct file *file, char __user *buffer, size_t buflen, loff_t *fpos)
+ static int open_kcore(struct inode *inode, struct file *filp)
+ {
++#if defined(CONFIG_GRKERNSEC_PROC_ADD) || defined(CONFIG_GRKERNSEC_HIDESYM)
++      return -EPERM;
++#endif
+       if (!capable(CAP_SYS_RAWIO))
+               return -EPERM;
+       if (kcore_need_update)
+diff --git a/fs/proc/kmsg.c b/fs/proc/kmsg.c
+index 7ca7834..cfe90a4 100644
+--- a/fs/proc/kmsg.c
++++ b/fs/proc/kmsg.c
+@@ -12,37 +12,37 @@
+ #include <linux/poll.h>
+ #include <linux/proc_fs.h>
+ #include <linux/fs.h>
++#include <linux/syslog.h>
+ #include <asm/uaccess.h>
+ #include <asm/io.h>
+ extern wait_queue_head_t log_wait;
+-extern int do_syslog(int type, char __user *bug, int count);
+-
+ static int kmsg_open(struct inode * inode, struct file * file)
+ {
+-      return do_syslog(1,NULL,0);
++      return do_syslog(SYSLOG_ACTION_OPEN, NULL, 0, SYSLOG_FROM_FILE);
+ }
+ static int kmsg_release(struct inode * inode, struct file * file)
+ {
+-      (void) do_syslog(0,NULL,0);
++      (void) do_syslog(SYSLOG_ACTION_CLOSE, NULL, 0, SYSLOG_FROM_FILE);
+       return 0;
+ }
+ static ssize_t kmsg_read(struct file *file, char __user *buf,
+                        size_t count, loff_t *ppos)
+ {
+-      if ((file->f_flags & O_NONBLOCK) && !do_syslog(9, NULL, 0))
++      if ((file->f_flags & O_NONBLOCK) &&
++          !do_syslog(SYSLOG_ACTION_SIZE_UNREAD, NULL, 0, SYSLOG_FROM_FILE))
+               return -EAGAIN;
+-      return do_syslog(2, buf, count);
++      return do_syslog(SYSLOG_ACTION_READ, buf, count, SYSLOG_FROM_FILE);
+ }
+ static unsigned int kmsg_poll(struct file *file, poll_table *wait)
+ {
+       poll_wait(file, &log_wait, wait);
+-      if (do_syslog(9, NULL, 0))
++      if (do_syslog(SYSLOG_ACTION_SIZE_UNREAD, NULL, 0, SYSLOG_FROM_FILE))
+               return POLLIN | POLLRDNORM;
+       return 0;
+ }
+diff --git a/fs/proc/meminfo.c b/fs/proc/meminfo.c
+index a65239c..ad1182a 100644
+--- a/fs/proc/meminfo.c
++++ b/fs/proc/meminfo.c
+@@ -29,6 +29,8 @@ static int meminfo_proc_show(struct seq_file *m, void *v)
+       unsigned long pages[NR_LRU_LISTS];
+       int lru;
++      pax_track_stack();
++
+ /*
+  * display in kilobytes.
+  */
+@@ -149,7 +151,7 @@ static int meminfo_proc_show(struct seq_file *m, void *v)
+               vmi.used >> 10,
+               vmi.largest_chunk >> 10
+ #ifdef CONFIG_MEMORY_FAILURE
+-              ,atomic_long_read(&mce_bad_pages) << (PAGE_SHIFT - 10)
++              ,atomic_long_read_unchecked(&mce_bad_pages) << (PAGE_SHIFT - 10)
+ #endif
+               );
+diff --git a/fs/proc/nommu.c b/fs/proc/nommu.c
+index 9fe7d7e..cdb62c9 100644
+--- a/fs/proc/nommu.c
++++ b/fs/proc/nommu.c
+@@ -67,7 +67,7 @@ static int nommu_region_show(struct seq_file *m, struct vm_region *region)
+               if (len < 1)
+                       len = 1;
+               seq_printf(m, "%*c", len, ' ');
+-              seq_path(m, &file->f_path, "");
++              seq_path(m, &file->f_path, "\n\\");
+       }
+       seq_putc(m, '\n');
+diff --git a/fs/proc/proc_net.c b/fs/proc/proc_net.c
+index 04d1270..25e1173 100644
+--- a/fs/proc/proc_net.c
++++ b/fs/proc/proc_net.c
+@@ -104,6 +104,17 @@ static struct net *get_proc_task_net(struct inode *dir)
+       struct task_struct *task;
+       struct nsproxy *ns;
+       struct net *net = NULL;
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      const struct cred *cred = current_cred();
++#endif
++
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++      if (cred->fsuid)
++              return net;
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      if (cred->fsuid && !in_group_p(CONFIG_GRKERNSEC_PROC_GID))
++              return net;
++#endif
+       rcu_read_lock();
+       task = pid_task(proc_pid(dir), PIDTYPE_PID);
+diff --git a/fs/proc/proc_sysctl.c b/fs/proc/proc_sysctl.c
+index f667e8a..55f4d96 100644
+--- a/fs/proc/proc_sysctl.c
++++ b/fs/proc/proc_sysctl.c
+@@ -7,11 +7,13 @@
+ #include <linux/security.h>
+ #include "internal.h"
++extern __u32 gr_handle_sysctl(const struct ctl_table *table, const int op);
++
+ static const struct dentry_operations proc_sys_dentry_operations;
+ static const struct file_operations proc_sys_file_operations;
+-static const struct inode_operations proc_sys_inode_operations;
++const struct inode_operations proc_sys_inode_operations;
+ static const struct file_operations proc_sys_dir_file_operations;
+-static const struct inode_operations proc_sys_dir_operations;
++const struct inode_operations proc_sys_dir_operations;
+ static struct inode *proc_sys_make_inode(struct super_block *sb,
+               struct ctl_table_header *head, struct ctl_table *table)
+@@ -109,6 +111,9 @@ static struct dentry *proc_sys_lookup(struct inode *dir, struct dentry *dentry,
+       if (!p)
+               goto out;
++      if (gr_handle_sysctl(p, MAY_EXEC))
++              goto out;
++
+       err = ERR_PTR(-ENOMEM);
+       inode = proc_sys_make_inode(dir->i_sb, h ? h : head, p);
+       if (h)
+@@ -119,6 +124,9 @@ static struct dentry *proc_sys_lookup(struct inode *dir, struct dentry *dentry,
+       err = NULL;
+       dentry->d_op = &proc_sys_dentry_operations;
++
++      gr_handle_proc_create(dentry, inode);
++
+       d_add(dentry, inode);
+ out:
+@@ -200,6 +208,9 @@ static int proc_sys_fill_cache(struct file *filp, void *dirent,
+                               return -ENOMEM;
+                       } else {
+                               child->d_op = &proc_sys_dentry_operations;
++
++                              gr_handle_proc_create(child, inode);
++
+                               d_add(child, inode);
+                       }
+               } else {
+@@ -228,6 +239,9 @@ static int scan(struct ctl_table_header *head, ctl_table *table,
+               if (*pos < file->f_pos)
+                       continue;
++              if (gr_handle_sysctl(table, 0))
++                      continue;
++
+               res = proc_sys_fill_cache(file, dirent, filldir, head, table);
+               if (res)
+                       return res;
+@@ -344,6 +358,9 @@ static int proc_sys_getattr(struct vfsmount *mnt, struct dentry *dentry, struct
+       if (IS_ERR(head))
+               return PTR_ERR(head);
++      if (table && gr_handle_sysctl(table, MAY_EXEC))
++              return -ENOENT;
++
+       generic_fillattr(inode, stat);
+       if (table)
+               stat->mode = (stat->mode & S_IFMT) | table->mode;
+@@ -358,17 +375,18 @@ static const struct file_operations proc_sys_file_operations = {
+ };
+ static const struct file_operations proc_sys_dir_file_operations = {
++      .read           = generic_read_dir,
+       .readdir        = proc_sys_readdir,
+       .llseek         = generic_file_llseek,
+ };
+-static const struct inode_operations proc_sys_inode_operations = {
++const struct inode_operations proc_sys_inode_operations = {
+       .permission     = proc_sys_permission,
+       .setattr        = proc_sys_setattr,
+       .getattr        = proc_sys_getattr,
+ };
+-static const struct inode_operations proc_sys_dir_operations = {
++const struct inode_operations proc_sys_dir_operations = {
+       .lookup         = proc_sys_lookup,
+       .permission     = proc_sys_permission,
+       .setattr        = proc_sys_setattr,
+diff --git a/fs/proc/root.c b/fs/proc/root.c
+index b080b79..d957e63 100644
+--- a/fs/proc/root.c
++++ b/fs/proc/root.c
+@@ -134,7 +134,15 @@ void __init proc_root_init(void)
+ #ifdef CONFIG_PROC_DEVICETREE
+       proc_device_tree_init();
+ #endif
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++      proc_mkdir_mode("bus", S_IRUSR | S_IXUSR, NULL);
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      proc_mkdir_mode("bus", S_IRUSR | S_IXUSR | S_IRGRP | S_IXGRP, NULL);
++#endif
++#else
+       proc_mkdir("bus", NULL);
++#endif
+       proc_sys_init();
+ }
+diff --git a/fs/proc/task_mmu.c b/fs/proc/task_mmu.c
+index 3b7b82a..4b420b0 100644
+--- a/fs/proc/task_mmu.c
++++ b/fs/proc/task_mmu.c
+@@ -8,6 +8,7 @@
+ #include <linux/mempolicy.h>
+ #include <linux/swap.h>
+ #include <linux/swapops.h>
++#include <linux/grsecurity.h>
+ #include <asm/elf.h>
+ #include <asm/uaccess.h>
+@@ -46,15 +47,26 @@ void task_mem(struct seq_file *m, struct mm_struct *mm)
+               "VmStk:\t%8lu kB\n"
+               "VmExe:\t%8lu kB\n"
+               "VmLib:\t%8lu kB\n"
+-              "VmPTE:\t%8lu kB\n",
+-              hiwater_vm << (PAGE_SHIFT-10),
++              "VmPTE:\t%8lu kB\n"
++
++#ifdef CONFIG_ARCH_TRACK_EXEC_LIMIT
++              "CsBase:\t%8lx\nCsLim:\t%8lx\n"
++#endif
++
++              ,hiwater_vm << (PAGE_SHIFT-10),
+               (total_vm - mm->reserved_vm) << (PAGE_SHIFT-10),
+               mm->locked_vm << (PAGE_SHIFT-10),
+               hiwater_rss << (PAGE_SHIFT-10),
+               total_rss << (PAGE_SHIFT-10),
+               data << (PAGE_SHIFT-10),
+               mm->stack_vm << (PAGE_SHIFT-10), text, lib,
+-              (PTRS_PER_PTE*sizeof(pte_t)*mm->nr_ptes) >> 10);
++              (PTRS_PER_PTE*sizeof(pte_t)*mm->nr_ptes) >> 10
++
++#ifdef CONFIG_ARCH_TRACK_EXEC_LIMIT
++              , mm->context.user_cs_base, mm->context.user_cs_limit
++#endif
++
++      );
+ }
+ unsigned long task_vsize(struct mm_struct *mm)
+@@ -175,7 +187,8 @@ static void m_stop(struct seq_file *m, void *v)
+       struct proc_maps_private *priv = m->private;
+       struct vm_area_struct *vma = v;
+-      vma_stop(priv, vma);
++      if (!IS_ERR(vma))
++              vma_stop(priv, vma);
+       if (priv->task)
+               put_task_struct(priv->task);
+ }
+@@ -199,6 +212,12 @@ static int do_maps_open(struct inode *inode, struct file *file,
+       return ret;
+ }
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++#define PAX_RAND_FLAGS(_mm) (_mm != NULL && _mm != current->mm && \
++                           (_mm->pax_flags & MF_PAX_RANDMMAP || \
++                            _mm->pax_flags & MF_PAX_SEGMEXEC))
++#endif
++
+ static void show_map_vma(struct seq_file *m, struct vm_area_struct *vma)
+ {
+       struct mm_struct *mm = vma->vm_mm;
+@@ -206,7 +225,6 @@ static void show_map_vma(struct seq_file *m, struct vm_area_struct *vma)
+       int flags = vma->vm_flags;
+       unsigned long ino = 0;
+       unsigned long long pgoff = 0;
+-      unsigned long start;
+       dev_t dev = 0;
+       int len;
+@@ -217,20 +235,23 @@ static void show_map_vma(struct seq_file *m, struct vm_area_struct *vma)
+               pgoff = ((loff_t)vma->vm_pgoff) << PAGE_SHIFT;
+       }
+-      /* We don't show the stack guard page in /proc/maps */
+-      start = vma->vm_start;
+-      if (vma->vm_flags & VM_GROWSDOWN)
+-              if (!vma_stack_continue(vma->vm_prev, vma->vm_start))
+-                      start += PAGE_SIZE;
+-
+       seq_printf(m, "%08lx-%08lx %c%c%c%c %08llx %02x:%02x %lu %n",
+-                      start,
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++                      PAX_RAND_FLAGS(mm) ? 0UL : vma->vm_start,
++                      PAX_RAND_FLAGS(mm) ? 0UL : vma->vm_end,
++#else
++                      vma->vm_start,
+                       vma->vm_end,
++#endif
+                       flags & VM_READ ? 'r' : '-',
+                       flags & VM_WRITE ? 'w' : '-',
+                       flags & VM_EXEC ? 'x' : '-',
+                       flags & VM_MAYSHARE ? 's' : 'p',
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++                      PAX_RAND_FLAGS(mm) ? 0UL : pgoff,
++#else
+                       pgoff,
++#endif
+                       MAJOR(dev), MINOR(dev), ino, &len);
+       /*
+@@ -239,7 +260,7 @@ static void show_map_vma(struct seq_file *m, struct vm_area_struct *vma)
+        */
+       if (file) {
+               pad_len_spaces(m, len);
+-              seq_path(m, &file->f_path, "\n");
++              seq_path(m, &file->f_path, "\n\\");
+       } else {
+               const char *name = arch_vma_name(vma);
+               if (!name) {
+@@ -247,8 +268,9 @@ static void show_map_vma(struct seq_file *m, struct vm_area_struct *vma)
+                               if (vma->vm_start <= mm->brk &&
+                                               vma->vm_end >= mm->start_brk) {
+                                       name = "[heap]";
+-                              } else if (vma->vm_start <= mm->start_stack &&
+-                                         vma->vm_end >= mm->start_stack) {
++                              } else if ((vma->vm_flags & (VM_GROWSDOWN | VM_GROWSUP)) ||
++                                         (vma->vm_start <= mm->start_stack &&
++                                          vma->vm_end >= mm->start_stack)) {
+                                       name = "[stack]";
+                               }
+                       } else {
+@@ -269,6 +291,13 @@ static int show_map(struct seq_file *m, void *v)
+       struct proc_maps_private *priv = m->private;
+       struct task_struct *task = priv->task;
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (current->exec_id != m->exec_id) {
++              gr_log_badprocpid("maps");
++              return 0;
++      }
++#endif
++
+       show_map_vma(m, vma);
+       if (m->count < m->size)  /* vma is copied successfully */
+@@ -390,10 +419,23 @@ static int show_smap(struct seq_file *m, void *v)
+               .private = &mss,
+       };
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (current->exec_id != m->exec_id) {
++              gr_log_badprocpid("smaps");
++              return 0;
++      }
++#endif
+       memset(&mss, 0, sizeof mss);
+-      mss.vma = vma;
+-      if (vma->vm_mm && !is_vm_hugetlb_page(vma))
+-              walk_page_range(vma->vm_start, vma->vm_end, &smaps_walk);
++
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (!PAX_RAND_FLAGS(vma->vm_mm)) {
++#endif
++              mss.vma = vma;
++              if (vma->vm_mm && !is_vm_hugetlb_page(vma))
++                      walk_page_range(vma->vm_start, vma->vm_end, &smaps_walk);
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      }
++#endif
+       show_map_vma(m, vma);
+@@ -409,7 +451,11 @@ static int show_smap(struct seq_file *m, void *v)
+                  "Swap:           %8lu kB\n"
+                  "KernelPageSize: %8lu kB\n"
+                  "MMUPageSize:    %8lu kB\n",
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++                 PAX_RAND_FLAGS(vma->vm_mm) ? 0UL : (vma->vm_end - vma->vm_start) >> 10,
++#else
+                  (vma->vm_end - vma->vm_start) >> 10,
++#endif
+                  mss.resident >> 10,
+                  (unsigned long)(mss.pss >> (10 + PSS_SHIFT)),
+                  mss.shared_clean  >> 10,
+diff --git a/fs/proc/task_nommu.c b/fs/proc/task_nommu.c
+index 8f5c05d..c99c76d 100644
+--- a/fs/proc/task_nommu.c
++++ b/fs/proc/task_nommu.c
+@@ -50,7 +50,7 @@ void task_mem(struct seq_file *m, struct mm_struct *mm)
+       else
+               bytes += kobjsize(mm);
+       
+-      if (current->fs && current->fs->users > 1)
++      if (current->fs && atomic_read(&current->fs->users) > 1)
+               sbytes += kobjsize(current->fs);
+       else
+               bytes += kobjsize(current->fs);
+@@ -154,7 +154,7 @@ static int nommu_vma_show(struct seq_file *m, struct vm_area_struct *vma)
+               if (len < 1)
+                       len = 1;
+               seq_printf(m, "%*c", len, ' ');
+-              seq_path(m, &file->f_path, "");
++              seq_path(m, &file->f_path, "\n\\");
+       }
+       seq_putc(m, '\n');
+diff --git a/fs/readdir.c b/fs/readdir.c
+index 7723401..30059a6 100644
+--- a/fs/readdir.c
++++ b/fs/readdir.c
+@@ -16,6 +16,7 @@
+ #include <linux/security.h>
+ #include <linux/syscalls.h>
+ #include <linux/unistd.h>
++#include <linux/namei.h>
+ #include <asm/uaccess.h>
+@@ -67,6 +68,7 @@ struct old_linux_dirent {
+ struct readdir_callback {
+       struct old_linux_dirent __user * dirent;
++      struct file * file;
+       int result;
+ };
+@@ -84,6 +86,10 @@ static int fillonedir(void * __buf, const char * name, int namlen, loff_t offset
+               buf->result = -EOVERFLOW;
+               return -EOVERFLOW;
+       }
++
++      if (!gr_acl_handle_filldir(buf->file, name, namlen, ino))
++              return 0;
++
+       buf->result++;
+       dirent = buf->dirent;
+       if (!access_ok(VERIFY_WRITE, dirent,
+@@ -116,6 +122,7 @@ SYSCALL_DEFINE3(old_readdir, unsigned int, fd,
+       buf.result = 0;
+       buf.dirent = dirent;
++      buf.file = file;
+       error = vfs_readdir(file, fillonedir, &buf);
+       if (buf.result)
+@@ -142,6 +149,7 @@ struct linux_dirent {
+ struct getdents_callback {
+       struct linux_dirent __user * current_dir;
+       struct linux_dirent __user * previous;
++      struct file * file;
+       int count;
+       int error;
+ };
+@@ -162,6 +170,10 @@ static int filldir(void * __buf, const char * name, int namlen, loff_t offset,
+               buf->error = -EOVERFLOW;
+               return -EOVERFLOW;
+       }
++
++      if (!gr_acl_handle_filldir(buf->file, name, namlen, ino))
++              return 0;
++
+       dirent = buf->previous;
+       if (dirent) {
+               if (__put_user(offset, &dirent->d_off))
+@@ -209,6 +221,7 @@ SYSCALL_DEFINE3(getdents, unsigned int, fd,
+       buf.previous = NULL;
+       buf.count = count;
+       buf.error = 0;
++      buf.file = file;
+       error = vfs_readdir(file, filldir, &buf);
+       if (error >= 0)
+@@ -228,6 +241,7 @@ out:
+ struct getdents_callback64 {
+       struct linux_dirent64 __user * current_dir;
+       struct linux_dirent64 __user * previous;
++      struct file *file;
+       int count;
+       int error;
+ };
+@@ -242,6 +256,10 @@ static int filldir64(void * __buf, const char * name, int namlen, loff_t offset,
+       buf->error = -EINVAL;   /* only used if we fail.. */
+       if (reclen > buf->count)
+               return -EINVAL;
++
++      if (!gr_acl_handle_filldir(buf->file, name, namlen, ino))
++              return 0;
++
+       dirent = buf->previous;
+       if (dirent) {
+               if (__put_user(offset, &dirent->d_off))
+@@ -289,6 +307,7 @@ SYSCALL_DEFINE3(getdents64, unsigned int, fd,
+       buf.current_dir = dirent;
+       buf.previous = NULL;
++      buf.file = file;
+       buf.count = count;
+       buf.error = 0;
+@@ -297,7 +316,7 @@ SYSCALL_DEFINE3(getdents64, unsigned int, fd,
+               error = buf.error;
+       lastdirent = buf.previous;
+       if (lastdirent) {
+-              typeof(lastdirent->d_off) d_off = file->f_pos;
++              typeof(((struct linux_dirent64 *)0)->d_off) d_off = file->f_pos;
+               if (__put_user(d_off, &lastdirent->d_off))
+                       error = -EFAULT;
+               else
+diff --git a/fs/reiserfs/dir.c b/fs/reiserfs/dir.c
+index d42c30c..4fd8718 100644
+--- a/fs/reiserfs/dir.c
++++ b/fs/reiserfs/dir.c
+@@ -66,6 +66,8 @@ int reiserfs_readdir_dentry(struct dentry *dentry, void *dirent,
+       struct reiserfs_dir_entry de;
+       int ret = 0;
++      pax_track_stack();
++
+       reiserfs_write_lock(inode->i_sb);
+       reiserfs_check_lock_depth(inode->i_sb, "readdir");
+diff --git a/fs/reiserfs/do_balan.c b/fs/reiserfs/do_balan.c
+index 128d3f7..8840d44 100644
+--- a/fs/reiserfs/do_balan.c
++++ b/fs/reiserfs/do_balan.c
+@@ -2058,7 +2058,7 @@ void do_balance(struct tree_balance *tb, /* tree_balance structure */
+               return;
+       }
+-      atomic_inc(&(fs_generation(tb->tb_sb)));
++      atomic_inc_unchecked(&(fs_generation(tb->tb_sb)));
+       do_balance_starts(tb);
+       /* balance leaf returns 0 except if combining L R and S into
+diff --git a/fs/reiserfs/item_ops.c b/fs/reiserfs/item_ops.c
+index 72cb1cc..d0e3181 100644
+--- a/fs/reiserfs/item_ops.c
++++ b/fs/reiserfs/item_ops.c
+@@ -102,7 +102,7 @@ static void sd_print_vi(struct virtual_item *vi)
+                        vi->vi_index, vi->vi_type, vi->vi_ih);
+ }
+-static struct item_operations stat_data_ops = {
++static const struct item_operations stat_data_ops = {
+       .bytes_number = sd_bytes_number,
+       .decrement_key = sd_decrement_key,
+       .is_left_mergeable = sd_is_left_mergeable,
+@@ -196,7 +196,7 @@ static void direct_print_vi(struct virtual_item *vi)
+                        vi->vi_index, vi->vi_type, vi->vi_ih);
+ }
+-static struct item_operations direct_ops = {
++static const struct item_operations direct_ops = {
+       .bytes_number = direct_bytes_number,
+       .decrement_key = direct_decrement_key,
+       .is_left_mergeable = direct_is_left_mergeable,
+@@ -341,7 +341,7 @@ static void indirect_print_vi(struct virtual_item *vi)
+                        vi->vi_index, vi->vi_type, vi->vi_ih);
+ }
+-static struct item_operations indirect_ops = {
++static const struct item_operations indirect_ops = {
+       .bytes_number = indirect_bytes_number,
+       .decrement_key = indirect_decrement_key,
+       .is_left_mergeable = indirect_is_left_mergeable,
+@@ -628,7 +628,7 @@ static void direntry_print_vi(struct virtual_item *vi)
+       printk("\n");
+ }
+-static struct item_operations direntry_ops = {
++static const struct item_operations direntry_ops = {
+       .bytes_number = direntry_bytes_number,
+       .decrement_key = direntry_decrement_key,
+       .is_left_mergeable = direntry_is_left_mergeable,
+@@ -724,7 +724,7 @@ static void errcatch_print_vi(struct virtual_item *vi)
+                        "Invalid item type observed, run fsck ASAP");
+ }
+-static struct item_operations errcatch_ops = {
++static const struct item_operations errcatch_ops = {
+       errcatch_bytes_number,
+       errcatch_decrement_key,
+       errcatch_is_left_mergeable,
+@@ -746,7 +746,7 @@ static struct item_operations errcatch_ops = {
+ #error Item types must use disk-format assigned values.
+ #endif
+-struct item_operations *item_ops[TYPE_ANY + 1] = {
++const struct item_operations * const item_ops[TYPE_ANY + 1] = {
+       &stat_data_ops,
+       &indirect_ops,
+       &direct_ops,
+diff --git a/fs/reiserfs/journal.c b/fs/reiserfs/journal.c
+index b5fe0aa..e0e25c4 100644
+--- a/fs/reiserfs/journal.c
++++ b/fs/reiserfs/journal.c
+@@ -2329,6 +2329,8 @@ static struct buffer_head *reiserfs_breada(struct block_device *dev,
+       struct buffer_head *bh;
+       int i, j;
++      pax_track_stack();
++
+       bh = __getblk(dev, block, bufsize);
+       if (buffer_uptodate(bh))
+               return (bh);
+diff --git a/fs/reiserfs/namei.c b/fs/reiserfs/namei.c
+index 2715791..b8996db 100644
+--- a/fs/reiserfs/namei.c
++++ b/fs/reiserfs/namei.c
+@@ -1214,6 +1214,8 @@ static int reiserfs_rename(struct inode *old_dir, struct dentry *old_dentry,
+       unsigned long savelink = 1;
+       struct timespec ctime;
++      pax_track_stack();
++
+       /* three balancings: (1) old name removal, (2) new name insertion
+          and (3) maybe "save" link insertion
+          stat data updates: (1) old directory,
+diff --git a/fs/reiserfs/procfs.c b/fs/reiserfs/procfs.c
+index 9229e55..3d2e3b7 100644
+--- a/fs/reiserfs/procfs.c
++++ b/fs/reiserfs/procfs.c
+@@ -123,7 +123,7 @@ static int show_super(struct seq_file *m, struct super_block *sb)
+                  "SMALL_TAILS " : "NO_TAILS ",
+                  replay_only(sb) ? "REPLAY_ONLY " : "",
+                  convert_reiserfs(sb) ? "CONV " : "",
+-                 atomic_read(&r->s_generation_counter),
++                 atomic_read_unchecked(&r->s_generation_counter),
+                  SF(s_disk_reads), SF(s_disk_writes), SF(s_fix_nodes),
+                  SF(s_do_balance), SF(s_unneeded_left_neighbor),
+                  SF(s_good_search_by_key_reada), SF(s_bmaps),
+@@ -309,6 +309,8 @@ static int show_journal(struct seq_file *m, struct super_block *sb)
+       struct journal_params *jp = &rs->s_v1.s_journal;
+       char b[BDEVNAME_SIZE];
++      pax_track_stack();
++
+       seq_printf(m,           /* on-disk fields */
+                  "jp_journal_1st_block: \t%i\n"
+                  "jp_journal_dev: \t%s[%x]\n"
+diff --git a/fs/reiserfs/stree.c b/fs/reiserfs/stree.c
+index d036ee5..4c7dca1 100644
+--- a/fs/reiserfs/stree.c
++++ b/fs/reiserfs/stree.c
+@@ -1159,6 +1159,8 @@ int reiserfs_delete_item(struct reiserfs_transaction_handle *th,
+       int iter = 0;
+ #endif
++      pax_track_stack();
++
+       BUG_ON(!th->t_trans_id);
+       init_tb_struct(th, &s_del_balance, sb, path,
+@@ -1296,6 +1298,8 @@ void reiserfs_delete_solid_item(struct reiserfs_transaction_handle *th,
+       int retval;
+       int quota_cut_bytes = 0;
++      pax_track_stack();
++
+       BUG_ON(!th->t_trans_id);
+       le_key2cpu_key(&cpu_key, key);
+@@ -1525,6 +1529,8 @@ int reiserfs_cut_from_item(struct reiserfs_transaction_handle *th,
+       int quota_cut_bytes;
+       loff_t tail_pos = 0;
++      pax_track_stack();
++
+       BUG_ON(!th->t_trans_id);
+       init_tb_struct(th, &s_cut_balance, inode->i_sb, path,
+@@ -1920,6 +1926,8 @@ int reiserfs_paste_into_item(struct reiserfs_transaction_handle *th, struct tree
+       int retval;
+       int fs_gen;
++      pax_track_stack();
++
+       BUG_ON(!th->t_trans_id);
+       fs_gen = get_generation(inode->i_sb);
+@@ -2007,6 +2015,8 @@ int reiserfs_insert_item(struct reiserfs_transaction_handle *th,
+       int fs_gen = 0;
+       int quota_bytes = 0;
++      pax_track_stack();
++
+       BUG_ON(!th->t_trans_id);
+       if (inode) {            /* Do we count quotas for item? */
+diff --git a/fs/reiserfs/super.c b/fs/reiserfs/super.c
+index 7cb1285..c726cd0 100644
+--- a/fs/reiserfs/super.c
++++ b/fs/reiserfs/super.c
+@@ -916,6 +916,8 @@ static int reiserfs_parse_options(struct super_block *s, char *options,    /* strin
+               {.option_name = NULL}
+       };
++      pax_track_stack();
++
+       *blocks = 0;
+       if (!options || !*options)
+               /* use default configuration: create tails, journaling on, no
+diff --git a/fs/select.c b/fs/select.c
+index fd38ce2..f5381b8 100644
+--- a/fs/select.c
++++ b/fs/select.c
+@@ -20,6 +20,7 @@
+ #include <linux/module.h>
+ #include <linux/slab.h>
+ #include <linux/poll.h>
++#include <linux/security.h>
+ #include <linux/personality.h> /* for STICKY_TIMEOUTS */
+ #include <linux/file.h>
+ #include <linux/fdtable.h>
+@@ -401,6 +402,8 @@ int do_select(int n, fd_set_bits *fds, struct timespec *end_time)
+       int retval, i, timed_out = 0;
+       unsigned long slack = 0;
++      pax_track_stack();
++
+       rcu_read_lock();
+       retval = max_select_fd(n, fds);
+       rcu_read_unlock();
+@@ -529,6 +532,8 @@ int core_sys_select(int n, fd_set __user *inp, fd_set __user *outp,
+       /* Allocate small arguments on the stack to save memory and be faster */
+       long stack_fds[SELECT_STACK_ALLOC/sizeof(long)];
++      pax_track_stack();
++
+       ret = -EINVAL;
+       if (n < 0)
+               goto out_nofds;
+@@ -821,6 +826,9 @@ int do_sys_poll(struct pollfd __user *ufds, unsigned int nfds,
+       struct poll_list *walk = head;
+       unsigned long todo = nfds;
++      pax_track_stack();
++
++      gr_learn_resource(current, RLIMIT_NOFILE, nfds, 1);
+       if (nfds > current->signal->rlim[RLIMIT_NOFILE].rlim_cur)
+               return -EINVAL;
+diff --git a/fs/seq_file.c b/fs/seq_file.c
+index eae7d9d..12c71e3 100644
+--- a/fs/seq_file.c
++++ b/fs/seq_file.c
+@@ -40,6 +40,9 @@ int seq_open(struct file *file, const struct seq_operations *op)
+       memset(p, 0, sizeof(*p));
+       mutex_init(&p->lock);
+       p->op = op;
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      p->exec_id = current->exec_id;
++#endif
+       /*
+        * Wrappers around seq_open(e.g. swaps_open) need to be
+@@ -76,7 +79,8 @@ static int traverse(struct seq_file *m, loff_t offset)
+               return 0;
+       }
+       if (!m->buf) {
+-              m->buf = kmalloc(m->size = PAGE_SIZE, GFP_KERNEL);
++              m->size = PAGE_SIZE;
++              m->buf = kmalloc(PAGE_SIZE, GFP_KERNEL);
+               if (!m->buf)
+                       return -ENOMEM;
+       }
+@@ -116,7 +120,8 @@ static int traverse(struct seq_file *m, loff_t offset)
+ Eoverflow:
+       m->op->stop(m, p);
+       kfree(m->buf);
+-      m->buf = kmalloc(m->size <<= 1, GFP_KERNEL);
++      m->size <<= 1;
++      m->buf = kmalloc(m->size, GFP_KERNEL);
+       return !m->buf ? -ENOMEM : -EAGAIN;
+ }
+@@ -169,7 +174,8 @@ ssize_t seq_read(struct file *file, char __user *buf, size_t size, loff_t *ppos)
+       m->version = file->f_version;
+       /* grab buffer if we didn't have one */
+       if (!m->buf) {
+-              m->buf = kmalloc(m->size = PAGE_SIZE, GFP_KERNEL);
++              m->size = PAGE_SIZE;
++              m->buf = kmalloc(PAGE_SIZE, GFP_KERNEL);
+               if (!m->buf)
+                       goto Enomem;
+       }
+@@ -210,7 +216,8 @@ ssize_t seq_read(struct file *file, char __user *buf, size_t size, loff_t *ppos)
+                       goto Fill;
+               m->op->stop(m, p);
+               kfree(m->buf);
+-              m->buf = kmalloc(m->size <<= 1, GFP_KERNEL);
++              m->size <<= 1;
++              m->buf = kmalloc(m->size, GFP_KERNEL);
+               if (!m->buf)
+                       goto Enomem;
+               m->count = 0;
+@@ -551,7 +558,7 @@ static void single_stop(struct seq_file *p, void *v)
+ int single_open(struct file *file, int (*show)(struct seq_file *, void *),
+               void *data)
+ {
+-      struct seq_operations *op = kmalloc(sizeof(*op), GFP_KERNEL);
++      seq_operations_no_const *op = kmalloc(sizeof(*op), GFP_KERNEL);
+       int res = -ENOMEM;
+       if (op) {
+diff --git a/fs/smbfs/proc.c b/fs/smbfs/proc.c
+index 71c29b6..54694dd 100644
+--- a/fs/smbfs/proc.c
++++ b/fs/smbfs/proc.c
+@@ -266,9 +266,9 @@ int smb_setcodepage(struct smb_sb_info *server, struct smb_nls_codepage *cp)
+ out:
+       if (server->local_nls != NULL && server->remote_nls != NULL)
+-              server->ops->convert = convert_cp;
++              *(void **)&server->ops->convert = convert_cp;
+       else
+-              server->ops->convert = convert_memcpy;
++              *(void **)&server->ops->convert = convert_memcpy;
+       smb_unlock_server(server);
+       return n;
+@@ -933,9 +933,9 @@ smb_newconn(struct smb_sb_info *server, struct smb_conn_opt *opt)
+       /* FIXME: the win9x code wants to modify these ... (seek/trunc bug) */
+       if (server->mnt->flags & SMB_MOUNT_OLDATTR) {
+-              server->ops->getattr = smb_proc_getattr_core;
++              *(void **)&server->ops->getattr = smb_proc_getattr_core;
+       } else if (server->mnt->flags & SMB_MOUNT_DIRATTR) {
+-              server->ops->getattr = smb_proc_getattr_ff;
++              *(void **)&server->ops->getattr = smb_proc_getattr_ff;
+       }
+       /* Decode server capabilities */
+@@ -3439,7 +3439,7 @@ out:
+ static void
+ install_ops(struct smb_ops *dst, struct smb_ops *src)
+ {
+-      memcpy(dst, src, sizeof(void *) * SMB_OPS_NUM_STATIC);
++      memcpy((void *)dst, src, sizeof(void *) * SMB_OPS_NUM_STATIC);
+ }
+ /* < LANMAN2 */
+diff --git a/fs/smbfs/symlink.c b/fs/smbfs/symlink.c
+index 00b2909..2ace383 100644
+--- a/fs/smbfs/symlink.c
++++ b/fs/smbfs/symlink.c
+@@ -55,7 +55,7 @@ static void *smb_follow_link(struct dentry *dentry, struct nameidata *nd)
+ static void smb_put_link(struct dentry *dentry, struct nameidata *nd, void *p)
+ {
+-      char *s = nd_get_link(nd);
++      const char *s = nd_get_link(nd);
+       if (!IS_ERR(s))
+               __putname(s);
+ }
+diff --git a/fs/splice.c b/fs/splice.c
+index bb92b7c..5aa72b0 100644
+--- a/fs/splice.c
++++ b/fs/splice.c
+@@ -185,7 +185,7 @@ ssize_t splice_to_pipe(struct pipe_inode_info *pipe,
+       pipe_lock(pipe);
+       for (;;) {
+-              if (!pipe->readers) {
++              if (!atomic_read(&pipe->readers)) {
+                       send_sig(SIGPIPE, current, 0);
+                       if (!ret)
+                               ret = -EPIPE;
+@@ -239,9 +239,9 @@ ssize_t splice_to_pipe(struct pipe_inode_info *pipe,
+                       do_wakeup = 0;
+               }
+-              pipe->waiting_writers++;
++              atomic_inc(&pipe->waiting_writers);
+               pipe_wait(pipe);
+-              pipe->waiting_writers--;
++              atomic_dec(&pipe->waiting_writers);
+       }
+       pipe_unlock(pipe);
+@@ -285,6 +285,8 @@ __generic_file_splice_read(struct file *in, loff_t *ppos,
+               .spd_release = spd_release_page,
+       };
++      pax_track_stack();
++
+       index = *ppos >> PAGE_CACHE_SHIFT;
+       loff = *ppos & ~PAGE_CACHE_MASK;
+       req_pages = (len + loff + PAGE_CACHE_SIZE - 1) >> PAGE_CACHE_SHIFT;
+@@ -521,7 +523,7 @@ static ssize_t kernel_readv(struct file *file, const struct iovec *vec,
+       old_fs = get_fs();
+       set_fs(get_ds());
+       /* The cast to a user pointer is valid due to the set_fs() */
+-      res = vfs_readv(file, (const struct iovec __user *)vec, vlen, &pos);
++      res = vfs_readv(file, (const struct iovec __force_user *)vec, vlen, &pos);
+       set_fs(old_fs);
+       return res;
+@@ -536,7 +538,7 @@ static ssize_t kernel_write(struct file *file, const char *buf, size_t count,
+       old_fs = get_fs();
+       set_fs(get_ds());
+       /* The cast to a user pointer is valid due to the set_fs() */
+-      res = vfs_write(file, (const char __user *)buf, count, &pos);
++      res = vfs_write(file, (const char __force_user *)buf, count, &pos);
+       set_fs(old_fs);
+       return res;
+@@ -565,6 +567,8 @@ ssize_t default_file_splice_read(struct file *in, loff_t *ppos,
+               .spd_release = spd_release_page,
+       };
++      pax_track_stack();
++
+       index = *ppos >> PAGE_CACHE_SHIFT;
+       offset = *ppos & ~PAGE_CACHE_MASK;
+       nr_pages = (len + offset + PAGE_CACHE_SIZE - 1) >> PAGE_CACHE_SHIFT;
+@@ -578,7 +582,7 @@ ssize_t default_file_splice_read(struct file *in, loff_t *ppos,
+                       goto err;
+               this_len = min_t(size_t, len, PAGE_CACHE_SIZE - offset);
+-              vec[i].iov_base = (void __user *) page_address(page);
++              vec[i].iov_base = (__force void __user *) page_address(page);
+               vec[i].iov_len = this_len;
+               pages[i] = page;
+               spd.nr_pages++;
+@@ -800,10 +804,10 @@ EXPORT_SYMBOL(splice_from_pipe_feed);
+ int splice_from_pipe_next(struct pipe_inode_info *pipe, struct splice_desc *sd)
+ {
+       while (!pipe->nrbufs) {
+-              if (!pipe->writers)
++              if (!atomic_read(&pipe->writers))
+                       return 0;
+-              if (!pipe->waiting_writers && sd->num_spliced)
++              if (!atomic_read(&pipe->waiting_writers) && sd->num_spliced)
+                       return 0;
+               if (sd->flags & SPLICE_F_NONBLOCK)
+@@ -1140,7 +1144,7 @@ ssize_t splice_direct_to_actor(struct file *in, struct splice_desc *sd,
+                * out of the pipe right after the splice_to_pipe(). So set
+                * PIPE_READERS appropriately.
+                */
+-              pipe->readers = 1;
++              atomic_set(&pipe->readers, 1);
+               current->splice_pipe = pipe;
+       }
+@@ -1593,6 +1597,8 @@ static long vmsplice_to_pipe(struct file *file, const struct iovec __user *iov,
+               .spd_release = spd_release_page,
+       };
++      pax_track_stack();
++
+       pipe = pipe_info(file->f_path.dentry->d_inode);
+       if (!pipe)
+               return -EBADF;
+@@ -1701,9 +1707,9 @@ static int ipipe_prep(struct pipe_inode_info *pipe, unsigned int flags)
+                       ret = -ERESTARTSYS;
+                       break;
+               }
+-              if (!pipe->writers)
++              if (!atomic_read(&pipe->writers))
+                       break;
+-              if (!pipe->waiting_writers) {
++              if (!atomic_read(&pipe->waiting_writers)) {
+                       if (flags & SPLICE_F_NONBLOCK) {
+                               ret = -EAGAIN;
+                               break;
+@@ -1735,7 +1741,7 @@ static int opipe_prep(struct pipe_inode_info *pipe, unsigned int flags)
+       pipe_lock(pipe);
+       while (pipe->nrbufs >= PIPE_BUFFERS) {
+-              if (!pipe->readers) {
++              if (!atomic_read(&pipe->readers)) {
+                       send_sig(SIGPIPE, current, 0);
+                       ret = -EPIPE;
+                       break;
+@@ -1748,9 +1754,9 @@ static int opipe_prep(struct pipe_inode_info *pipe, unsigned int flags)
+                       ret = -ERESTARTSYS;
+                       break;
+               }
+-              pipe->waiting_writers++;
++              atomic_inc(&pipe->waiting_writers);
+               pipe_wait(pipe);
+-              pipe->waiting_writers--;
++              atomic_dec(&pipe->waiting_writers);
+       }
+       pipe_unlock(pipe);
+@@ -1786,14 +1792,14 @@ retry:
+       pipe_double_lock(ipipe, opipe);
+       do {
+-              if (!opipe->readers) {
++              if (!atomic_read(&opipe->readers)) {
+                       send_sig(SIGPIPE, current, 0);
+                       if (!ret)
+                               ret = -EPIPE;
+                       break;
+               }
+-              if (!ipipe->nrbufs && !ipipe->writers)
++              if (!ipipe->nrbufs && !atomic_read(&ipipe->writers))
+                       break;
+               /*
+@@ -1893,7 +1899,7 @@ static int link_pipe(struct pipe_inode_info *ipipe,
+       pipe_double_lock(ipipe, opipe);
+       do {
+-              if (!opipe->readers) {
++              if (!atomic_read(&opipe->readers)) {
+                       send_sig(SIGPIPE, current, 0);
+                       if (!ret)
+                               ret = -EPIPE;
+@@ -1938,7 +1944,7 @@ static int link_pipe(struct pipe_inode_info *ipipe,
+        * return EAGAIN if we have the potential of some data in the
+        * future, otherwise just return 0
+        */
+-      if (!ret && ipipe->waiting_writers && (flags & SPLICE_F_NONBLOCK))
++      if (!ret && atomic_read(&ipipe->waiting_writers) && (flags & SPLICE_F_NONBLOCK))
+               ret = -EAGAIN;
+       pipe_unlock(ipipe);
+diff --git a/fs/sysfs/dir.c b/fs/sysfs/dir.c
+index e020183..18d64b4 100644
+--- a/fs/sysfs/dir.c
++++ b/fs/sysfs/dir.c
+@@ -678,6 +678,18 @@ static int create_dir(struct kobject *kobj, struct sysfs_dirent *parent_sd,
+       struct sysfs_dirent *sd;
+       int rc;
++#ifdef CONFIG_GRKERNSEC_SYSFS_RESTRICT
++      const char *parent_name = parent_sd->s_name;
++
++      mode = S_IFDIR | S_IRWXU;
++
++      if ((!strcmp(parent_name, "") && (!strcmp(name, "devices") || !strcmp(name, "fs"))) ||
++          (!strcmp(parent_name, "devices") && !strcmp(name, "system")) ||
++          (!strcmp(parent_name, "fs") && (!strcmp(name, "selinux") || !strcmp(name, "fuse"))) ||
++          (!strcmp(parent_name, "system") && !strcmp(name, "cpu")))
++              mode = S_IFDIR | S_IRWXU | S_IRUGO | S_IXUGO;
++#endif
++
+       /* allocate */
+       sd = sysfs_new_dirent(name, mode, SYSFS_DIR);
+       if (!sd)
+diff --git a/fs/sysfs/file.c b/fs/sysfs/file.c
+index 7118a38..70af853 100644
+--- a/fs/sysfs/file.c
++++ b/fs/sysfs/file.c
+@@ -44,7 +44,7 @@ static DEFINE_SPINLOCK(sysfs_open_dirent_lock);
+ struct sysfs_open_dirent {
+       atomic_t                refcnt;
+-      atomic_t                event;
++      atomic_unchecked_t      event;
+       wait_queue_head_t       poll;
+       struct list_head        buffers; /* goes through sysfs_buffer.list */
+ };
+@@ -53,7 +53,7 @@ struct sysfs_buffer {
+       size_t                  count;
+       loff_t                  pos;
+       char                    * page;
+-      struct sysfs_ops        * ops;
++      const struct sysfs_ops  * ops;
+       struct mutex            mutex;
+       int                     needs_read_fill;
+       int                     event;
+@@ -75,7 +75,7 @@ static int fill_read_buffer(struct dentry * dentry, struct sysfs_buffer * buffer
+ {
+       struct sysfs_dirent *attr_sd = dentry->d_fsdata;
+       struct kobject *kobj = attr_sd->s_parent->s_dir.kobj;
+-      struct sysfs_ops * ops = buffer->ops;
++      const struct sysfs_ops * ops = buffer->ops;
+       int ret = 0;
+       ssize_t count;
+@@ -88,7 +88,7 @@ static int fill_read_buffer(struct dentry * dentry, struct sysfs_buffer * buffer
+       if (!sysfs_get_active_two(attr_sd))
+               return -ENODEV;
+-      buffer->event = atomic_read(&attr_sd->s_attr.open->event);
++      buffer->event = atomic_read_unchecked(&attr_sd->s_attr.open->event);
+       count = ops->show(kobj, attr_sd->s_attr.attr, buffer->page);
+       sysfs_put_active_two(attr_sd);
+@@ -199,7 +199,7 @@ flush_write_buffer(struct dentry * dentry, struct sysfs_buffer * buffer, size_t
+ {
+       struct sysfs_dirent *attr_sd = dentry->d_fsdata;
+       struct kobject *kobj = attr_sd->s_parent->s_dir.kobj;
+-      struct sysfs_ops * ops = buffer->ops;
++      const struct sysfs_ops * ops = buffer->ops;
+       int rc;
+       /* need attr_sd for attr and ops, its parent for kobj */
+@@ -294,7 +294,7 @@ static int sysfs_get_open_dirent(struct sysfs_dirent *sd,
+               return -ENOMEM;
+       atomic_set(&new_od->refcnt, 0);
+-      atomic_set(&new_od->event, 1);
++      atomic_set_unchecked(&new_od->event, 1);
+       init_waitqueue_head(&new_od->poll);
+       INIT_LIST_HEAD(&new_od->buffers);
+       goto retry;
+@@ -335,7 +335,7 @@ static int sysfs_open_file(struct inode *inode, struct file *file)
+       struct sysfs_dirent *attr_sd = file->f_path.dentry->d_fsdata;
+       struct kobject *kobj = attr_sd->s_parent->s_dir.kobj;
+       struct sysfs_buffer *buffer;
+-      struct sysfs_ops *ops;
++      const struct sysfs_ops *ops;
+       int error = -EACCES;
+       char *p;
+@@ -444,7 +444,7 @@ static unsigned int sysfs_poll(struct file *filp, poll_table *wait)
+       sysfs_put_active_two(attr_sd);
+-      if (buffer->event != atomic_read(&od->event))
++      if (buffer->event != atomic_read_unchecked(&od->event))
+               goto trigger;
+       return DEFAULT_POLLMASK;
+@@ -463,7 +463,7 @@ void sysfs_notify_dirent(struct sysfs_dirent *sd)
+       od = sd->s_attr.open;
+       if (od) {
+-              atomic_inc(&od->event);
++              atomic_inc_unchecked(&od->event);
+               wake_up_interruptible(&od->poll);
+       }
+diff --git a/fs/sysfs/symlink.c b/fs/sysfs/symlink.c
+index c5081ad..342ea86 100644
+--- a/fs/sysfs/symlink.c
++++ b/fs/sysfs/symlink.c
+@@ -204,7 +204,7 @@ static void *sysfs_follow_link(struct dentry *dentry, struct nameidata *nd)
+ static void sysfs_put_link(struct dentry *dentry, struct nameidata *nd, void *cookie)
+ {
+-      char *page = nd_get_link(nd);
++      const char *page = nd_get_link(nd);
+       if (!IS_ERR(page))
+               free_page((unsigned long)page);
+ }
+diff --git a/fs/udf/balloc.c b/fs/udf/balloc.c
+index 1e06853..b06d325 100644
+--- a/fs/udf/balloc.c
++++ b/fs/udf/balloc.c
+@@ -172,9 +172,7 @@ static void udf_bitmap_free_blocks(struct super_block *sb,
+       mutex_lock(&sbi->s_alloc_mutex);
+       partmap = &sbi->s_partmaps[bloc->partitionReferenceNum];
+-      if (bloc->logicalBlockNum < 0 ||
+-          (bloc->logicalBlockNum + count) >
+-              partmap->s_partition_len) {
++      if ((bloc->logicalBlockNum + count) > partmap->s_partition_len) {
+               udf_debug("%d < %d || %d + %d > %d\n",
+                         bloc->logicalBlockNum, 0, bloc->logicalBlockNum,
+                         count, partmap->s_partition_len);
+@@ -436,9 +434,7 @@ static void udf_table_free_blocks(struct super_block *sb,
+       mutex_lock(&sbi->s_alloc_mutex);
+       partmap = &sbi->s_partmaps[bloc->partitionReferenceNum];
+-      if (bloc->logicalBlockNum < 0 ||
+-          (bloc->logicalBlockNum + count) >
+-              partmap->s_partition_len) {
++      if ((bloc->logicalBlockNum + count) > partmap->s_partition_len) {
+               udf_debug("%d < %d || %d + %d > %d\n",
+                         bloc.logicalBlockNum, 0, bloc.logicalBlockNum, count,
+                         partmap->s_partition_len);
+diff --git a/fs/udf/inode.c b/fs/udf/inode.c
+index 6d24c2c..fff470f 100644
+--- a/fs/udf/inode.c
++++ b/fs/udf/inode.c
+@@ -484,6 +484,8 @@ static struct buffer_head *inode_getblk(struct inode *inode, sector_t block,
+       int goal = 0, pgoal = iinfo->i_location.logicalBlockNum;
+       int lastblock = 0;
++      pax_track_stack();
++
+       prev_epos.offset = udf_file_entry_alloc_offset(inode);
+       prev_epos.block = iinfo->i_location;
+       prev_epos.bh = NULL;
+diff --git a/fs/udf/misc.c b/fs/udf/misc.c
+index 9215700..bf1f68e 100644
+--- a/fs/udf/misc.c
++++ b/fs/udf/misc.c
+@@ -286,7 +286,7 @@ void udf_new_tag(char *data, uint16_t ident, uint16_t version, uint16_t snum,
+ u8 udf_tag_checksum(const struct tag *t)
+ {
+-      u8 *data = (u8 *)t;
++      const u8 *data = (const u8 *)t;
+       u8 checksum = 0;
+       int i;
+       for (i = 0; i < sizeof(struct tag); ++i)
+diff --git a/fs/utimes.c b/fs/utimes.c
+index e4c75db..b4df0e0 100644
+--- a/fs/utimes.c
++++ b/fs/utimes.c
+@@ -1,6 +1,7 @@
+ #include <linux/compiler.h>
+ #include <linux/file.h>
+ #include <linux/fs.h>
++#include <linux/security.h>
+ #include <linux/linkage.h>
+ #include <linux/mount.h>
+ #include <linux/namei.h>
+@@ -101,6 +102,12 @@ static int utimes_common(struct path *path, struct timespec *times)
+                               goto mnt_drop_write_and_out;
+               }
+       }
++
++      if (!gr_acl_handle_utime(path->dentry, path->mnt)) {
++              error = -EACCES;
++              goto mnt_drop_write_and_out;
++      }
++
+       mutex_lock(&inode->i_mutex);
+       error = notify_change(path->dentry, &newattrs);
+       mutex_unlock(&inode->i_mutex);
+diff --git a/fs/xattr.c b/fs/xattr.c
+index 6d4f6d3..cda3958 100644
+--- a/fs/xattr.c
++++ b/fs/xattr.c
+@@ -247,7 +247,7 @@ EXPORT_SYMBOL_GPL(vfs_removexattr);
+  * Extended attribute SET operations
+  */
+ static long
+-setxattr(struct dentry *d, const char __user *name, const void __user *value,
++setxattr(struct path *path, const char __user *name, const void __user *value,
+        size_t size, int flags)
+ {
+       int error;
+@@ -271,7 +271,13 @@ setxattr(struct dentry *d, const char __user *name, const void __user *value,
+                       return PTR_ERR(kvalue);
+       }
+-      error = vfs_setxattr(d, kname, kvalue, size, flags);
++      if (!gr_acl_handle_setxattr(path->dentry, path->mnt)) {
++              error = -EACCES;
++              goto out;
++      }
++
++      error = vfs_setxattr(path->dentry, kname, kvalue, size, flags);
++out:
+       kfree(kvalue);
+       return error;
+ }
+@@ -288,7 +294,7 @@ SYSCALL_DEFINE5(setxattr, const char __user *, pathname,
+               return error;
+       error = mnt_want_write(path.mnt);
+       if (!error) {
+-              error = setxattr(path.dentry, name, value, size, flags);
++              error = setxattr(&path, name, value, size, flags);
+               mnt_drop_write(path.mnt);
+       }
+       path_put(&path);
+@@ -307,7 +313,7 @@ SYSCALL_DEFINE5(lsetxattr, const char __user *, pathname,
+               return error;
+       error = mnt_want_write(path.mnt);
+       if (!error) {
+-              error = setxattr(path.dentry, name, value, size, flags);
++              error = setxattr(&path, name, value, size, flags);
+               mnt_drop_write(path.mnt);
+       }
+       path_put(&path);
+@@ -318,17 +324,15 @@ SYSCALL_DEFINE5(fsetxattr, int, fd, const char __user *, name,
+               const void __user *,value, size_t, size, int, flags)
+ {
+       struct file *f;
+-      struct dentry *dentry;
+       int error = -EBADF;
+       f = fget(fd);
+       if (!f)
+               return error;
+-      dentry = f->f_path.dentry;
+-      audit_inode(NULL, dentry);
++      audit_inode(NULL, f->f_path.dentry);
+       error = mnt_want_write_file(f);
+       if (!error) {
+-              error = setxattr(dentry, name, value, size, flags);
++              error = setxattr(&f->f_path, name, value, size, flags);
+               mnt_drop_write(f->f_path.mnt);
+       }
+       fput(f);
+diff --git a/fs/xattr_acl.c b/fs/xattr_acl.c
+index c6ad7c7..f2847a7 100644
+--- a/fs/xattr_acl.c
++++ b/fs/xattr_acl.c
+@@ -17,8 +17,8 @@
+ struct posix_acl *
+ posix_acl_from_xattr(const void *value, size_t size)
+ {
+-      posix_acl_xattr_header *header = (posix_acl_xattr_header *)value;
+-      posix_acl_xattr_entry *entry = (posix_acl_xattr_entry *)(header+1), *end;
++      const posix_acl_xattr_header *header = (const posix_acl_xattr_header *)value;
++      const posix_acl_xattr_entry *entry = (const posix_acl_xattr_entry *)(header+1), *end;
+       int count;
+       struct posix_acl *acl;
+       struct posix_acl_entry *acl_e;
+diff --git a/fs/xfs/linux-2.6/xfs_ioctl.c b/fs/xfs/linux-2.6/xfs_ioctl.c
+index 942362f..88f96f5 100644
+--- a/fs/xfs/linux-2.6/xfs_ioctl.c
++++ b/fs/xfs/linux-2.6/xfs_ioctl.c
+@@ -134,7 +134,7 @@ xfs_find_handle(
+       }
+       error = -EFAULT;
+-      if (copy_to_user(hreq->ohandle, &handle, hsize) ||
++      if (hsize > sizeof handle || copy_to_user(hreq->ohandle, &handle, hsize) ||
+           copy_to_user(hreq->ohandlen, &hsize, sizeof(__s32)))
+               goto out_put;
+@@ -423,7 +423,7 @@ xfs_attrlist_by_handle(
+       if (IS_ERR(dentry))
+               return PTR_ERR(dentry);
+-      kbuf = kmalloc(al_hreq.buflen, GFP_KERNEL);
++      kbuf = kzalloc(al_hreq.buflen, GFP_KERNEL);
+       if (!kbuf)
+               goto out_dput;
+@@ -697,7 +697,7 @@ xfs_ioc_fsgeometry_v1(
+       xfs_mount_t             *mp,
+       void                    __user *arg)
+ {
+-      xfs_fsop_geom_t         fsgeo;
++      xfs_fsop_geom_t         fsgeo;
+       int                     error;
+       error = xfs_fs_geometry(mp, &fsgeo, 3);
+diff --git a/fs/xfs/linux-2.6/xfs_ioctl32.c b/fs/xfs/linux-2.6/xfs_ioctl32.c
+index bad485a..479bd32 100644
+--- a/fs/xfs/linux-2.6/xfs_ioctl32.c
++++ b/fs/xfs/linux-2.6/xfs_ioctl32.c
+@@ -75,6 +75,7 @@ xfs_compat_ioc_fsgeometry_v1(
+       xfs_fsop_geom_t           fsgeo;
+       int                       error;
++      memset(&fsgeo, 0, sizeof(fsgeo));
+       error = xfs_fs_geometry(mp, &fsgeo, 3);
+       if (error)
+               return -error;
+diff --git a/fs/xfs/linux-2.6/xfs_iops.c b/fs/xfs/linux-2.6/xfs_iops.c
+index 1f3b4b8..6102f6d 100644
+--- a/fs/xfs/linux-2.6/xfs_iops.c
++++ b/fs/xfs/linux-2.6/xfs_iops.c
+@@ -468,7 +468,7 @@ xfs_vn_put_link(
+       struct nameidata *nd,
+       void            *p)
+ {
+-      char            *s = nd_get_link(nd);
++      const char      *s = nd_get_link(nd);
+       if (!IS_ERR(s))
+               kfree(s);
+diff --git a/fs/xfs/xfs_bmap.c b/fs/xfs/xfs_bmap.c
+index 8971fb0..5fc1eb2 100644
+--- a/fs/xfs/xfs_bmap.c
++++ b/fs/xfs/xfs_bmap.c
+@@ -360,7 +360,7 @@ xfs_bmap_validate_ret(
+       int                     nmap,
+       int                     ret_nmap);
+ #else
+-#define       xfs_bmap_validate_ret(bno,len,flags,mval,onmap,nmap)
++#define       xfs_bmap_validate_ret(bno,len,flags,mval,onmap,nmap) do {} while (0)
+ #endif /* DEBUG */
+ #if defined(XFS_RW_TRACE)
+diff --git a/fs/xfs/xfs_dir2_sf.c b/fs/xfs/xfs_dir2_sf.c
+index e89734e..5e84d8d 100644
+--- a/fs/xfs/xfs_dir2_sf.c
++++ b/fs/xfs/xfs_dir2_sf.c
+@@ -779,7 +779,15 @@ xfs_dir2_sf_getdents(
+               }
+               ino = xfs_dir2_sf_get_inumber(sfp, xfs_dir2_sf_inumberp(sfep));
+-              if (filldir(dirent, sfep->name, sfep->namelen,
++              if (dp->i_df.if_u1.if_data == dp->i_df.if_u2.if_inline_data) {
++                      char name[sfep->namelen];
++                      memcpy(name, sfep->name, sfep->namelen);
++                      if (filldir(dirent, name, sfep->namelen,
++                          off & 0x7fffffff, ino, DT_UNKNOWN)) {
++                              *offset = off & 0x7fffffff;
++                              return 0;
++                      }
++              } else if (filldir(dirent, sfep->name, sfep->namelen,
+                           off & 0x7fffffff, ino, DT_UNKNOWN)) {
+                       *offset = off & 0x7fffffff;
+                       return 0;
+diff --git a/fs/xfs/xfs_vnodeops.c b/fs/xfs/xfs_vnodeops.c
+index 8f32f50..b6a41e8 100644
+--- a/fs/xfs/xfs_vnodeops.c
++++ b/fs/xfs/xfs_vnodeops.c
+@@ -564,13 +564,18 @@ xfs_readlink(
+       xfs_ilock(ip, XFS_ILOCK_SHARED);
+-      ASSERT((ip->i_d.di_mode & S_IFMT) == S_IFLNK);
+-      ASSERT(ip->i_d.di_size <= MAXPATHLEN);
+-
+       pathlen = ip->i_d.di_size;
+       if (!pathlen)
+               goto out;
++      if (pathlen > MAXPATHLEN) {
++              xfs_fs_cmn_err(CE_ALERT, mp, "%s: inode (%llu) symlink length (%d) too long",
++                            __func__, (unsigned long long)ip->i_ino, pathlen);
++              ASSERT(0);
++              error = XFS_ERROR(EFSCORRUPTED);
++              goto out;
++      }
++
+       if (ip->i_df.if_flags & XFS_IFINLINE) {
+               memcpy(link, ip->i_df.if_u1.if_data, pathlen);
+               link[pathlen] = '\0';
+diff --git a/grsecurity/Kconfig b/grsecurity/Kconfig
+new file mode 100644
+index 0000000..9ac9020
+--- /dev/null
++++ b/grsecurity/Kconfig
+@@ -0,0 +1,1072 @@
++#
++# grecurity configuration
++#
++
++menu "Grsecurity"
++
++config GRKERNSEC
++      bool "Grsecurity"
++      select CRYPTO
++      select CRYPTO_SHA256
++      help
++        If you say Y here, you will be able to configure many features
++        that will enhance the security of your system.  It is highly
++        recommended that you say Y here and read through the help
++        for each option so that you fully understand the features and
++        can evaluate their usefulness for your machine.
++
++choice
++      prompt "Security Level"
++      depends on GRKERNSEC
++      default GRKERNSEC_CUSTOM
++
++config GRKERNSEC_LOW
++      bool "Low"
++      select GRKERNSEC_LINK
++      select GRKERNSEC_FIFO
++      select GRKERNSEC_RANDNET
++      select GRKERNSEC_DMESG
++      select GRKERNSEC_CHROOT
++      select GRKERNSEC_CHROOT_CHDIR
++
++      help
++        If you choose this option, several of the grsecurity options will
++        be enabled that will give you greater protection against a number
++        of attacks, while assuring that none of your software will have any
++        conflicts with the additional security measures.  If you run a lot
++        of unusual software, or you are having problems with the higher
++        security levels, you should say Y here.  With this option, the
++        following features are enabled:
++
++        - Linking restrictions
++        - FIFO restrictions
++        - Restricted dmesg
++        - Enforced chdir("/") on chroot
++        - Runtime module disabling
++
++config GRKERNSEC_MEDIUM
++      bool "Medium"
++      select PAX
++      select PAX_EI_PAX
++      select PAX_PT_PAX_FLAGS
++      select PAX_HAVE_ACL_FLAGS
++      select GRKERNSEC_PROC_MEMMAP if (PAX_NOEXEC || PAX_ASLR)
++      select GRKERNSEC_CHROOT
++      select GRKERNSEC_CHROOT_SYSCTL
++      select GRKERNSEC_LINK
++      select GRKERNSEC_FIFO
++      select GRKERNSEC_DMESG
++      select GRKERNSEC_RANDNET
++      select GRKERNSEC_FORKFAIL
++      select GRKERNSEC_TIME
++      select GRKERNSEC_SIGNAL
++      select GRKERNSEC_CHROOT
++      select GRKERNSEC_CHROOT_UNIX
++      select GRKERNSEC_CHROOT_MOUNT
++      select GRKERNSEC_CHROOT_PIVOT
++      select GRKERNSEC_CHROOT_DOUBLE
++      select GRKERNSEC_CHROOT_CHDIR
++      select GRKERNSEC_CHROOT_MKNOD
++      select GRKERNSEC_PROC
++      select GRKERNSEC_PROC_USERGROUP
++      select PAX_RANDUSTACK
++      select PAX_ASLR
++      select PAX_RANDMMAP
++      select PAX_REFCOUNT if (X86 || SPARC64)
++      select PAX_USERCOPY if ((X86 || SPARC || PPC || ARM) && (SLAB || SLUB || SLOB))
++
++      help
++        If you say Y here, several features in addition to those included
++        in the low additional security level will be enabled.  These
++        features provide even more security to your system, though in rare
++        cases they may be incompatible with very old or poorly written
++        software.  If you enable this option, make sure that your auth
++        service (identd) is running as gid 1001.  With this option, 
++        the following features (in addition to those provided in the 
++        low additional security level) will be enabled:
++
++        - Failed fork logging
++        - Time change logging
++        - Signal logging
++        - Deny mounts in chroot
++        - Deny double chrooting
++        - Deny sysctl writes in chroot
++        - Deny mknod in chroot
++        - Deny access to abstract AF_UNIX sockets out of chroot
++        - Deny pivot_root in chroot
++        - Denied reads/writes of /dev/kmem, /dev/mem, and /dev/port
++        - /proc restrictions with special GID set to 10 (usually wheel)
++        - Address Space Layout Randomization (ASLR)
++        - Prevent exploitation of most refcount overflows
++        - Bounds checking of copying between the kernel and userland
++
++config GRKERNSEC_HIGH
++      bool "High"
++      select GRKERNSEC_LINK
++      select GRKERNSEC_FIFO
++      select GRKERNSEC_DMESG
++      select GRKERNSEC_FORKFAIL
++      select GRKERNSEC_TIME
++      select GRKERNSEC_SIGNAL
++      select GRKERNSEC_CHROOT
++      select GRKERNSEC_CHROOT_SHMAT
++      select GRKERNSEC_CHROOT_UNIX
++      select GRKERNSEC_CHROOT_MOUNT
++      select GRKERNSEC_CHROOT_FCHDIR
++      select GRKERNSEC_CHROOT_PIVOT
++      select GRKERNSEC_CHROOT_DOUBLE
++      select GRKERNSEC_CHROOT_CHDIR
++      select GRKERNSEC_CHROOT_MKNOD
++      select GRKERNSEC_CHROOT_CAPS
++      select GRKERNSEC_CHROOT_SYSCTL
++      select GRKERNSEC_CHROOT_FINDTASK
++      select GRKERNSEC_SYSFS_RESTRICT
++      select GRKERNSEC_PROC
++      select GRKERNSEC_PROC_MEMMAP if (PAX_NOEXEC || PAX_ASLR)
++      select GRKERNSEC_HIDESYM
++      select GRKERNSEC_BRUTE
++      select GRKERNSEC_PROC_USERGROUP
++      select GRKERNSEC_KMEM
++      select GRKERNSEC_RESLOG
++      select GRKERNSEC_RANDNET
++      select GRKERNSEC_PROC_ADD
++      select GRKERNSEC_CHROOT_CHMOD
++      select GRKERNSEC_CHROOT_NICE
++      select GRKERNSEC_SETXID
++      select GRKERNSEC_AUDIT_MOUNT
++      select GRKERNSEC_MODHARDEN if (MODULES)
++      select GRKERNSEC_HARDEN_PTRACE
++      select GRKERNSEC_PTRACE_READEXEC
++      select GRKERNSEC_VM86 if (X86_32)
++      select GRKERNSEC_KERN_LOCKOUT if (X86 || ARM || PPC || SPARC)
++      select PAX
++      select PAX_RANDUSTACK
++      select PAX_ASLR
++      select PAX_RANDMMAP
++      select PAX_NOEXEC
++      select PAX_MPROTECT
++      select PAX_EI_PAX
++      select PAX_PT_PAX_FLAGS
++      select PAX_HAVE_ACL_FLAGS
++      select PAX_KERNEXEC if ((PPC || X86) && (!X86_32 || X86_WP_WORKS_OK) && !XEN)
++      select PAX_MEMORY_UDEREF if (X86 && !XEN)
++      select PAX_RANDKSTACK if (X86_TSC && X86)
++      select PAX_SEGMEXEC if (X86_32)
++      select PAX_PAGEEXEC
++      select PAX_EMUPLT if (ALPHA || PARISC || SPARC)
++      select PAX_EMUTRAMP if (PARISC)
++      select PAX_EMUSIGRT if (PARISC)
++      select PAX_ETEXECRELOCS if (ALPHA || IA64 || PARISC)
++      select PAX_ELFRELOCS if (PAX_ETEXECRELOCS || (IA64 || PPC || X86))
++      select PAX_REFCOUNT if (X86 || SPARC64)
++      select PAX_USERCOPY if ((X86 || SPARC || PPC || ARM) && (SLAB || SLUB || SLOB))
++      help
++        If you say Y here, many of the features of grsecurity will be
++        enabled, which will protect you against many kinds of attacks
++        against your system.  The heightened security comes at a cost
++        of an increased chance of incompatibilities with rare software
++        on your machine.  Since this security level enables PaX, you should
++        view <http://pax.grsecurity.net> and read about the PaX
++        project.  While you are there, download chpax and run it on
++        binaries that cause problems with PaX.  Also remember that
++        since the /proc restrictions are enabled, you must run your
++        identd as gid 1001.  This security level enables the following 
++        features in addition to those listed in the low and medium 
++        security levels:
++
++        - Additional /proc restrictions
++        - Chmod restrictions in chroot
++        - No signals, ptrace, or viewing of processes outside of chroot
++        - Capability restrictions in chroot
++        - Deny fchdir out of chroot
++        - Priority restrictions in chroot
++        - Segmentation-based implementation of PaX
++        - Mprotect restrictions
++        - Removal of addresses from /proc/<pid>/[smaps|maps|stat]
++        - Kernel stack randomization
++        - Mount/unmount/remount logging
++        - Kernel symbol hiding
++        - Hardening of module auto-loading
++        - Ptrace restrictions
++        - Restricted vm86 mode
++        - Restricted sysfs/debugfs
++        - Active kernel exploit response
++
++config GRKERNSEC_CUSTOM
++      bool "Custom"
++      help
++        If you say Y here, you will be able to configure every grsecurity
++        option, which allows you to enable many more features that aren't
++        covered in the basic security levels.  These additional features
++        include TPE, socket restrictions, and the sysctl system for
++        grsecurity.  It is advised that you read through the help for
++        each option to determine its usefulness in your situation.
++
++endchoice
++
++menu "Address Space Protection"
++depends on GRKERNSEC
++
++config GRKERNSEC_KMEM
++      bool "Deny reading/writing to /dev/kmem, /dev/mem, and /dev/port"
++      select STRICT_DEVMEM if (X86 || ARM || TILE || S390)
++      help
++        If you say Y here, /dev/kmem and /dev/mem won't be allowed to
++        be written to or read from to modify or leak the contents of the running
++        kernel.  /dev/port will also not be allowed to be opened. If you have module
++        support disabled, enabling this will close up four ways that are
++        currently used  to insert malicious code into the running kernel.
++        Even with all these features enabled, we still highly recommend that
++        you use the RBAC system, as it is still possible for an attacker to
++        modify the running kernel through privileged I/O granted by ioperm/iopl.
++        If you are not using XFree86, you may be able to stop this additional
++        case by enabling the 'Disable privileged I/O' option. Though nothing
++        legitimately writes to /dev/kmem, XFree86 does need to write to /dev/mem,
++        but only to video memory, which is the only writing we allow in this
++        case.  If /dev/kmem or /dev/mem are mmaped without PROT_WRITE, they will
++        not be allowed to mprotect it with PROT_WRITE later.
++        It is highly recommended that you say Y here if you meet all the
++        conditions above.
++
++config GRKERNSEC_VM86
++      bool "Restrict VM86 mode"
++      depends on X86_32
++
++      help
++        If you say Y here, only processes with CAP_SYS_RAWIO will be able to
++        make use of a special execution mode on 32bit x86 processors called
++        Virtual 8086 (VM86) mode.  XFree86 may need vm86 mode for certain
++        video cards and will still work with this option enabled.  The purpose
++        of the option is to prevent exploitation of emulation errors in
++        virtualization of vm86 mode like the one discovered in VMWare in 2009.
++        Nearly all users should be able to enable this option.
++
++config GRKERNSEC_IO
++      bool "Disable privileged I/O"
++      depends on X86
++      select RTC_CLASS
++      select RTC_INTF_DEV
++      select RTC_DRV_CMOS
++
++      help
++        If you say Y here, all ioperm and iopl calls will return an error.
++        Ioperm and iopl can be used to modify the running kernel.
++        Unfortunately, some programs need this access to operate properly,
++        the most notable of which are XFree86 and hwclock.  hwclock can be
++        remedied by having RTC support in the kernel, so real-time 
++        clock support is enabled if this option is enabled, to ensure 
++        that hwclock operates correctly.  XFree86 still will not 
++        operate correctly with this option enabled, so DO NOT CHOOSE Y 
++        IF YOU USE XFree86.  If you use XFree86 and you still want to 
++        protect your kernel against modification, use the RBAC system.
++
++config GRKERNSEC_PROC_MEMMAP
++      bool "Remove addresses from /proc/<pid>/[smaps|maps|stat]"
++      default y if (PAX_NOEXEC || PAX_ASLR)
++      depends on PAX_NOEXEC || PAX_ASLR
++      help
++        If you say Y here, the /proc/<pid>/maps and /proc/<pid>/stat files will
++        give no information about the addresses of its mappings if
++        PaX features that rely on random addresses are enabled on the task.
++        In addition to sanitizing this information and disabling other
++        dangerous sources of information, this option causes reads of sensitive
++        /proc/<pid> entries where the file descriptor was opened in a different
++        task than the one performing the read.  Such attempts are logged.
++        If you use PaX it is greatly recommended that you say Y here as it
++        closes up a hole that makes the full ASLR useless for suid
++        binaries.
++
++config GRKERNSEC_BRUTE
++      bool "Deter exploit bruteforcing"
++      help
++        If you say Y here, attempts to bruteforce exploits against forking
++        daemons such as apache or sshd, as well as against suid/sgid binaries
++        will be deterred.  When a child of a forking daemon is killed by PaX
++        or crashes due to an illegal instruction or other suspicious signal,
++        the parent process will be delayed 30 seconds upon every subsequent
++        fork until the administrator is able to assess the situation and
++        restart the daemon.
++        In the suid/sgid case, the attempt is logged, the user has all their
++        processes terminated, and they are prevented from executing any further
++        processes for 15 minutes.
++        It is recommended that you also enable signal logging in the auditing
++        section so that logs are generated when a process triggers a suspicious
++        signal.
++        If the sysctl option is enabled, a sysctl option with name
++        "deter_bruteforce" is created.
++
++config GRKERNSEC_MODHARDEN
++      bool "Harden module auto-loading"
++      depends on MODULES
++      help
++        If you say Y here, module auto-loading in response to use of some
++        feature implemented by an unloaded module will be restricted to
++        root users.  Enabling this option helps defend against attacks 
++        by unprivileged users who abuse the auto-loading behavior to 
++        cause a vulnerable module to load that is then exploited.
++
++        If this option prevents a legitimate use of auto-loading for a 
++        non-root user, the administrator can execute modprobe manually 
++        with the exact name of the module mentioned in the alert log.
++        Alternatively, the administrator can add the module to the list
++        of modules loaded at boot by modifying init scripts.
++
++        Modification of init scripts will most likely be needed on 
++        Ubuntu servers with encrypted home directory support enabled,
++        as the first non-root user logging in will cause the ecb(aes),
++        ecb(aes)-all, cbc(aes), and cbc(aes)-all  modules to be loaded.
++
++config GRKERNSEC_HIDESYM
++      bool "Hide kernel symbols"
++      help
++        If you say Y here, getting information on loaded modules, and
++        displaying all kernel symbols through a syscall will be restricted
++        to users with CAP_SYS_MODULE.  For software compatibility reasons,
++        /proc/kallsyms will be restricted to the root user.  The RBAC
++        system can hide that entry even from root.
++
++        This option also prevents leaking of kernel addresses through
++        several /proc entries.
++
++        Note that this option is only effective provided the following
++        conditions are met:
++        1) The kernel using grsecurity is not precompiled by some distribution
++        2) You have also enabled GRKERNSEC_DMESG
++        3) You are using the RBAC system and hiding other files such as your
++           kernel image and System.map.  Alternatively, enabling this option
++           causes the permissions on /boot, /lib/modules, and the kernel
++           source directory to change at compile time to prevent 
++           reading by non-root users.
++        If the above conditions are met, this option will aid in providing a
++        useful protection against local kernel exploitation of overflows
++        and arbitrary read/write vulnerabilities.
++
++config GRKERNSEC_KERN_LOCKOUT
++      bool "Active kernel exploit response"
++      depends on X86 || ARM || PPC || SPARC
++      help
++        If you say Y here, when a PaX alert is triggered due to suspicious
++        activity in the kernel (from KERNEXEC/UDEREF/USERCOPY)
++        or an OOPs occurs due to bad memory accesses, instead of just
++        terminating the offending process (and potentially allowing
++        a subsequent exploit from the same user), we will take one of two
++        actions:
++         If the user was root, we will panic the system
++         If the user was non-root, we will log the attempt, terminate
++         all processes owned by the user, then prevent them from creating
++         any new processes until the system is restarted
++        This deters repeated kernel exploitation/bruteforcing attempts
++        and is useful for later forensics.
++
++endmenu
++menu "Role Based Access Control Options"
++depends on GRKERNSEC
++
++config GRKERNSEC_RBAC_DEBUG
++      bool
++
++config GRKERNSEC_NO_RBAC
++      bool "Disable RBAC system"
++      help
++        If you say Y here, the /dev/grsec device will be removed from the kernel,
++        preventing the RBAC system from being enabled.  You should only say Y
++        here if you have no intention of using the RBAC system, so as to prevent
++        an attacker with root access from misusing the RBAC system to hide files
++        and processes when loadable module support and /dev/[k]mem have been
++        locked down.
++
++config GRKERNSEC_ACL_HIDEKERN
++      bool "Hide kernel processes"
++      help
++        If you say Y here, all kernel threads will be hidden to all
++        processes but those whose subject has the "view hidden processes"
++        flag.
++
++config GRKERNSEC_ACL_MAXTRIES
++      int "Maximum tries before password lockout"
++      default 3
++      help
++        This option enforces the maximum number of times a user can attempt
++        to authorize themselves with the grsecurity RBAC system before being
++        denied the ability to attempt authorization again for a specified time.
++        The lower the number, the harder it will be to brute-force a password.
++
++config GRKERNSEC_ACL_TIMEOUT
++      int "Time to wait after max password tries, in seconds"
++      default 30
++      help
++        This option specifies the time the user must wait after attempting to
++        authorize to the RBAC system with the maximum number of invalid
++        passwords.  The higher the number, the harder it will be to brute-force
++        a password.
++
++endmenu
++menu "Filesystem Protections"
++depends on GRKERNSEC
++
++config GRKERNSEC_PROC
++      bool "Proc restrictions"
++      help
++        If you say Y here, the permissions of the /proc filesystem
++        will be altered to enhance system security and privacy.  You MUST
++        choose either a user only restriction or a user and group restriction.
++        Depending upon the option you choose, you can either restrict users to
++        see only the processes they themselves run, or choose a group that can
++        view all processes and files normally restricted to root if you choose
++        the "restrict to user only" option.  NOTE: If you're running identd as
++        a non-root user, you will have to run it as the group you specify here.
++
++config GRKERNSEC_PROC_USER
++      bool "Restrict /proc to user only"
++      depends on GRKERNSEC_PROC
++      help
++        If you say Y here, non-root users will only be able to view their own
++        processes, and restricts them from viewing network-related information,
++        and viewing kernel symbol and module information.
++
++config GRKERNSEC_PROC_USERGROUP
++      bool "Allow special group"
++      depends on GRKERNSEC_PROC && !GRKERNSEC_PROC_USER
++      help
++        If you say Y here, you will be able to select a group that will be
++        able to view all processes and network-related information.  If you've
++        enabled GRKERNSEC_HIDESYM, kernel and symbol information may still
++        remain hidden.  This option is useful if you want to run identd as
++        a non-root user.
++
++config GRKERNSEC_PROC_GID
++      int "GID for special group"
++      depends on GRKERNSEC_PROC_USERGROUP
++      default 1001
++
++config GRKERNSEC_PROC_ADD
++      bool "Additional restrictions"
++      depends on GRKERNSEC_PROC_USER || GRKERNSEC_PROC_USERGROUP
++      help
++        If you say Y here, additional restrictions will be placed on
++        /proc that keep normal users from viewing device information and 
++        slabinfo information that could be useful for exploits.
++
++config GRKERNSEC_LINK
++      bool "Linking restrictions"
++      help
++        If you say Y here, /tmp race exploits will be prevented, since users
++        will no longer be able to follow symlinks owned by other users in
++        world-writable +t directories (e.g. /tmp), unless the owner of the
++        symlink is the owner of the directory. users will also not be
++        able to hardlink to files they do not own.  If the sysctl option is
++        enabled, a sysctl option with name "linking_restrictions" is created.
++
++config GRKERNSEC_FIFO
++      bool "FIFO restrictions"
++      help
++        If you say Y here, users will not be able to write to FIFOs they don't
++        own in world-writable +t directories (e.g. /tmp), unless the owner of
++        the FIFO is the same owner of the directory it's held in.  If the sysctl
++        option is enabled, a sysctl option with name "fifo_restrictions" is
++        created.
++
++config GRKERNSEC_SYSFS_RESTRICT
++      bool "Sysfs/debugfs restriction"
++      depends on SYSFS
++      help
++        If you say Y here, sysfs (the pseudo-filesystem mounted at /sys) and
++        any filesystem normally mounted under it (e.g. debugfs) will be
++        mostly accessible only by root.  These filesystems generally provide access
++        to hardware and debug information that isn't appropriate for unprivileged
++        users of the system.  Sysfs and debugfs have also become a large source
++        of new vulnerabilities, ranging from infoleaks to local compromise.
++        There has been very little oversight with an eye toward security involved
++        in adding new exporters of information to these filesystems, so their
++        use is discouraged.
++        For reasons of compatibility, a few directories have been whitelisted
++        for access by non-root users:
++        /sys/fs/selinux
++        /sys/fs/fuse
++        /sys/devices/system/cpu
++
++config GRKERNSEC_ROFS
++      bool "Runtime read-only mount protection"
++      help
++        If you say Y here, a sysctl option with name "romount_protect" will
++        be created.  By setting this option to 1 at runtime, filesystems
++        will be protected in the following ways:
++        * No new writable mounts will be allowed
++        * Existing read-only mounts won't be able to be remounted read/write
++        * Write operations will be denied on all block devices
++        This option acts independently of grsec_lock: once it is set to 1,
++        it cannot be turned off.  Therefore, please be mindful of the resulting
++        behavior if this option is enabled in an init script on a read-only
++        filesystem.  This feature is mainly intended for secure embedded systems.
++
++config GRKERNSEC_CHROOT
++      bool "Chroot jail restrictions"
++      help
++        If you say Y here, you will be able to choose several options that will
++        make breaking out of a chrooted jail much more difficult.  If you
++        encounter no software incompatibilities with the following options, it
++        is recommended that you enable each one.
++
++config GRKERNSEC_CHROOT_MOUNT
++      bool "Deny mounts"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to
++        mount or remount filesystems.  If the sysctl option is enabled, a
++        sysctl option with name "chroot_deny_mount" is created.
++
++config GRKERNSEC_CHROOT_DOUBLE
++      bool "Deny double-chroots"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to chroot
++        again outside the chroot.  This is a widely used method of breaking
++        out of a chroot jail and should not be allowed.  If the sysctl 
++        option is enabled, a sysctl option with name 
++        "chroot_deny_chroot" is created.
++
++config GRKERNSEC_CHROOT_PIVOT
++      bool "Deny pivot_root in chroot"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to use
++        a function called pivot_root() that was introduced in Linux 2.3.41.  It
++        works similar to chroot in that it changes the root filesystem.  This
++        function could be misused in a chrooted process to attempt to break out
++        of the chroot, and therefore should not be allowed.  If the sysctl
++        option is enabled, a sysctl option with name "chroot_deny_pivot" is
++        created.
++
++config GRKERNSEC_CHROOT_CHDIR
++      bool "Enforce chdir(\"/\") on all chroots"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, the current working directory of all newly-chrooted
++        applications will be set to the the root directory of the chroot.
++        The man page on chroot(2) states:
++        Note that this call does not change  the  current  working
++        directory,  so  that `.' can be outside the tree rooted at
++        `/'.  In particular, the  super-user  can  escape  from  a
++        `chroot jail' by doing `mkdir foo; chroot foo; cd ..'.
++
++        It is recommended that you say Y here, since it's not known to break
++        any software.  If the sysctl option is enabled, a sysctl option with
++        name "chroot_enforce_chdir" is created.
++
++config GRKERNSEC_CHROOT_CHMOD
++      bool "Deny (f)chmod +s"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to chmod
++        or fchmod files to make them have suid or sgid bits.  This protects
++        against another published method of breaking a chroot.  If the sysctl
++        option is enabled, a sysctl option with name "chroot_deny_chmod" is
++        created.
++
++config GRKERNSEC_CHROOT_FCHDIR
++      bool "Deny fchdir out of chroot"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, a well-known method of breaking chroots by fchdir'ing
++        to a file descriptor of the chrooting process that points to a directory
++        outside the filesystem will be stopped.  If the sysctl option
++        is enabled, a sysctl option with name "chroot_deny_fchdir" is created.
++
++config GRKERNSEC_CHROOT_MKNOD
++      bool "Deny mknod"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be allowed to
++        mknod.  The problem with using mknod inside a chroot is that it
++        would allow an attacker to create a device entry that is the same
++        as one on the physical root of your system, which could range from
++        anything from the console device to a device for your harddrive (which
++        they could then use to wipe the drive or steal data).  It is recommended
++        that you say Y here, unless you run into software incompatibilities.
++        If the sysctl option is enabled, a sysctl option with name
++        "chroot_deny_mknod" is created.
++
++config GRKERNSEC_CHROOT_SHMAT
++      bool "Deny shmat() out of chroot"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to attach
++        to shared memory segments that were created outside of the chroot jail.
++        It is recommended that you say Y here.  If the sysctl option is enabled,
++        a sysctl option with name "chroot_deny_shmat" is created.
++
++config GRKERNSEC_CHROOT_UNIX
++      bool "Deny access to abstract AF_UNIX sockets out of chroot"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to
++        connect to abstract (meaning not belonging to a filesystem) Unix
++        domain sockets that were bound outside of a chroot.  It is recommended
++        that you say Y here.  If the sysctl option is enabled, a sysctl option
++        with name "chroot_deny_unix" is created.
++
++config GRKERNSEC_CHROOT_FINDTASK
++      bool "Protect outside processes"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to
++        kill, send signals with fcntl, ptrace, capget, getpgid, setpgid, 
++        getsid, or view any process outside of the chroot.  If the sysctl
++        option is enabled, a sysctl option with name "chroot_findtask" is
++        created.
++
++config GRKERNSEC_CHROOT_NICE
++      bool "Restrict priority changes"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, processes inside a chroot will not be able to raise
++        the priority of processes in the chroot, or alter the priority of
++        processes outside the chroot.  This provides more security than simply
++        removing CAP_SYS_NICE from the process' capability set.  If the
++        sysctl option is enabled, a sysctl option with name "chroot_restrict_nice"
++        is created.
++
++config GRKERNSEC_CHROOT_SYSCTL
++      bool "Deny sysctl writes"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, an attacker in a chroot will not be able to
++        write to sysctl entries, either by sysctl(2) or through a /proc
++        interface.  It is strongly recommended that you say Y here. If the
++        sysctl option is enabled, a sysctl option with name
++        "chroot_deny_sysctl" is created.
++
++config GRKERNSEC_CHROOT_CAPS
++      bool "Capability restrictions"
++      depends on GRKERNSEC_CHROOT
++      help
++        If you say Y here, the capabilities on all processes within a
++        chroot jail will be lowered to stop module insertion, raw i/o,
++        system and net admin tasks, rebooting the system, modifying immutable
++        files, modifying IPC owned by another, and changing the system time.
++        This is left an option because it can break some apps.  Disable this
++        if your chrooted apps are having problems performing those kinds of
++        tasks.  If the sysctl option is enabled, a sysctl option with
++        name "chroot_caps" is created.
++
++endmenu
++menu "Kernel Auditing"
++depends on GRKERNSEC
++
++config GRKERNSEC_AUDIT_GROUP
++      bool "Single group for auditing"
++      help
++        If you say Y here, the exec, chdir, and (un)mount logging features
++        will only operate on a group you specify.  This option is recommended
++        if you only want to watch certain users instead of having a large
++        amount of logs from the entire system.  If the sysctl option is enabled,
++        a sysctl option with name "audit_group" is created.
++
++config GRKERNSEC_AUDIT_GID
++      int "GID for auditing"
++      depends on GRKERNSEC_AUDIT_GROUP
++      default 1007
++
++config GRKERNSEC_EXECLOG
++      bool "Exec logging"
++      help
++        If you say Y here, all execve() calls will be logged (since the
++        other exec*() calls are frontends to execve(), all execution
++        will be logged).  Useful for shell-servers that like to keep track
++        of their users.  If the sysctl option is enabled, a sysctl option with
++        name "exec_logging" is created.
++        WARNING: This option when enabled will produce a LOT of logs, especially
++        on an active system.
++
++config GRKERNSEC_RESLOG
++      bool "Resource logging"
++      help
++        If you say Y here, all attempts to overstep resource limits will
++        be logged with the resource name, the requested size, and the current
++        limit.  It is highly recommended that you say Y here.  If the sysctl
++        option is enabled, a sysctl option with name "resource_logging" is
++        created.  If the RBAC system is enabled, the sysctl value is ignored.
++
++config GRKERNSEC_CHROOT_EXECLOG
++      bool "Log execs within chroot"
++      help
++        If you say Y here, all executions inside a chroot jail will be logged
++        to syslog.  This can cause a large amount of logs if certain
++        applications (eg. djb's daemontools) are installed on the system, and
++        is therefore left as an option.  If the sysctl option is enabled, a
++        sysctl option with name "chroot_execlog" is created.
++
++config GRKERNSEC_AUDIT_PTRACE
++      bool "Ptrace logging"
++      help
++        If you say Y here, all attempts to attach to a process via ptrace
++        will be logged.  If the sysctl option is enabled, a sysctl option
++        with name "audit_ptrace" is created.
++
++config GRKERNSEC_AUDIT_CHDIR
++      bool "Chdir logging"
++      help
++        If you say Y here, all chdir() calls will be logged.  If the sysctl
++        option is enabled, a sysctl option with name "audit_chdir" is created.
++
++config GRKERNSEC_AUDIT_MOUNT
++      bool "(Un)Mount logging"
++      help
++        If you say Y here, all mounts and unmounts will be logged.  If the
++        sysctl option is enabled, a sysctl option with name "audit_mount" is
++        created.
++
++config GRKERNSEC_SIGNAL
++      bool "Signal logging"
++      help
++        If you say Y here, certain important signals will be logged, such as
++        SIGSEGV, which will as a result inform you of when a error in a program
++        occurred, which in some cases could mean a possible exploit attempt.
++        If the sysctl option is enabled, a sysctl option with name
++        "signal_logging" is created.
++
++config GRKERNSEC_FORKFAIL
++      bool "Fork failure logging"
++      help
++        If you say Y here, all failed fork() attempts will be logged.
++        This could suggest a fork bomb, or someone attempting to overstep
++        their process limit.  If the sysctl option is enabled, a sysctl option
++        with name "forkfail_logging" is created.
++
++config GRKERNSEC_TIME
++      bool "Time change logging"
++      help
++        If you say Y here, any changes of the system clock will be logged.
++        If the sysctl option is enabled, a sysctl option with name
++        "timechange_logging" is created.
++
++config GRKERNSEC_PROC_IPADDR
++      bool "/proc/<pid>/ipaddr support"
++      help
++        If you say Y here, a new entry will be added to each /proc/<pid>
++        directory that contains the IP address of the person using the task.
++        The IP is carried across local TCP and AF_UNIX stream sockets.
++        This information can be useful for IDS/IPSes to perform remote response
++        to a local attack.  The entry is readable by only the owner of the
++        process (and root if he has CAP_DAC_OVERRIDE, which can be removed via
++        the RBAC system), and thus does not create privacy concerns.
++
++config GRKERNSEC_RWXMAP_LOG
++      bool 'Denied RWX mmap/mprotect logging'
++      depends on PAX_MPROTECT && !PAX_EMUPLT && !PAX_EMUSIGRT
++      help
++        If you say Y here, calls to mmap() and mprotect() with explicit
++        usage of PROT_WRITE and PROT_EXEC together will be logged when
++        denied by the PAX_MPROTECT feature.  If the sysctl option is
++        enabled, a sysctl option with name "rwxmap_logging" is created.
++
++config GRKERNSEC_AUDIT_TEXTREL
++      bool 'ELF text relocations logging (READ HELP)'
++      depends on PAX_MPROTECT
++      help
++        If you say Y here, text relocations will be logged with the filename
++        of the offending library or binary.  The purpose of the feature is
++        to help Linux distribution developers get rid of libraries and
++        binaries that need text relocations which hinder the future progress
++        of PaX.  Only Linux distribution developers should say Y here, and
++        never on a production machine, as this option creates an information
++        leak that could aid an attacker in defeating the randomization of
++        a single memory region.  If the sysctl option is enabled, a sysctl
++        option with name "audit_textrel" is created.
++
++endmenu
++
++menu "Executable Protections"
++depends on GRKERNSEC
++
++config GRKERNSEC_DMESG
++      bool "Dmesg(8) restriction"
++      help
++        If you say Y here, non-root users will not be able to use dmesg(8)
++        to view up to the last 4kb of messages in the kernel's log buffer.
++        The kernel's log buffer often contains kernel addresses and other
++        identifying information useful to an attacker in fingerprinting a
++        system for a targeted exploit.
++        If the sysctl option is enabled, a sysctl option with name "dmesg" is
++        created.
++
++config GRKERNSEC_HARDEN_PTRACE
++      bool "Deter ptrace-based process snooping"
++      help
++        If you say Y here, TTY sniffers and other malicious monitoring
++        programs implemented through ptrace will be defeated.  If you
++        have been using the RBAC system, this option has already been
++        enabled for several years for all users, with the ability to make
++        fine-grained exceptions.
++
++        This option only affects the ability of non-root users to ptrace
++        processes that are not a descendent of the ptracing process.
++        This means that strace ./binary and gdb ./binary will still work,
++        but attaching to arbitrary processes will not.  If the sysctl
++        option is enabled, a sysctl option with name "harden_ptrace" is
++        created.
++
++config GRKERNSEC_PTRACE_READEXEC
++      bool "Require read access to ptrace sensitive binaries"
++      help
++        If you say Y here, unprivileged users will not be able to ptrace unreadable
++        binaries.  This option is useful in environments that
++        remove the read bits (e.g. file mode 4711) from suid binaries to
++        prevent infoleaking of their contents.  This option adds
++        consistency to the use of that file mode, as the binary could normally
++        be read out when run without privileges while ptracing.
++
++        If the sysctl option is enabled, a sysctl option with name "ptrace_readexec"
++        is created.
++
++config GRKERNSEC_SETXID
++      bool "Enforce consistent multithreaded privileges"
++      help
++        If you say Y here, a change from a root uid to a non-root uid
++        in a multithreaded application will cause the resulting uids,
++        gids, supplementary groups, and capabilities in that thread
++        to be propagated to the other threads of the process.  In most
++        cases this is unnecessary, as glibc will emulate this behavior
++        on behalf of the application.  Other libcs do not act in the
++        same way, allowing the other threads of the process to continue
++        running with root privileges.  If the sysctl option is enabled,
++        a sysctl option with name "consistent_setxid" is created.
++
++config GRKERNSEC_TPE
++      bool "Trusted Path Execution (TPE)"
++      help
++        If you say Y here, you will be able to choose a gid to add to the
++        supplementary groups of users you want to mark as "untrusted."
++        These users will not be able to execute any files that are not in
++        root-owned directories writable only by root.  If the sysctl option
++        is enabled, a sysctl option with name "tpe" is created.
++
++config GRKERNSEC_TPE_ALL
++      bool "Partially restrict all non-root users"
++      depends on GRKERNSEC_TPE
++      help
++        If you say Y here, all non-root users will be covered under
++        a weaker TPE restriction.  This is separate from, and in addition to,
++        the main TPE options that you have selected elsewhere.  Thus, if a
++        "trusted" GID is chosen, this restriction applies to even that GID.
++        Under this restriction, all non-root users will only be allowed to
++        execute files in directories they own that are not group or
++        world-writable, or in directories owned by root and writable only by
++        root.  If the sysctl option is enabled, a sysctl option with name
++        "tpe_restrict_all" is created.
++
++config GRKERNSEC_TPE_INVERT
++      bool "Invert GID option"
++      depends on GRKERNSEC_TPE
++      help
++        If you say Y here, the group you specify in the TPE configuration will
++        decide what group TPE restrictions will be *disabled* for.  This
++        option is useful if you want TPE restrictions to be applied to most
++        users on the system.  If the sysctl option is enabled, a sysctl option
++        with name "tpe_invert" is created.  Unlike other sysctl options, this
++        entry will default to on for backward-compatibility.
++
++config GRKERNSEC_TPE_GID
++      int "GID for untrusted users"
++      depends on GRKERNSEC_TPE && !GRKERNSEC_TPE_INVERT
++      default 1005
++      help
++        Setting this GID determines what group TPE restrictions will be
++        *enabled* for.  If the sysctl option is enabled, a sysctl option
++        with name "tpe_gid" is created.
++
++config GRKERNSEC_TPE_GID
++      int "GID for trusted users"
++      depends on GRKERNSEC_TPE && GRKERNSEC_TPE_INVERT
++      default 1005
++      help
++        Setting this GID determines what group TPE restrictions will be
++        *disabled* for.  If the sysctl option is enabled, a sysctl option
++        with name "tpe_gid" is created.
++
++endmenu
++menu "Network Protections"
++depends on GRKERNSEC
++
++config GRKERNSEC_RANDNET
++      bool "Larger entropy pools"
++      help
++        If you say Y here, the entropy pools used for many features of Linux
++        and grsecurity will be doubled in size.  Since several grsecurity
++        features use additional randomness, it is recommended that you say Y
++        here.  Saying Y here has a similar effect as modifying
++        /proc/sys/kernel/random/poolsize.
++
++config GRKERNSEC_BLACKHOLE
++      bool "TCP/UDP blackhole and LAST_ACK DoS prevention"
++      depends on NET
++      help
++        If you say Y here, neither TCP resets nor ICMP
++        destination-unreachable packets will be sent in response to packets
++        sent to ports for which no associated listening process exists.
++        This feature supports both IPV4 and IPV6 and exempts the 
++        loopback interface from blackholing.  Enabling this feature 
++        makes a host more resilient to DoS attacks and reduces network
++        visibility against scanners.
++
++        The blackhole feature as-implemented is equivalent to the FreeBSD
++        blackhole feature, as it prevents RST responses to all packets, not
++        just SYNs.  Under most application behavior this causes no
++        problems, but applications (like haproxy) may not close certain
++        connections in a way that cleanly terminates them on the remote
++        end, leaving the remote host in LAST_ACK state.  Because of this
++        side-effect and to prevent intentional LAST_ACK DoSes, this
++        feature also adds automatic mitigation against such attacks.
++        The mitigation drastically reduces the amount of time a socket
++        can spend in LAST_ACK state.  If you're using haproxy and not
++        all servers it connects to have this option enabled, consider
++        disabling this feature on the haproxy host.
++
++        If the sysctl option is enabled, two sysctl options with names
++        "ip_blackhole" and "lastack_retries" will be created.
++        While "ip_blackhole" takes the standard zero/non-zero on/off
++        toggle, "lastack_retries" uses the same kinds of values as
++        "tcp_retries1" and "tcp_retries2".  The default value of 4
++        prevents a socket from lasting more than 45 seconds in LAST_ACK
++        state.
++
++config GRKERNSEC_SOCKET
++      bool "Socket restrictions"
++      depends on NET
++      help
++        If you say Y here, you will be able to choose from several options.
++        If you assign a GID on your system and add it to the supplementary
++        groups of users you want to restrict socket access to, this patch
++        will perform up to three things, based on the option(s) you choose.
++
++config GRKERNSEC_SOCKET_ALL
++      bool "Deny any sockets to group"
++      depends on GRKERNSEC_SOCKET
++      help
++        If you say Y here, you will be able to choose a GID of whose users will
++        be unable to connect to other hosts from your machine or run server
++        applications from your machine.  If the sysctl option is enabled, a
++        sysctl option with name "socket_all" is created.
++
++config GRKERNSEC_SOCKET_ALL_GID
++      int "GID to deny all sockets for"
++      depends on GRKERNSEC_SOCKET_ALL
++      default 1004
++      help
++        Here you can choose the GID to disable socket access for. Remember to
++        add the users you want socket access disabled for to the GID
++        specified here.  If the sysctl option is enabled, a sysctl option
++        with name "socket_all_gid" is created.
++
++config GRKERNSEC_SOCKET_CLIENT
++      bool "Deny client sockets to group"
++      depends on GRKERNSEC_SOCKET
++      help
++        If you say Y here, you will be able to choose a GID of whose users will
++        be unable to connect to other hosts from your machine, but will be
++        able to run servers.  If this option is enabled, all users in the group
++        you specify will have to use passive mode when initiating ftp transfers
++        from the shell on your machine.  If the sysctl option is enabled, a
++        sysctl option with name "socket_client" is created.
++
++config GRKERNSEC_SOCKET_CLIENT_GID
++      int "GID to deny client sockets for"
++      depends on GRKERNSEC_SOCKET_CLIENT
++      default 1003
++      help
++        Here you can choose the GID to disable client socket access for.
++        Remember to add the users you want client socket access disabled for to
++        the GID specified here.  If the sysctl option is enabled, a sysctl
++        option with name "socket_client_gid" is created.
++
++config GRKERNSEC_SOCKET_SERVER
++      bool "Deny server sockets to group"
++      depends on GRKERNSEC_SOCKET
++      help
++        If you say Y here, you will be able to choose a GID of whose users will
++        be unable to run server applications from your machine.  If the sysctl
++        option is enabled, a sysctl option with name "socket_server" is created.
++
++config GRKERNSEC_SOCKET_SERVER_GID
++      int "GID to deny server sockets for"
++      depends on GRKERNSEC_SOCKET_SERVER
++      default 1002
++      help
++        Here you can choose the GID to disable server socket access for.
++        Remember to add the users you want server socket access disabled for to
++        the GID specified here.  If the sysctl option is enabled, a sysctl
++        option with name "socket_server_gid" is created.
++
++endmenu
++menu "Sysctl support"
++depends on GRKERNSEC && SYSCTL
++
++config GRKERNSEC_SYSCTL
++      bool "Sysctl support"
++      help
++        If you say Y here, you will be able to change the options that
++        grsecurity runs with at bootup, without having to recompile your
++        kernel.  You can echo values to files in /proc/sys/kernel/grsecurity
++        to enable (1) or disable (0) various features.  All the sysctl entries
++        are mutable until the "grsec_lock" entry is set to a non-zero value.
++        All features enabled in the kernel configuration are disabled at boot
++        if you do not say Y to the "Turn on features by default" option.
++        All options should be set at startup, and the grsec_lock entry should
++        be set to a non-zero value after all the options are set.
++        *THIS IS EXTREMELY IMPORTANT*
++
++config GRKERNSEC_SYSCTL_DISTRO
++      bool "Extra sysctl support for distro makers (READ HELP)"
++      depends on GRKERNSEC_SYSCTL && GRKERNSEC_IO
++      help
++        If you say Y here, additional sysctl options will be created
++        for features that affect processes running as root.  Therefore,
++        it is critical when using this option that the grsec_lock entry be
++        enabled after boot.  Only distros with prebuilt kernel packages
++        with this option enabled that can ensure grsec_lock is enabled
++        after boot should use this option.
++        *Failure to set grsec_lock after boot makes all grsec features
++        this option covers useless*
++
++        Currently this option creates the following sysctl entries:
++        "Disable Privileged I/O": "disable_priv_io"   
++
++config GRKERNSEC_SYSCTL_ON
++      bool "Turn on features by default"
++      depends on GRKERNSEC_SYSCTL
++      help
++        If you say Y here, instead of having all features enabled in the
++        kernel configuration disabled at boot time, the features will be
++        enabled at boot time.  It is recommended you say Y here unless
++        there is some reason you would want all sysctl-tunable features to
++        be disabled by default.  As mentioned elsewhere, it is important
++        to enable the grsec_lock entry once you have finished modifying
++        the sysctl entries.
++
++endmenu
++menu "Logging Options"
++depends on GRKERNSEC
++
++config GRKERNSEC_FLOODTIME
++      int "Seconds in between log messages (minimum)"
++      default 10
++      help
++        This option allows you to enforce the number of seconds between
++        grsecurity log messages.  The default should be suitable for most
++        people, however, if you choose to change it, choose a value small enough
++        to allow informative logs to be produced, but large enough to
++        prevent flooding.
++
++config GRKERNSEC_FLOODBURST
++      int "Number of messages in a burst (maximum)"
++      default 6
++      help
++        This option allows you to choose the maximum number of messages allowed
++        within the flood time interval you chose in a separate option.  The
++        default should be suitable for most people, however if you find that
++        many of your logs are being interpreted as flooding, you may want to
++        raise this value.
++
++endmenu
++
++endmenu
+diff --git a/grsecurity/Makefile b/grsecurity/Makefile
+new file mode 100644
+index 0000000..1b9afa9
+--- /dev/null
++++ b/grsecurity/Makefile
+@@ -0,0 +1,38 @@
++# grsecurity's ACL system was originally written in 2001 by Michael Dalton
++# during 2001-2009 it has been completely redesigned by Brad Spengler
++# into an RBAC system
++#
++# All code in this directory and various hooks inserted throughout the kernel
++# are copyright Brad Spengler - Open Source Security, Inc., and released 
++# under the GPL v2 or higher
++
++KBUILD_CFLAGS += -Werror
++
++obj-y = grsec_chdir.o grsec_chroot.o grsec_exec.o grsec_fifo.o grsec_fork.o \
++      grsec_mount.o grsec_sig.o grsec_sysctl.o \
++      grsec_time.o grsec_tpe.o grsec_link.o grsec_pax.o grsec_ptrace.o
++
++obj-$(CONFIG_GRKERNSEC) += grsec_init.o grsum.o gracl.o gracl_segv.o \
++      gracl_cap.o gracl_alloc.o gracl_shm.o grsec_mem.o gracl_fs.o \
++      gracl_learn.o grsec_log.o
++obj-$(CONFIG_GRKERNSEC_RESLOG) += gracl_res.o
++
++ifdef CONFIG_NET
++obj-y += grsec_sock.o
++obj-$(CONFIG_GRKERNSEC) += gracl_ip.o
++endif
++
++ifndef CONFIG_GRKERNSEC
++obj-y += grsec_disabled.o
++endif
++
++ifdef CONFIG_GRKERNSEC_HIDESYM
++extra-y := grsec_hidesym.o
++$(obj)/grsec_hidesym.o:
++      @-chmod -f 500 /boot
++      @-chmod -f 500 /lib/modules
++      @-chmod -f 500 /lib64/modules
++      @-chmod -f 500 /lib32/modules
++      @-chmod -f 700 .
++      @echo '  grsec: protected kernel image paths'
++endif
+diff --git a/grsecurity/gracl.c b/grsecurity/gracl.c
+new file mode 100644
+index 0000000..71cb167
+--- /dev/null
++++ b/grsecurity/gracl.c
+@@ -0,0 +1,4140 @@
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/sched.h>
++#include <linux/mm.h>
++#include <linux/file.h>
++#include <linux/fs.h>
++#include <linux/namei.h>
++#include <linux/mount.h>
++#include <linux/tty.h>
++#include <linux/proc_fs.h>
++#include <linux/smp_lock.h>
++#include <linux/slab.h>
++#include <linux/vmalloc.h>
++#include <linux/types.h>
++#include <linux/sysctl.h>
++#include <linux/netdevice.h>
++#include <linux/ptrace.h>
++#include <linux/gracl.h>
++#include <linux/gralloc.h>
++#include <linux/security.h>
++#include <linux/grinternal.h>
++#include <linux/pid_namespace.h>
++#include <linux/fdtable.h>
++#include <linux/percpu.h>
++
++#include <asm/uaccess.h>
++#include <asm/errno.h>
++#include <asm/mman.h>
++
++static struct acl_role_db acl_role_set;
++static struct name_db name_set;
++static struct inodev_db inodev_set;
++
++/* for keeping track of userspace pointers used for subjects, so we
++   can share references in the kernel as well
++*/
++
++static struct dentry *real_root;
++static struct vfsmount *real_root_mnt;
++
++static struct acl_subj_map_db subj_map_set;
++
++static struct acl_role_label *default_role;
++
++static struct acl_role_label *role_list;
++
++static u16 acl_sp_role_value;
++
++extern char *gr_shared_page[4];
++static DEFINE_MUTEX(gr_dev_mutex);
++DEFINE_RWLOCK(gr_inode_lock);
++
++struct gr_arg *gr_usermode;
++
++static unsigned int gr_status __read_only = GR_STATUS_INIT;
++
++extern int chkpw(struct gr_arg *entry, unsigned char *salt, unsigned char *sum);
++extern void gr_clear_learn_entries(void);
++
++#ifdef CONFIG_GRKERNSEC_RESLOG
++extern void gr_log_resource(const struct task_struct *task,
++                          const int res, const unsigned long wanted, const int gt);
++#endif
++
++unsigned char *gr_system_salt;
++unsigned char *gr_system_sum;
++
++static struct sprole_pw **acl_special_roles = NULL;
++static __u16 num_sprole_pws = 0;
++
++static struct acl_role_label *kernel_role = NULL;
++
++static unsigned int gr_auth_attempts = 0;
++static unsigned long gr_auth_expires = 0UL;
++
++#ifdef CONFIG_NET
++extern struct vfsmount *sock_mnt;
++#endif
++extern struct vfsmount *pipe_mnt;
++extern struct vfsmount *shm_mnt;
++#ifdef CONFIG_HUGETLBFS
++extern struct vfsmount *hugetlbfs_vfsmount;
++#endif
++
++static struct acl_object_label *fakefs_obj_rw;
++static struct acl_object_label *fakefs_obj_rwx;
++
++extern int gr_init_uidset(void);
++extern void gr_free_uidset(void);
++extern void gr_remove_uid(uid_t uid);
++extern int gr_find_uid(uid_t uid);
++
++__inline__ int
++gr_acl_is_enabled(void)
++{
++      return (gr_status & GR_READY);
++}
++
++#ifdef CONFIG_BTRFS_FS
++extern dev_t get_btrfs_dev_from_inode(struct inode *inode);
++extern int btrfs_getattr(struct vfsmount *mnt, struct dentry *dentry, struct kstat *stat);
++#endif
++
++static inline dev_t __get_dev(const struct dentry *dentry)
++{
++#ifdef CONFIG_BTRFS_FS
++      if (dentry->d_inode->i_op && dentry->d_inode->i_op->getattr == &btrfs_getattr)
++              return get_btrfs_dev_from_inode(dentry->d_inode);
++      else
++#endif
++              return dentry->d_inode->i_sb->s_dev;
++}
++
++dev_t gr_get_dev_from_dentry(struct dentry *dentry)
++{
++      return __get_dev(dentry);
++}
++
++static char gr_task_roletype_to_char(struct task_struct *task)
++{
++      switch (task->role->roletype &
++              (GR_ROLE_DEFAULT | GR_ROLE_USER | GR_ROLE_GROUP |
++               GR_ROLE_SPECIAL)) {
++      case GR_ROLE_DEFAULT:
++              return 'D';
++      case GR_ROLE_USER:
++              return 'U';
++      case GR_ROLE_GROUP:
++              return 'G';
++      case GR_ROLE_SPECIAL:
++              return 'S';
++      }
++
++      return 'X';
++}
++
++char gr_roletype_to_char(void)
++{
++      return gr_task_roletype_to_char(current);
++}
++
++__inline__ int
++gr_acl_tpe_check(void)
++{
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++      if (current->role->roletype & GR_ROLE_TPE)
++              return 1;
++      else
++              return 0;
++}
++
++int
++gr_handle_rawio(const struct inode *inode)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_CAPS
++      if (inode && S_ISBLK(inode->i_mode) &&
++          grsec_enable_chroot_caps && proc_is_chrooted(current) &&
++          !capable(CAP_SYS_RAWIO))
++              return 1;
++#endif
++      return 0;
++}
++
++static int
++gr_streq(const char *a, const char *b, const unsigned int lena, const unsigned int lenb)
++{
++      if (likely(lena != lenb))
++              return 0;
++
++      return !memcmp(a, b, lena);
++}
++
++static int prepend(char **buffer, int *buflen, const char *str, int namelen)
++{
++      *buflen -= namelen;
++      if (*buflen < 0)
++              return -ENAMETOOLONG;
++      *buffer -= namelen;
++      memcpy(*buffer, str, namelen);
++      return 0;
++}
++
++/* this must be called with vfsmount_lock and dcache_lock held */
++
++static char * __our_d_path(struct dentry *dentry, struct vfsmount *vfsmnt,
++                         struct dentry *root, struct vfsmount *rootmnt,
++                         char *buffer, int buflen)
++{
++      char * end = buffer+buflen;
++      char * retval;
++      int namelen;
++
++      *--end = '\0';
++      buflen--;
++
++      if (buflen < 1)
++              goto Elong;
++      /* Get '/' right */
++      retval = end-1;
++      *retval = '/';
++
++      for (;;) {
++              struct dentry * parent;
++
++              if (dentry == root && vfsmnt == rootmnt)
++                      break;
++              if (dentry == vfsmnt->mnt_root || IS_ROOT(dentry)) {
++                      /* Global root? */
++                      if (vfsmnt->mnt_parent == vfsmnt)
++                              goto global_root;
++                      dentry = vfsmnt->mnt_mountpoint;
++                      vfsmnt = vfsmnt->mnt_parent;
++                      continue;
++              }
++              parent = dentry->d_parent;
++              prefetch(parent);
++              namelen = dentry->d_name.len;
++              buflen -= namelen + 1;
++              if (buflen < 0)
++                      goto Elong;
++              end -= namelen;
++              memcpy(end, dentry->d_name.name, namelen);
++              *--end = '/';
++              retval = end;
++              dentry = parent;
++      }
++
++out:
++      return retval;
++
++global_root:
++      namelen = dentry->d_name.len;
++      buflen -= namelen;
++      if (buflen < 0)
++              goto Elong;
++      retval -= namelen-1;    /* hit the slash */
++      memcpy(retval, dentry->d_name.name, namelen);
++      goto out;
++Elong:
++      retval = ERR_PTR(-ENAMETOOLONG);
++      goto out;
++}
++
++static char *
++gen_full_path(struct dentry *dentry, struct vfsmount *vfsmnt,
++              struct dentry *root, struct vfsmount *rootmnt, char *buf, int buflen)
++{
++      char *retval;
++
++      retval = __our_d_path(dentry, vfsmnt, root, rootmnt, buf, buflen);
++      if (unlikely(IS_ERR(retval)))
++              retval = strcpy(buf, "<path too long>");
++      else if (unlikely(retval[1] == '/' && retval[2] == '\0'))
++              retval[1] = '\0';
++
++      return retval;
++}
++
++static char *
++__d_real_path(const struct dentry *dentry, const struct vfsmount *vfsmnt,
++              char *buf, int buflen)
++{
++      char *res;
++
++      /* we can use real_root, real_root_mnt, because this is only called
++         by the RBAC system */
++      res = gen_full_path((struct dentry *)dentry, (struct vfsmount *)vfsmnt, real_root, real_root_mnt, buf, buflen);
++
++      return res;
++}
++
++static char *
++d_real_path(const struct dentry *dentry, const struct vfsmount *vfsmnt,
++          char *buf, int buflen)
++{
++      char *res;
++      struct dentry *root;
++      struct vfsmount *rootmnt;
++      struct task_struct *reaper = &init_task;
++
++      /* we can't use real_root, real_root_mnt, because they belong only to the RBAC system */
++      read_lock(&reaper->fs->lock);
++      root = dget(reaper->fs->root.dentry);
++      rootmnt = mntget(reaper->fs->root.mnt);
++      read_unlock(&reaper->fs->lock);
++
++      spin_lock(&dcache_lock);
++      spin_lock(&vfsmount_lock);
++      res = gen_full_path((struct dentry *)dentry, (struct vfsmount *)vfsmnt, root, rootmnt, buf, buflen);
++      spin_unlock(&vfsmount_lock);
++      spin_unlock(&dcache_lock);
++
++      dput(root);
++      mntput(rootmnt);
++      return res;
++}
++
++static char *
++gr_to_filename_rbac(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      char *ret;
++      spin_lock(&dcache_lock);
++      spin_lock(&vfsmount_lock);
++      ret = __d_real_path(dentry, mnt, per_cpu_ptr(gr_shared_page[0],smp_processor_id()),
++                           PAGE_SIZE);
++      spin_unlock(&vfsmount_lock);
++      spin_unlock(&dcache_lock);
++      return ret;
++}
++
++static char *
++gr_to_proc_filename_rbac(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      char *ret;
++      char *buf;
++      int buflen;
++
++      spin_lock(&dcache_lock);
++      spin_lock(&vfsmount_lock);
++      buf = per_cpu_ptr(gr_shared_page[0], smp_processor_id());
++      ret = __d_real_path(dentry, mnt, buf, PAGE_SIZE - 6);
++      buflen = (int)(ret - buf);
++      if (buflen >= 5)
++              prepend(&ret, &buflen, "/proc", 5);
++      else
++              ret = strcpy(buf, "<path too long>");
++      spin_unlock(&vfsmount_lock);
++      spin_unlock(&dcache_lock);
++      return ret;
++}
++
++char *
++gr_to_filename_nolock(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return __d_real_path(dentry, mnt, per_cpu_ptr(gr_shared_page[0],smp_processor_id()),
++                           PAGE_SIZE);
++}
++
++char *
++gr_to_filename(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return d_real_path(dentry, mnt, per_cpu_ptr(gr_shared_page[0], smp_processor_id()),
++                         PAGE_SIZE);
++}
++
++char *
++gr_to_filename1(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return d_real_path(dentry, mnt, per_cpu_ptr(gr_shared_page[1], smp_processor_id()),
++                         PAGE_SIZE);
++}
++
++char *
++gr_to_filename2(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return d_real_path(dentry, mnt, per_cpu_ptr(gr_shared_page[2], smp_processor_id()),
++                         PAGE_SIZE);
++}
++
++char *
++gr_to_filename3(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return d_real_path(dentry, mnt, per_cpu_ptr(gr_shared_page[3], smp_processor_id()),
++                         PAGE_SIZE);
++}
++
++__inline__ __u32
++to_gr_audit(const __u32 reqmode)
++{
++      /* masks off auditable permission flags, then shifts them to create
++         auditing flags, and adds the special case of append auditing if
++         we're requesting write */
++      return (((reqmode & ~GR_AUDITS) << 10) | ((reqmode & GR_WRITE) ? GR_AUDIT_APPEND : 0));
++}
++
++struct acl_subject_label *
++lookup_subject_map(const struct acl_subject_label *userp)
++{
++      unsigned int index = shash(userp, subj_map_set.s_size);
++      struct subject_map *match;
++
++      match = subj_map_set.s_hash[index];
++
++      while (match && match->user != userp)
++              match = match->next;
++
++      if (match != NULL)
++              return match->kernel;
++      else
++              return NULL;
++}
++
++static void
++insert_subj_map_entry(struct subject_map *subjmap)
++{
++      unsigned int index = shash(subjmap->user, subj_map_set.s_size);
++      struct subject_map **curr;
++
++      subjmap->prev = NULL;
++
++      curr = &subj_map_set.s_hash[index];
++      if (*curr != NULL)
++              (*curr)->prev = subjmap;
++
++      subjmap->next = *curr;
++      *curr = subjmap;
++
++      return;
++}
++
++static struct acl_role_label *
++lookup_acl_role_label(const struct task_struct *task, const uid_t uid,
++                    const gid_t gid)
++{
++      unsigned int index = rhash(uid, GR_ROLE_USER, acl_role_set.r_size);
++      struct acl_role_label *match;
++      struct role_allowed_ip *ipp;
++      unsigned int x;
++      u32 curr_ip = task->signal->curr_ip;
++
++      task->signal->saved_ip = curr_ip;
++
++      match = acl_role_set.r_hash[index];
++
++      while (match) {
++              if ((match->roletype & (GR_ROLE_DOMAIN | GR_ROLE_USER)) == (GR_ROLE_DOMAIN | GR_ROLE_USER)) {
++                      for (x = 0; x < match->domain_child_num; x++) {
++                              if (match->domain_children[x] == uid)
++                                      goto found;
++                      }
++              } else if (match->uidgid == uid && match->roletype & GR_ROLE_USER)
++                      break;
++              match = match->next;
++      }
++found:
++      if (match == NULL) {
++            try_group:
++              index = rhash(gid, GR_ROLE_GROUP, acl_role_set.r_size);
++              match = acl_role_set.r_hash[index];
++
++              while (match) {
++                      if ((match->roletype & (GR_ROLE_DOMAIN | GR_ROLE_GROUP)) == (GR_ROLE_DOMAIN | GR_ROLE_GROUP)) {
++                              for (x = 0; x < match->domain_child_num; x++) {
++                                      if (match->domain_children[x] == gid)
++                                              goto found2;
++                              }
++                      } else if (match->uidgid == gid && match->roletype & GR_ROLE_GROUP)
++                              break;
++                      match = match->next;
++              }
++found2:
++              if (match == NULL)
++                      match = default_role;
++              if (match->allowed_ips == NULL)
++                      return match;
++              else {
++                      for (ipp = match->allowed_ips; ipp; ipp = ipp->next) {
++                              if (likely
++                                  ((ntohl(curr_ip) & ipp->netmask) ==
++                                   (ntohl(ipp->addr) & ipp->netmask)))
++                                      return match;
++                      }
++                      match = default_role;
++              }
++      } else if (match->allowed_ips == NULL) {
++              return match;
++      } else {
++              for (ipp = match->allowed_ips; ipp; ipp = ipp->next) {
++                      if (likely
++                          ((ntohl(curr_ip) & ipp->netmask) ==
++                           (ntohl(ipp->addr) & ipp->netmask)))
++                              return match;
++              }
++              goto try_group;
++      }
++
++      return match;
++}
++
++struct acl_subject_label *
++lookup_acl_subj_label(const ino_t ino, const dev_t dev,
++                    const struct acl_role_label *role)
++{
++      unsigned int index = fhash(ino, dev, role->subj_hash_size);
++      struct acl_subject_label *match;
++
++      match = role->subj_hash[index];
++
++      while (match && (match->inode != ino || match->device != dev ||
++             (match->mode & GR_DELETED))) {
++              match = match->next;
++      }
++
++      if (match && !(match->mode & GR_DELETED))
++              return match;
++      else
++              return NULL;
++}
++
++struct acl_subject_label *
++lookup_acl_subj_label_deleted(const ino_t ino, const dev_t dev,
++                        const struct acl_role_label *role)
++{
++      unsigned int index = fhash(ino, dev, role->subj_hash_size);
++      struct acl_subject_label *match;
++
++      match = role->subj_hash[index];
++
++      while (match && (match->inode != ino || match->device != dev ||
++             !(match->mode & GR_DELETED))) {
++              match = match->next;
++      }
++
++      if (match && (match->mode & GR_DELETED))
++              return match;
++      else
++              return NULL;
++}
++
++static struct acl_object_label *
++lookup_acl_obj_label(const ino_t ino, const dev_t dev,
++                   const struct acl_subject_label *subj)
++{
++      unsigned int index = fhash(ino, dev, subj->obj_hash_size);
++      struct acl_object_label *match;
++
++      match = subj->obj_hash[index];
++
++      while (match && (match->inode != ino || match->device != dev ||
++             (match->mode & GR_DELETED))) {
++              match = match->next;
++      }
++
++      if (match && !(match->mode & GR_DELETED))
++              return match;
++      else
++              return NULL;
++}
++
++static struct acl_object_label *
++lookup_acl_obj_label_create(const ino_t ino, const dev_t dev,
++                   const struct acl_subject_label *subj)
++{
++      unsigned int index = fhash(ino, dev, subj->obj_hash_size);
++      struct acl_object_label *match;
++
++      match = subj->obj_hash[index];
++
++      while (match && (match->inode != ino || match->device != dev ||
++             !(match->mode & GR_DELETED))) {
++              match = match->next;
++      }
++
++      if (match && (match->mode & GR_DELETED))
++              return match;
++
++      match = subj->obj_hash[index];
++
++      while (match && (match->inode != ino || match->device != dev ||
++             (match->mode & GR_DELETED))) {
++              match = match->next;
++      }
++
++      if (match && !(match->mode & GR_DELETED))
++              return match;
++      else
++              return NULL;
++}
++
++static struct name_entry *
++lookup_name_entry(const char *name)
++{
++      unsigned int len = strlen(name);
++      unsigned int key = full_name_hash(name, len);
++      unsigned int index = key % name_set.n_size;
++      struct name_entry *match;
++
++      match = name_set.n_hash[index];
++
++      while (match && (match->key != key || !gr_streq(match->name, name, match->len, len)))
++              match = match->next;
++
++      return match;
++}
++
++static struct name_entry *
++lookup_name_entry_create(const char *name)
++{
++      unsigned int len = strlen(name);
++      unsigned int key = full_name_hash(name, len);
++      unsigned int index = key % name_set.n_size;
++      struct name_entry *match;
++
++      match = name_set.n_hash[index];
++
++      while (match && (match->key != key || !gr_streq(match->name, name, match->len, len) ||
++                       !match->deleted))
++              match = match->next;
++
++      if (match && match->deleted)
++              return match;
++
++      match = name_set.n_hash[index];
++
++      while (match && (match->key != key || !gr_streq(match->name, name, match->len, len) ||
++                       match->deleted))
++              match = match->next;
++
++      if (match && !match->deleted)
++              return match;
++      else
++              return NULL;
++}
++
++static struct inodev_entry *
++lookup_inodev_entry(const ino_t ino, const dev_t dev)
++{
++      unsigned int index = fhash(ino, dev, inodev_set.i_size);
++      struct inodev_entry *match;
++
++      match = inodev_set.i_hash[index];
++
++      while (match && (match->nentry->inode != ino || match->nentry->device != dev))
++              match = match->next;
++
++      return match;
++}
++
++static void
++insert_inodev_entry(struct inodev_entry *entry)
++{
++      unsigned int index = fhash(entry->nentry->inode, entry->nentry->device,
++                                  inodev_set.i_size);
++      struct inodev_entry **curr;
++
++      entry->prev = NULL;
++
++      curr = &inodev_set.i_hash[index];
++      if (*curr != NULL)
++              (*curr)->prev = entry;
++      
++      entry->next = *curr;
++      *curr = entry;
++
++      return;
++}
++
++static void
++__insert_acl_role_label(struct acl_role_label *role, uid_t uidgid)
++{
++      unsigned int index =
++          rhash(uidgid, role->roletype & (GR_ROLE_USER | GR_ROLE_GROUP), acl_role_set.r_size);
++      struct acl_role_label **curr;
++      struct acl_role_label *tmp;
++
++      curr = &acl_role_set.r_hash[index];
++
++      /* if role was already inserted due to domains and already has
++         a role in the same bucket as it attached, then we need to
++         combine these two buckets
++      */
++      if (role->next) {
++              tmp = role->next;
++              while (tmp->next)
++                      tmp = tmp->next;
++              tmp->next = *curr;
++      } else
++              role->next = *curr;
++      *curr = role;
++
++      return;
++}
++
++static void
++insert_acl_role_label(struct acl_role_label *role)
++{
++      int i;
++
++      if (role_list == NULL) {
++              role_list = role;
++              role->prev = NULL;
++      } else {
++              role->prev = role_list;
++              role_list = role;
++      }
++      
++      /* used for hash chains */
++      role->next = NULL;
++
++      if (role->roletype & GR_ROLE_DOMAIN) {
++              for (i = 0; i < role->domain_child_num; i++)
++                      __insert_acl_role_label(role, role->domain_children[i]);
++      } else
++              __insert_acl_role_label(role, role->uidgid);
++}
++                                      
++static int
++insert_name_entry(char *name, const ino_t inode, const dev_t device, __u8 deleted)
++{
++      struct name_entry **curr, *nentry;
++      struct inodev_entry *ientry;
++      unsigned int len = strlen(name);
++      unsigned int key = full_name_hash(name, len);
++      unsigned int index = key % name_set.n_size;
++
++      curr = &name_set.n_hash[index];
++
++      while (*curr && ((*curr)->key != key || !gr_streq((*curr)->name, name, (*curr)->len, len)))
++              curr = &((*curr)->next);
++
++      if (*curr != NULL)
++              return 1;
++
++      nentry = acl_alloc(sizeof (struct name_entry));
++      if (nentry == NULL)
++              return 0;
++      ientry = acl_alloc(sizeof (struct inodev_entry));
++      if (ientry == NULL)
++              return 0;
++      ientry->nentry = nentry;
++
++      nentry->key = key;
++      nentry->name = name;
++      nentry->inode = inode;
++      nentry->device = device;
++      nentry->len = len;
++      nentry->deleted = deleted;
++
++      nentry->prev = NULL;
++      curr = &name_set.n_hash[index];
++      if (*curr != NULL)
++              (*curr)->prev = nentry;
++      nentry->next = *curr;
++      *curr = nentry;
++
++      /* insert us into the table searchable by inode/dev */
++      insert_inodev_entry(ientry);
++
++      return 1;
++}
++
++static void
++insert_acl_obj_label(struct acl_object_label *obj,
++                   struct acl_subject_label *subj)
++{
++      unsigned int index =
++          fhash(obj->inode, obj->device, subj->obj_hash_size);
++      struct acl_object_label **curr;
++
++      
++      obj->prev = NULL;
++
++      curr = &subj->obj_hash[index];
++      if (*curr != NULL)
++              (*curr)->prev = obj;
++
++      obj->next = *curr;
++      *curr = obj;
++
++      return;
++}
++
++static void
++insert_acl_subj_label(struct acl_subject_label *obj,
++                    struct acl_role_label *role)
++{
++      unsigned int index = fhash(obj->inode, obj->device, role->subj_hash_size);
++      struct acl_subject_label **curr;
++
++      obj->prev = NULL;
++
++      curr = &role->subj_hash[index];
++      if (*curr != NULL)
++              (*curr)->prev = obj;
++
++      obj->next = *curr;
++      *curr = obj;
++
++      return;
++}
++
++/* allocating chained hash tables, so optimal size is where lambda ~ 1 */
++
++static void *
++create_table(__u32 * len, int elementsize)
++{
++      unsigned int table_sizes[] = {
++              7, 13, 31, 61, 127, 251, 509, 1021, 2039, 4093, 8191, 16381,
++              32749, 65521, 131071, 262139, 524287, 1048573, 2097143,
++              4194301, 8388593, 16777213, 33554393, 67108859
++      };
++      void *newtable = NULL;
++      unsigned int pwr = 0;
++
++      while ((pwr < ((sizeof (table_sizes) / sizeof (table_sizes[0])) - 1)) &&
++             table_sizes[pwr] <= *len)
++              pwr++;
++
++      if (table_sizes[pwr] <= *len || (table_sizes[pwr] > ULONG_MAX / elementsize))
++              return newtable;
++
++      if ((table_sizes[pwr] * elementsize) <= PAGE_SIZE)
++              newtable =
++                  kmalloc(table_sizes[pwr] * elementsize, GFP_KERNEL);
++      else
++              newtable = vmalloc(table_sizes[pwr] * elementsize);
++
++      *len = table_sizes[pwr];
++
++      return newtable;
++}
++
++static int
++init_variables(const struct gr_arg *arg)
++{
++      struct task_struct *reaper = &init_task;
++      unsigned int stacksize;
++
++      subj_map_set.s_size = arg->role_db.num_subjects;
++      acl_role_set.r_size = arg->role_db.num_roles + arg->role_db.num_domain_children;
++      name_set.n_size = arg->role_db.num_objects;
++      inodev_set.i_size = arg->role_db.num_objects;
++
++      if (!subj_map_set.s_size || !acl_role_set.r_size ||
++          !name_set.n_size || !inodev_set.i_size)
++              return 1;
++
++      if (!gr_init_uidset())
++              return 1;
++
++      /* set up the stack that holds allocation info */
++
++      stacksize = arg->role_db.num_pointers + 5;
++
++      if (!acl_alloc_stack_init(stacksize))
++              return 1;
++
++      /* grab reference for the real root dentry and vfsmount */
++      read_lock(&reaper->fs->lock);
++      real_root = dget(reaper->fs->root.dentry);
++      real_root_mnt = mntget(reaper->fs->root.mnt);
++      read_unlock(&reaper->fs->lock);
++      
++#ifdef CONFIG_GRKERNSEC_RBAC_DEBUG
++      printk(KERN_ALERT "Obtained real root device=%d, inode=%lu\n", __get_dev(real_root), real_root->d_inode->i_ino);
++#endif
++
++      fakefs_obj_rw = acl_alloc(sizeof(struct acl_object_label));
++      if (fakefs_obj_rw == NULL)
++              return 1;
++      fakefs_obj_rw->mode = GR_FIND | GR_READ | GR_WRITE;
++
++      fakefs_obj_rwx = acl_alloc(sizeof(struct acl_object_label));
++      if (fakefs_obj_rwx == NULL)
++              return 1;
++      fakefs_obj_rwx->mode = GR_FIND | GR_READ | GR_WRITE | GR_EXEC;
++
++      subj_map_set.s_hash =
++          (struct subject_map **) create_table(&subj_map_set.s_size, sizeof(void *));
++      acl_role_set.r_hash =
++          (struct acl_role_label **) create_table(&acl_role_set.r_size, sizeof(void *));
++      name_set.n_hash = (struct name_entry **) create_table(&name_set.n_size, sizeof(void *));
++      inodev_set.i_hash =
++          (struct inodev_entry **) create_table(&inodev_set.i_size, sizeof(void *));
++
++      if (!subj_map_set.s_hash || !acl_role_set.r_hash ||
++          !name_set.n_hash || !inodev_set.i_hash)
++              return 1;
++
++      memset(subj_map_set.s_hash, 0,
++             sizeof(struct subject_map *) * subj_map_set.s_size);
++      memset(acl_role_set.r_hash, 0,
++             sizeof (struct acl_role_label *) * acl_role_set.r_size);
++      memset(name_set.n_hash, 0,
++             sizeof (struct name_entry *) * name_set.n_size);
++      memset(inodev_set.i_hash, 0,
++             sizeof (struct inodev_entry *) * inodev_set.i_size);
++
++      return 0;
++}
++
++/* free information not needed after startup
++   currently contains user->kernel pointer mappings for subjects
++*/
++
++static void
++free_init_variables(void)
++{
++      __u32 i;
++
++      if (subj_map_set.s_hash) {
++              for (i = 0; i < subj_map_set.s_size; i++) {
++                      if (subj_map_set.s_hash[i]) {
++                              kfree(subj_map_set.s_hash[i]);
++                              subj_map_set.s_hash[i] = NULL;
++                      }
++              }
++
++              if ((subj_map_set.s_size * sizeof (struct subject_map *)) <=
++                  PAGE_SIZE)
++                      kfree(subj_map_set.s_hash);
++              else
++                      vfree(subj_map_set.s_hash);
++      }
++
++      return;
++}
++
++static void
++free_variables(void)
++{
++      struct acl_subject_label *s;
++      struct acl_role_label *r;
++      struct task_struct *task, *task2;
++      unsigned int x;
++
++      gr_clear_learn_entries();
++
++      read_lock(&tasklist_lock);
++      do_each_thread(task2, task) {
++              task->acl_sp_role = 0;
++              task->acl_role_id = 0;
++              task->acl = NULL;
++              task->role = NULL;
++      } while_each_thread(task2, task);
++      read_unlock(&tasklist_lock);
++
++      /* release the reference to the real root dentry and vfsmount */
++      if (real_root)
++              dput(real_root);
++      real_root = NULL;
++      if (real_root_mnt)
++              mntput(real_root_mnt);
++      real_root_mnt = NULL;
++
++      /* free all object hash tables */
++
++      FOR_EACH_ROLE_START(r)
++              if (r->subj_hash == NULL)
++                      goto next_role;
++              FOR_EACH_SUBJECT_START(r, s, x)
++                      if (s->obj_hash == NULL)
++                              break;
++                      if ((s->obj_hash_size * sizeof (struct acl_object_label *)) <= PAGE_SIZE)
++                              kfree(s->obj_hash);
++                      else
++                              vfree(s->obj_hash);
++              FOR_EACH_SUBJECT_END(s, x)
++              FOR_EACH_NESTED_SUBJECT_START(r, s)
++                      if (s->obj_hash == NULL)
++                              break;
++                      if ((s->obj_hash_size * sizeof (struct acl_object_label *)) <= PAGE_SIZE)
++                              kfree(s->obj_hash);
++                      else
++                              vfree(s->obj_hash);
++              FOR_EACH_NESTED_SUBJECT_END(s)
++              if ((r->subj_hash_size * sizeof (struct acl_subject_label *)) <= PAGE_SIZE)
++                      kfree(r->subj_hash);
++              else
++                      vfree(r->subj_hash);
++              r->subj_hash = NULL;
++next_role:
++      FOR_EACH_ROLE_END(r)
++
++      acl_free_all();
++
++      if (acl_role_set.r_hash) {
++              if ((acl_role_set.r_size * sizeof (struct acl_role_label *)) <=
++                  PAGE_SIZE)
++                      kfree(acl_role_set.r_hash);
++              else
++                      vfree(acl_role_set.r_hash);
++      }
++      if (name_set.n_hash) {
++              if ((name_set.n_size * sizeof (struct name_entry *)) <=
++                  PAGE_SIZE)
++                      kfree(name_set.n_hash);
++              else
++                      vfree(name_set.n_hash);
++      }
++
++      if (inodev_set.i_hash) {
++              if ((inodev_set.i_size * sizeof (struct inodev_entry *)) <=
++                  PAGE_SIZE)
++                      kfree(inodev_set.i_hash);
++              else
++                      vfree(inodev_set.i_hash);
++      }
++
++      gr_free_uidset();
++
++      memset(&name_set, 0, sizeof (struct name_db));
++      memset(&inodev_set, 0, sizeof (struct inodev_db));
++      memset(&acl_role_set, 0, sizeof (struct acl_role_db));
++      memset(&subj_map_set, 0, sizeof (struct acl_subj_map_db));
++
++      default_role = NULL;
++      role_list = NULL;
++
++      return;
++}
++
++static __u32
++count_user_objs(struct acl_object_label *userp)
++{
++      struct acl_object_label o_tmp;
++      __u32 num = 0;
++
++      while (userp) {
++              if (copy_from_user(&o_tmp, userp,
++                                 sizeof (struct acl_object_label)))
++                      break;
++
++              userp = o_tmp.prev;
++              num++;
++      }
++
++      return num;
++}
++
++static struct acl_subject_label *
++do_copy_user_subj(struct acl_subject_label *userp, struct acl_role_label *role);
++
++static int
++copy_user_glob(struct acl_object_label *obj)
++{
++      struct acl_object_label *g_tmp, **guser;
++      unsigned int len;
++      char *tmp;
++
++      if (obj->globbed == NULL)
++              return 0;
++
++      guser = &obj->globbed;
++      while (*guser) {
++              g_tmp = (struct acl_object_label *)
++                      acl_alloc(sizeof (struct acl_object_label));
++              if (g_tmp == NULL)
++                      return -ENOMEM;
++
++              if (copy_from_user(g_tmp, *guser,
++                                 sizeof (struct acl_object_label)))
++                      return -EFAULT;
++
++              len = strnlen_user(g_tmp->filename, PATH_MAX);
++
++              if (!len || len >= PATH_MAX)
++                      return -EINVAL;
++
++              if ((tmp = (char *) acl_alloc(len)) == NULL)
++                      return -ENOMEM;
++
++              if (copy_from_user(tmp, g_tmp->filename, len))
++                      return -EFAULT;
++              tmp[len-1] = '\0';
++              g_tmp->filename = tmp;
++
++              *guser = g_tmp;
++              guser = &(g_tmp->next);
++      }
++
++      return 0;
++}
++
++static int
++copy_user_objs(struct acl_object_label *userp, struct acl_subject_label *subj,
++             struct acl_role_label *role)
++{
++      struct acl_object_label *o_tmp;
++      unsigned int len;
++      int ret;
++      char *tmp;
++
++      while (userp) {
++              if ((o_tmp = (struct acl_object_label *)
++                   acl_alloc(sizeof (struct acl_object_label))) == NULL)
++                      return -ENOMEM;
++
++              if (copy_from_user(o_tmp, userp,
++                                 sizeof (struct acl_object_label)))
++                      return -EFAULT;
++
++              userp = o_tmp->prev;
++
++              len = strnlen_user(o_tmp->filename, PATH_MAX);
++
++              if (!len || len >= PATH_MAX)
++                      return -EINVAL;
++
++              if ((tmp = (char *) acl_alloc(len)) == NULL)
++                      return -ENOMEM;
++
++              if (copy_from_user(tmp, o_tmp->filename, len))
++                      return -EFAULT;
++              tmp[len-1] = '\0';
++              o_tmp->filename = tmp;
++
++              insert_acl_obj_label(o_tmp, subj);
++              if (!insert_name_entry(o_tmp->filename, o_tmp->inode,
++                                     o_tmp->device, (o_tmp->mode & GR_DELETED) ? 1 : 0))
++                      return -ENOMEM;
++
++              ret = copy_user_glob(o_tmp);
++              if (ret)
++                      return ret;
++
++              if (o_tmp->nested) {
++                      o_tmp->nested = do_copy_user_subj(o_tmp->nested, role);
++                      if (IS_ERR(o_tmp->nested))
++                              return PTR_ERR(o_tmp->nested);
++
++                      /* insert into nested subject list */
++                      o_tmp->nested->next = role->hash->first;
++                      role->hash->first = o_tmp->nested;
++              }
++      }
++
++      return 0;
++}
++
++static __u32
++count_user_subjs(struct acl_subject_label *userp)
++{
++      struct acl_subject_label s_tmp;
++      __u32 num = 0;
++
++      while (userp) {
++              if (copy_from_user(&s_tmp, userp,
++                                 sizeof (struct acl_subject_label)))
++                      break;
++
++              userp = s_tmp.prev;
++              /* do not count nested subjects against this count, since
++                 they are not included in the hash table, but are
++                 attached to objects.  We have already counted
++                 the subjects in userspace for the allocation 
++                 stack
++              */
++              if (!(s_tmp.mode & GR_NESTED))
++                      num++;
++      }
++
++      return num;
++}
++
++static int
++copy_user_allowedips(struct acl_role_label *rolep)
++{
++      struct role_allowed_ip *ruserip, *rtmp = NULL, *rlast;
++
++      ruserip = rolep->allowed_ips;
++
++      while (ruserip) {
++              rlast = rtmp;
++
++              if ((rtmp = (struct role_allowed_ip *)
++                   acl_alloc(sizeof (struct role_allowed_ip))) == NULL)
++                      return -ENOMEM;
++
++              if (copy_from_user(rtmp, ruserip,
++                                 sizeof (struct role_allowed_ip)))
++                      return -EFAULT;
++
++              ruserip = rtmp->prev;
++
++              if (!rlast) {
++                      rtmp->prev = NULL;
++                      rolep->allowed_ips = rtmp;
++              } else {
++                      rlast->next = rtmp;
++                      rtmp->prev = rlast;
++              }
++
++              if (!ruserip)
++                      rtmp->next = NULL;
++      }
++
++      return 0;
++}
++
++static int
++copy_user_transitions(struct acl_role_label *rolep)
++{
++      struct role_transition *rusertp, *rtmp = NULL, *rlast;
++      
++      unsigned int len;
++      char *tmp;
++
++      rusertp = rolep->transitions;
++
++      while (rusertp) {
++              rlast = rtmp;
++
++              if ((rtmp = (struct role_transition *)
++                   acl_alloc(sizeof (struct role_transition))) == NULL)
++                      return -ENOMEM;
++
++              if (copy_from_user(rtmp, rusertp,
++                                 sizeof (struct role_transition)))
++                      return -EFAULT;
++
++              rusertp = rtmp->prev;
++
++              len = strnlen_user(rtmp->rolename, GR_SPROLE_LEN);
++
++              if (!len || len >= GR_SPROLE_LEN)
++                      return -EINVAL;
++
++              if ((tmp = (char *) acl_alloc(len)) == NULL)
++                      return -ENOMEM;
++
++              if (copy_from_user(tmp, rtmp->rolename, len))
++                      return -EFAULT;
++              tmp[len-1] = '\0';
++              rtmp->rolename = tmp;
++
++              if (!rlast) {
++                      rtmp->prev = NULL;
++                      rolep->transitions = rtmp;
++              } else {
++                      rlast->next = rtmp;
++                      rtmp->prev = rlast;
++              }
++
++              if (!rusertp)
++                      rtmp->next = NULL;
++      }
++
++      return 0;
++}
++
++static struct acl_subject_label *
++do_copy_user_subj(struct acl_subject_label *userp, struct acl_role_label *role)
++{
++      struct acl_subject_label *s_tmp = NULL, *s_tmp2;
++      unsigned int len;
++      char *tmp;
++      __u32 num_objs;
++      struct acl_ip_label **i_tmp, *i_utmp2;
++      struct gr_hash_struct ghash;
++      struct subject_map *subjmap;
++      unsigned int i_num;
++      int err;
++
++      s_tmp = lookup_subject_map(userp);
++
++      /* we've already copied this subject into the kernel, just return
++         the reference to it, and don't copy it over again
++      */
++      if (s_tmp)
++              return(s_tmp);
++
++      if ((s_tmp = (struct acl_subject_label *)
++          acl_alloc(sizeof (struct acl_subject_label))) == NULL)
++              return ERR_PTR(-ENOMEM);
++
++      subjmap = (struct subject_map *)kmalloc(sizeof (struct subject_map), GFP_KERNEL);
++      if (subjmap == NULL)
++              return ERR_PTR(-ENOMEM);
++
++      subjmap->user = userp;
++      subjmap->kernel = s_tmp;
++      insert_subj_map_entry(subjmap);
++
++      if (copy_from_user(s_tmp, userp,
++                         sizeof (struct acl_subject_label)))
++              return ERR_PTR(-EFAULT);
++
++      len = strnlen_user(s_tmp->filename, PATH_MAX);
++
++      if (!len || len >= PATH_MAX)
++              return ERR_PTR(-EINVAL);
++
++      if ((tmp = (char *) acl_alloc(len)) == NULL)
++              return ERR_PTR(-ENOMEM);
++
++      if (copy_from_user(tmp, s_tmp->filename, len))
++              return ERR_PTR(-EFAULT);
++      tmp[len-1] = '\0';
++      s_tmp->filename = tmp;
++
++      if (!strcmp(s_tmp->filename, "/"))
++              role->root_label = s_tmp;
++
++      if (copy_from_user(&ghash, s_tmp->hash, sizeof(struct gr_hash_struct)))
++              return ERR_PTR(-EFAULT);
++
++      /* copy user and group transition tables */
++
++      if (s_tmp->user_trans_num) {
++              uid_t *uidlist;
++
++              uidlist = (uid_t *)acl_alloc_num(s_tmp->user_trans_num, sizeof(uid_t));
++              if (uidlist == NULL)
++                      return ERR_PTR(-ENOMEM);
++              if (copy_from_user(uidlist, s_tmp->user_transitions, s_tmp->user_trans_num * sizeof(uid_t)))
++                      return ERR_PTR(-EFAULT);
++
++              s_tmp->user_transitions = uidlist;
++      }
++
++      if (s_tmp->group_trans_num) {
++              gid_t *gidlist;
++
++              gidlist = (gid_t *)acl_alloc_num(s_tmp->group_trans_num, sizeof(gid_t));
++              if (gidlist == NULL)
++                      return ERR_PTR(-ENOMEM);
++              if (copy_from_user(gidlist, s_tmp->group_transitions, s_tmp->group_trans_num * sizeof(gid_t)))
++                      return ERR_PTR(-EFAULT);
++
++              s_tmp->group_transitions = gidlist;
++      }
++
++      /* set up object hash table */
++      num_objs = count_user_objs(ghash.first);
++
++      s_tmp->obj_hash_size = num_objs;
++      s_tmp->obj_hash =
++          (struct acl_object_label **)
++          create_table(&(s_tmp->obj_hash_size), sizeof(void *));
++
++      if (!s_tmp->obj_hash)
++              return ERR_PTR(-ENOMEM);
++
++      memset(s_tmp->obj_hash, 0,
++             s_tmp->obj_hash_size *
++             sizeof (struct acl_object_label *));
++
++      /* add in objects */
++      err = copy_user_objs(ghash.first, s_tmp, role);
++
++      if (err)
++              return ERR_PTR(err);
++
++      /* set pointer for parent subject */
++      if (s_tmp->parent_subject) {
++              s_tmp2 = do_copy_user_subj(s_tmp->parent_subject, role);
++
++              if (IS_ERR(s_tmp2))
++                      return s_tmp2;
++
++              s_tmp->parent_subject = s_tmp2;
++      }
++
++      /* add in ip acls */
++
++      if (!s_tmp->ip_num) {
++              s_tmp->ips = NULL;
++              goto insert;
++      }
++
++      i_tmp =
++          (struct acl_ip_label **) acl_alloc_num(s_tmp->ip_num,
++                                             sizeof (struct acl_ip_label *));
++
++      if (!i_tmp)
++              return ERR_PTR(-ENOMEM);
++
++      for (i_num = 0; i_num < s_tmp->ip_num; i_num++) {
++              *(i_tmp + i_num) =
++                  (struct acl_ip_label *)
++                  acl_alloc(sizeof (struct acl_ip_label));
++              if (!*(i_tmp + i_num))
++                      return ERR_PTR(-ENOMEM);
++
++              if (copy_from_user
++                  (&i_utmp2, s_tmp->ips + i_num,
++                   sizeof (struct acl_ip_label *)))
++                      return ERR_PTR(-EFAULT);
++
++              if (copy_from_user
++                  (*(i_tmp + i_num), i_utmp2,
++                   sizeof (struct acl_ip_label)))
++                      return ERR_PTR(-EFAULT);
++              
++              if ((*(i_tmp + i_num))->iface == NULL)
++                      continue;
++
++              len = strnlen_user((*(i_tmp + i_num))->iface, IFNAMSIZ);
++              if (!len || len >= IFNAMSIZ)
++                      return ERR_PTR(-EINVAL);
++              tmp = acl_alloc(len);
++              if (tmp == NULL)
++                      return ERR_PTR(-ENOMEM);
++              if (copy_from_user(tmp, (*(i_tmp + i_num))->iface, len))
++                      return ERR_PTR(-EFAULT);
++              (*(i_tmp + i_num))->iface = tmp;
++      }
++
++      s_tmp->ips = i_tmp;
++
++insert:
++      if (!insert_name_entry(s_tmp->filename, s_tmp->inode,
++                             s_tmp->device, (s_tmp->mode & GR_DELETED) ? 1 : 0))
++              return ERR_PTR(-ENOMEM);
++
++      return s_tmp;
++}
++
++static int
++copy_user_subjs(struct acl_subject_label *userp, struct acl_role_label *role)
++{
++      struct acl_subject_label s_pre;
++      struct acl_subject_label * ret;
++      int err;
++
++      while (userp) {
++              if (copy_from_user(&s_pre, userp,
++                                 sizeof (struct acl_subject_label)))
++                      return -EFAULT;
++              
++              /* do not add nested subjects here, add
++                 while parsing objects
++              */
++
++              if (s_pre.mode & GR_NESTED) {
++                      userp = s_pre.prev;
++                      continue;
++              }
++
++              ret = do_copy_user_subj(userp, role);
++
++              err = PTR_ERR(ret);
++              if (IS_ERR(ret))
++                      return err;
++
++              insert_acl_subj_label(ret, role);
++
++              userp = s_pre.prev;
++      }
++
++      return 0;
++}
++
++static int
++copy_user_acl(struct gr_arg *arg)
++{
++      struct acl_role_label *r_tmp = NULL, **r_utmp, *r_utmp2;
++      struct sprole_pw *sptmp;
++      struct gr_hash_struct *ghash;
++      uid_t *domainlist;
++      unsigned int r_num;
++      unsigned int len;
++      char *tmp;
++      int err = 0;
++      __u16 i;
++      __u32 num_subjs;
++
++      /* we need a default and kernel role */
++      if (arg->role_db.num_roles < 2)
++              return -EINVAL;
++
++      /* copy special role authentication info from userspace */
++
++      num_sprole_pws = arg->num_sprole_pws;
++      acl_special_roles = (struct sprole_pw **) acl_alloc_num(num_sprole_pws, sizeof(struct sprole_pw *));
++
++      if (!acl_special_roles) {
++              err = -ENOMEM;
++              goto cleanup;
++      }
++
++      for (i = 0; i < num_sprole_pws; i++) {
++              sptmp = (struct sprole_pw *) acl_alloc(sizeof(struct sprole_pw));
++              if (!sptmp) {
++                      err = -ENOMEM;
++                      goto cleanup;
++              }
++              if (copy_from_user(sptmp, arg->sprole_pws + i,
++                                 sizeof (struct sprole_pw))) {
++                      err = -EFAULT;
++                      goto cleanup;
++              }
++
++              len =
++                  strnlen_user(sptmp->rolename, GR_SPROLE_LEN);
++
++              if (!len || len >= GR_SPROLE_LEN) {
++                      err = -EINVAL;
++                      goto cleanup;
++              }
++
++              if ((tmp = (char *) acl_alloc(len)) == NULL) {
++                      err = -ENOMEM;
++                      goto cleanup;
++              }
++
++              if (copy_from_user(tmp, sptmp->rolename, len)) {
++                      err = -EFAULT;
++                      goto cleanup;
++              }
++              tmp[len-1] = '\0';
++#ifdef CONFIG_GRKERNSEC_RBAC_DEBUG
++              printk(KERN_ALERT "Copying special role %s\n", tmp);
++#endif
++              sptmp->rolename = tmp;
++              acl_special_roles[i] = sptmp;
++      }
++
++      r_utmp = (struct acl_role_label **) arg->role_db.r_table;
++
++      for (r_num = 0; r_num < arg->role_db.num_roles; r_num++) {
++              r_tmp = acl_alloc(sizeof (struct acl_role_label));
++
++              if (!r_tmp) {
++                      err = -ENOMEM;
++                      goto cleanup;
++              }
++
++              if (copy_from_user(&r_utmp2, r_utmp + r_num,
++                                 sizeof (struct acl_role_label *))) {
++                      err = -EFAULT;
++                      goto cleanup;
++              }
++
++              if (copy_from_user(r_tmp, r_utmp2,
++                                 sizeof (struct acl_role_label))) {
++                      err = -EFAULT;
++                      goto cleanup;
++              }
++
++              len = strnlen_user(r_tmp->rolename, GR_SPROLE_LEN);
++
++              if (!len || len >= PATH_MAX) {
++                      err = -EINVAL;
++                      goto cleanup;
++              }
++
++              if ((tmp = (char *) acl_alloc(len)) == NULL) {
++                      err = -ENOMEM;
++                      goto cleanup;
++              }
++              if (copy_from_user(tmp, r_tmp->rolename, len)) {
++                      err = -EFAULT;
++                      goto cleanup;
++              }
++              tmp[len-1] = '\0';
++              r_tmp->rolename = tmp;
++
++              if (!strcmp(r_tmp->rolename, "default")
++                  && (r_tmp->roletype & GR_ROLE_DEFAULT)) {
++                      default_role = r_tmp;
++              } else if (!strcmp(r_tmp->rolename, ":::kernel:::")) {
++                      kernel_role = r_tmp;
++              }
++
++              if ((ghash = (struct gr_hash_struct *) acl_alloc(sizeof(struct gr_hash_struct))) == NULL) {
++                      err = -ENOMEM;
++                      goto cleanup;
++              }
++              if (copy_from_user(ghash, r_tmp->hash, sizeof(struct gr_hash_struct))) {
++                      err = -EFAULT;
++                      goto cleanup;
++              }
++
++              r_tmp->hash = ghash;
++
++              num_subjs = count_user_subjs(r_tmp->hash->first);
++
++              r_tmp->subj_hash_size = num_subjs;
++              r_tmp->subj_hash =
++                  (struct acl_subject_label **)
++                  create_table(&(r_tmp->subj_hash_size), sizeof(void *));
++
++              if (!r_tmp->subj_hash) {
++                      err = -ENOMEM;
++                      goto cleanup;
++              }
++
++              err = copy_user_allowedips(r_tmp);
++              if (err)
++                      goto cleanup;
++
++              /* copy domain info */
++              if (r_tmp->domain_children != NULL) {
++                      domainlist = acl_alloc_num(r_tmp->domain_child_num, sizeof(uid_t));
++                      if (domainlist == NULL) {
++                              err = -ENOMEM;
++                              goto cleanup;
++                      }
++                      if (copy_from_user(domainlist, r_tmp->domain_children, r_tmp->domain_child_num * sizeof(uid_t))) {
++                              err = -EFAULT;
++                              goto cleanup;
++                      }
++                      r_tmp->domain_children = domainlist;
++              }
++
++              err = copy_user_transitions(r_tmp);
++              if (err)
++                      goto cleanup;
++
++              memset(r_tmp->subj_hash, 0,
++                     r_tmp->subj_hash_size *
++                     sizeof (struct acl_subject_label *));
++
++              err = copy_user_subjs(r_tmp->hash->first, r_tmp);
++
++              if (err)
++                      goto cleanup;
++
++              /* set nested subject list to null */
++              r_tmp->hash->first = NULL;
++
++              insert_acl_role_label(r_tmp);
++      }
++
++      goto return_err;
++      cleanup:
++      free_variables();
++      return_err:
++      return err;
++
++}
++
++static int
++gracl_init(struct gr_arg *args)
++{
++      int error = 0;
++
++      memcpy(gr_system_salt, args->salt, GR_SALT_LEN);
++      memcpy(gr_system_sum, args->sum, GR_SHA_LEN);
++
++      if (init_variables(args)) {
++              gr_log_str(GR_DONT_AUDIT_GOOD, GR_INITF_ACL_MSG, GR_VERSION);
++              error = -ENOMEM;
++              free_variables();
++              goto out;
++      }
++
++      error = copy_user_acl(args);
++      free_init_variables();
++      if (error) {
++              free_variables();
++              goto out;
++      }
++
++      if ((error = gr_set_acls(0))) {
++              free_variables();
++              goto out;
++      }
++
++      pax_open_kernel();
++      gr_status |= GR_READY;
++      pax_close_kernel();
++
++      out:
++      return error;
++}
++
++/* derived from glibc fnmatch() 0: match, 1: no match*/
++
++static int
++glob_match(const char *p, const char *n)
++{
++      char c;
++
++      while ((c = *p++) != '\0') {
++      switch (c) {
++              case '?':
++                      if (*n == '\0')
++                              return 1;
++                      else if (*n == '/')
++                              return 1;
++                      break;
++              case '\\':
++                      if (*n != c)
++                              return 1;
++                      break;
++              case '*':
++                      for (c = *p++; c == '?' || c == '*'; c = *p++) {
++                              if (*n == '/')
++                                      return 1;
++                              else if (c == '?') {
++                                      if (*n == '\0')
++                                              return 1;
++                                      else
++                                              ++n;
++                              }
++                      }
++                      if (c == '\0') {
++                              return 0;
++                      } else {
++                              const char *endp;
++
++                              if ((endp = strchr(n, '/')) == NULL)
++                                      endp = n + strlen(n);
++
++                              if (c == '[') {
++                                      for (--p; n < endp; ++n)
++                                              if (!glob_match(p, n))
++                                                      return 0;
++                              } else if (c == '/') {
++                                      while (*n != '\0' && *n != '/')
++                                              ++n;
++                                      if (*n == '/' && !glob_match(p, n + 1))
++                                              return 0;
++                              } else {
++                                      for (--p; n < endp; ++n)
++                                              if (*n == c && !glob_match(p, n))
++                                                      return 0;
++                              }
++
++                              return 1;
++                      }
++              case '[':
++                      {
++                      int not;
++                      char cold;
++
++                      if (*n == '\0' || *n == '/')
++                              return 1;
++
++                      not = (*p == '!' || *p == '^');
++                      if (not)
++                              ++p;
++
++                      c = *p++;
++                      for (;;) {
++                              unsigned char fn = (unsigned char)*n;
++
++                              if (c == '\0')
++                                      return 1;
++                              else {
++                                      if (c == fn)
++                                              goto matched;
++                                      cold = c;
++                                      c = *p++;
++
++                                      if (c == '-' && *p != ']') {
++                                              unsigned char cend = *p++;
++
++                                              if (cend == '\0')
++                                                      return 1;
++
++                                              if (cold <= fn && fn <= cend)
++                                                      goto matched;
++
++                                              c = *p++;
++                                      }
++                              }
++
++                              if (c == ']')
++                                      break;
++                      }
++                      if (!not)
++                              return 1;
++                      break;
++              matched:
++                      while (c != ']') {
++                              if (c == '\0')
++                                      return 1;
++
++                              c = *p++;
++                      }
++                      if (not)
++                              return 1;
++              }
++              break;
++      default:
++              if (c != *n)
++                      return 1;
++      }
++
++      ++n;
++      }
++
++      if (*n == '\0')
++              return 0;
++
++      if (*n == '/')
++              return 0;
++
++      return 1;
++}
++
++static struct acl_object_label *
++chk_glob_label(struct acl_object_label *globbed,
++      struct dentry *dentry, struct vfsmount *mnt, char **path)
++{
++      struct acl_object_label *tmp;
++
++      if (*path == NULL)
++              *path = gr_to_filename_nolock(dentry, mnt);
++
++      tmp = globbed;
++
++      while (tmp) {
++              if (!glob_match(tmp->filename, *path))
++                      return tmp;
++              tmp = tmp->next;
++      }
++
++      return NULL;
++}
++
++static struct acl_object_label *
++__full_lookup(const struct dentry *orig_dentry, const struct vfsmount *orig_mnt,
++          const ino_t curr_ino, const dev_t curr_dev,
++          const struct acl_subject_label *subj, char **path, const int checkglob)
++{
++      struct acl_subject_label *tmpsubj;
++      struct acl_object_label *retval;
++      struct acl_object_label *retval2;
++
++      tmpsubj = (struct acl_subject_label *) subj;
++      read_lock(&gr_inode_lock);
++      do {
++              retval = lookup_acl_obj_label(curr_ino, curr_dev, tmpsubj);
++              if (retval) {
++                      if (checkglob && retval->globbed) {
++                              retval2 = chk_glob_label(retval->globbed, (struct dentry *)orig_dentry,
++                                              (struct vfsmount *)orig_mnt, path);
++                              if (retval2)
++                                      retval = retval2;
++                      }
++                      break;
++              }
++      } while ((tmpsubj = tmpsubj->parent_subject));
++      read_unlock(&gr_inode_lock);
++
++      return retval;
++}
++
++static __inline__ struct acl_object_label *
++full_lookup(const struct dentry *orig_dentry, const struct vfsmount *orig_mnt,
++          const struct dentry *curr_dentry,
++          const struct acl_subject_label *subj, char **path, const int checkglob)
++{
++      int newglob = checkglob;
++
++      /* if we aren't checking a subdirectory of the original path yet, don't do glob checking
++         as we don't want a / * rule to match instead of the / object
++         don't do this for create lookups that call this function though, since they're looking up
++         on the parent and thus need globbing checks on all paths
++      */
++      if (orig_dentry == curr_dentry && newglob != GR_CREATE_GLOB)
++              newglob = GR_NO_GLOB;
++
++      return __full_lookup(orig_dentry, orig_mnt,
++                           curr_dentry->d_inode->i_ino, 
++                           __get_dev(curr_dentry), subj, path, newglob);
++}
++
++static struct acl_object_label *
++__chk_obj_label(const struct dentry *l_dentry, const struct vfsmount *l_mnt,
++            const struct acl_subject_label *subj, char *path, const int checkglob)
++{
++      struct dentry *dentry = (struct dentry *) l_dentry;
++      struct vfsmount *mnt = (struct vfsmount *) l_mnt;
++      struct acl_object_label *retval;
++
++      spin_lock(&dcache_lock);
++      spin_lock(&vfsmount_lock);
++
++      if (unlikely((mnt == shm_mnt && dentry->d_inode->i_nlink == 0) || mnt == pipe_mnt || 
++#ifdef CONFIG_NET
++          mnt == sock_mnt ||
++#endif
++#ifdef CONFIG_HUGETLBFS
++          (mnt == hugetlbfs_vfsmount && dentry->d_inode->i_nlink == 0) ||
++#endif
++              /* ignore Eric Biederman */
++          IS_PRIVATE(l_dentry->d_inode))) {
++              retval = (subj->mode & GR_SHMEXEC) ? fakefs_obj_rwx : fakefs_obj_rw;
++              goto out;
++      }
++
++      for (;;) {
++              if (dentry == real_root && mnt == real_root_mnt)
++                      break;
++
++              if (dentry == mnt->mnt_root || IS_ROOT(dentry)) {
++                      if (mnt->mnt_parent == mnt)
++                              break;
++
++                      retval = full_lookup(l_dentry, l_mnt, dentry, subj, &path, checkglob);
++                      if (retval != NULL)
++                              goto out;
++
++                      dentry = mnt->mnt_mountpoint;
++                      mnt = mnt->mnt_parent;
++                      continue;
++              }
++
++              retval = full_lookup(l_dentry, l_mnt, dentry, subj, &path, checkglob);
++              if (retval != NULL)
++                      goto out;
++
++              dentry = dentry->d_parent;
++      }
++
++      retval = full_lookup(l_dentry, l_mnt, dentry, subj, &path, checkglob);
++
++      if (retval == NULL)
++              retval = full_lookup(l_dentry, l_mnt, real_root, subj, &path, checkglob);
++out:
++      spin_unlock(&vfsmount_lock);
++      spin_unlock(&dcache_lock);
++
++      BUG_ON(retval == NULL);
++
++      return retval;
++}
++
++static __inline__ struct acl_object_label *
++chk_obj_label(const struct dentry *l_dentry, const struct vfsmount *l_mnt,
++            const struct acl_subject_label *subj)
++{
++      char *path = NULL;
++      return __chk_obj_label(l_dentry, l_mnt, subj, path, GR_REG_GLOB);
++}
++
++static __inline__ struct acl_object_label *
++chk_obj_label_noglob(const struct dentry *l_dentry, const struct vfsmount *l_mnt,
++            const struct acl_subject_label *subj)
++{
++      char *path = NULL;
++      return __chk_obj_label(l_dentry, l_mnt, subj, path, GR_NO_GLOB);
++}
++
++static __inline__ struct acl_object_label *
++chk_obj_create_label(const struct dentry *l_dentry, const struct vfsmount *l_mnt,
++                   const struct acl_subject_label *subj, char *path)
++{
++      return __chk_obj_label(l_dentry, l_mnt, subj, path, GR_CREATE_GLOB);
++}
++
++static struct acl_subject_label *
++chk_subj_label(const struct dentry *l_dentry, const struct vfsmount *l_mnt,
++             const struct acl_role_label *role)
++{
++      struct dentry *dentry = (struct dentry *) l_dentry;
++      struct vfsmount *mnt = (struct vfsmount *) l_mnt;
++      struct acl_subject_label *retval;
++
++      spin_lock(&dcache_lock);
++      spin_lock(&vfsmount_lock);
++
++      for (;;) {
++              if (dentry == real_root && mnt == real_root_mnt)
++                      break;
++              if (dentry == mnt->mnt_root || IS_ROOT(dentry)) {
++                      if (mnt->mnt_parent == mnt)
++                              break;
++
++                      read_lock(&gr_inode_lock);
++                      retval =
++                              lookup_acl_subj_label(dentry->d_inode->i_ino,
++                                              __get_dev(dentry), role);
++                      read_unlock(&gr_inode_lock);
++                      if (retval != NULL)
++                              goto out;
++
++                      dentry = mnt->mnt_mountpoint;
++                      mnt = mnt->mnt_parent;
++                      continue;
++              }
++
++              read_lock(&gr_inode_lock);
++              retval = lookup_acl_subj_label(dentry->d_inode->i_ino,
++                                        __get_dev(dentry), role);
++              read_unlock(&gr_inode_lock);
++              if (retval != NULL)
++                      goto out;
++
++              dentry = dentry->d_parent;
++      }
++
++      read_lock(&gr_inode_lock);
++      retval = lookup_acl_subj_label(dentry->d_inode->i_ino,
++                                __get_dev(dentry), role);
++      read_unlock(&gr_inode_lock);
++
++      if (unlikely(retval == NULL)) {
++              read_lock(&gr_inode_lock);
++              retval = lookup_acl_subj_label(real_root->d_inode->i_ino,
++                                        __get_dev(real_root), role);
++              read_unlock(&gr_inode_lock);
++      }
++out:
++      spin_unlock(&vfsmount_lock);
++      spin_unlock(&dcache_lock);
++
++      BUG_ON(retval == NULL);
++
++      return retval;
++}
++
++static void
++gr_log_learn(const struct dentry *dentry, const struct vfsmount *mnt, const __u32 mode)
++{
++      struct task_struct *task = current;
++      const struct cred *cred = current_cred();
++
++      security_learn(GR_LEARN_AUDIT_MSG, task->role->rolename, task->role->roletype,
++                     cred->uid, cred->gid, task->exec_file ? gr_to_filename1(task->exec_file->f_path.dentry,
++                     task->exec_file->f_path.mnt) : task->acl->filename, task->acl->filename,
++                     1UL, 1UL, gr_to_filename(dentry, mnt), (unsigned long) mode, &task->signal->saved_ip);
++
++      return;
++}
++
++static void
++gr_log_learn_sysctl(const char *path, const __u32 mode)
++{
++      struct task_struct *task = current;
++      const struct cred *cred = current_cred();
++
++      security_learn(GR_LEARN_AUDIT_MSG, task->role->rolename, task->role->roletype,
++                     cred->uid, cred->gid, task->exec_file ? gr_to_filename1(task->exec_file->f_path.dentry,
++                     task->exec_file->f_path.mnt) : task->acl->filename, task->acl->filename,
++                     1UL, 1UL, path, (unsigned long) mode, &task->signal->saved_ip);
++
++      return;
++}
++
++static void
++gr_log_learn_id_change(const char type, const unsigned int real, 
++                     const unsigned int effective, const unsigned int fs)
++{
++      struct task_struct *task = current;
++      const struct cred *cred = current_cred();
++
++      security_learn(GR_ID_LEARN_MSG, task->role->rolename, task->role->roletype,
++                     cred->uid, cred->gid, task->exec_file ? gr_to_filename1(task->exec_file->f_path.dentry,
++                     task->exec_file->f_path.mnt) : task->acl->filename, task->acl->filename,
++                     type, real, effective, fs, &task->signal->saved_ip);
++
++      return;
++}
++
++__u32
++gr_search_file(const struct dentry * dentry, const __u32 mode,
++             const struct vfsmount * mnt)
++{
++      __u32 retval = mode;
++      struct acl_subject_label *curracl;
++      struct acl_object_label *currobj;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return (mode & ~GR_AUDITS);
++
++      curracl = current->acl;
++
++      currobj = chk_obj_label(dentry, mnt, curracl);
++      retval = currobj->mode & mode;
++
++      /* if we're opening a specified transfer file for writing
++         (e.g. /dev/initctl), then transfer our role to init
++      */
++      if (unlikely(currobj->mode & GR_INIT_TRANSFER && retval & GR_WRITE &&
++                   current->role->roletype & GR_ROLE_PERSIST)) {
++              struct task_struct *task = init_pid_ns.child_reaper;
++
++              if (task->role != current->role) {
++                      task->acl_sp_role = 0;
++                      task->acl_role_id = current->acl_role_id;
++                      task->role = current->role;
++                      rcu_read_lock();
++                      read_lock(&grsec_exec_file_lock);
++                      gr_apply_subject_to_task(task);
++                      read_unlock(&grsec_exec_file_lock);
++                      rcu_read_unlock();
++                      gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_INIT_TRANSFER_MSG);
++              }
++      }
++
++      if (unlikely
++          ((curracl->mode & (GR_LEARN | GR_INHERITLEARN)) && !(mode & GR_NOPTRACE)
++           && (retval != (mode & ~(GR_AUDITS | GR_SUPPRESS))))) {
++              __u32 new_mode = mode;
++
++              new_mode &= ~(GR_AUDITS | GR_SUPPRESS);
++
++              retval = new_mode;
++
++              if (new_mode & GR_EXEC && curracl->mode & GR_INHERITLEARN)
++                      new_mode |= GR_INHERIT;
++
++              if (!(mode & GR_NOLEARN))
++                      gr_log_learn(dentry, mnt, new_mode);
++      }
++
++      return retval;
++}
++
++struct acl_object_label *gr_get_create_object(const struct dentry *new_dentry,
++                                            const struct dentry *parent,
++                                            const struct vfsmount *mnt)
++{
++      struct name_entry *match;
++      struct acl_object_label *matchpo;
++      struct acl_subject_label *curracl;
++      char *path;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return NULL;
++
++      preempt_disable();
++      path = gr_to_filename_rbac(new_dentry, mnt);
++      match = lookup_name_entry_create(path);
++
++      curracl = current->acl;
++
++      if (match) {
++              read_lock(&gr_inode_lock);
++              matchpo = lookup_acl_obj_label_create(match->inode, match->device, curracl);
++              read_unlock(&gr_inode_lock);
++
++              if (matchpo) {
++                      preempt_enable();
++                      return matchpo;
++              }
++      }
++
++      // lookup parent
++
++      matchpo = chk_obj_create_label(parent, mnt, curracl, path);
++
++      preempt_enable();
++      return matchpo;
++}
++
++__u32
++gr_check_create(const struct dentry * new_dentry, const struct dentry * parent,
++              const struct vfsmount * mnt, const __u32 mode)
++{
++      struct acl_object_label *matchpo;
++      __u32 retval;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return (mode & ~GR_AUDITS);
++
++      matchpo = gr_get_create_object(new_dentry, parent, mnt);
++
++      retval = matchpo->mode & mode;
++
++      if ((retval != (mode & ~(GR_AUDITS | GR_SUPPRESS)))
++          && (current->acl->mode & (GR_LEARN | GR_INHERITLEARN))) {
++              __u32 new_mode = mode;
++
++              new_mode &= ~(GR_AUDITS | GR_SUPPRESS);
++
++              gr_log_learn(new_dentry, mnt, new_mode);
++              return new_mode;
++      }
++
++      return retval;
++}
++
++__u32
++gr_check_link(const struct dentry * new_dentry,
++            const struct dentry * parent_dentry,
++            const struct vfsmount * parent_mnt,
++            const struct dentry * old_dentry, const struct vfsmount * old_mnt)
++{
++      struct acl_object_label *obj;
++      __u32 oldmode, newmode;
++      __u32 needmode;
++      __u32 checkmodes = GR_FIND | GR_APPEND | GR_WRITE | GR_EXEC | GR_SETID | GR_READ |
++                         GR_DELETE | GR_INHERIT;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return (GR_CREATE | GR_LINK);
++
++      obj = chk_obj_label(old_dentry, old_mnt, current->acl);
++      oldmode = obj->mode;
++
++      obj = gr_get_create_object(new_dentry, parent_dentry, parent_mnt);
++      newmode = obj->mode;
++
++      needmode = newmode & checkmodes;
++
++      // old name for hardlink must have at least the permissions of the new name
++      if ((oldmode & needmode) != needmode)
++              goto bad;
++
++      // if old name had restrictions/auditing, make sure the new name does as well
++      needmode = oldmode & (GR_NOPTRACE | GR_PTRACERD | GR_INHERIT | GR_AUDITS);
++
++      // don't allow hardlinking of suid/sgid files without permission
++      if (old_dentry->d_inode->i_mode & (S_ISUID | S_ISGID))
++              needmode |= GR_SETID;
++
++      if ((newmode & needmode) != needmode)
++              goto bad;
++
++      // enforce minimum permissions
++      if ((newmode & (GR_CREATE | GR_LINK)) == (GR_CREATE | GR_LINK))
++              return newmode;
++bad:
++      needmode = oldmode;
++      if (old_dentry->d_inode->i_mode & (S_ISUID | S_ISGID))
++              needmode |= GR_SETID;
++      
++      if (current->acl->mode & (GR_LEARN | GR_INHERITLEARN)) {
++              gr_log_learn(old_dentry, old_mnt, needmode | GR_CREATE | GR_LINK);
++              return (GR_CREATE | GR_LINK);
++      } else if (newmode & GR_SUPPRESS)
++              return GR_SUPPRESS;
++      else
++              return 0;
++}
++
++int
++gr_check_hidden_task(const struct task_struct *task)
++{
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++
++      if (!(task->acl->mode & GR_PROCFIND) && !(current->acl->mode & GR_VIEW))
++              return 1;
++
++      return 0;
++}
++
++int
++gr_check_protected_task(const struct task_struct *task)
++{
++      if (unlikely(!(gr_status & GR_READY) || !task))
++              return 0;
++
++      if ((task->acl->mode & GR_PROTECTED) && !(current->acl->mode & GR_KILL) &&
++          task->acl != current->acl)
++              return 1;
++
++      return 0;
++}
++
++int
++gr_check_protected_task_fowner(struct pid *pid, enum pid_type type)
++{
++      struct task_struct *p;
++      int ret = 0;
++
++      if (unlikely(!(gr_status & GR_READY) || !pid))
++              return ret;
++
++      read_lock(&tasklist_lock);
++      do_each_pid_task(pid, type, p) {
++              if ((p->acl->mode & GR_PROTECTED) && !(current->acl->mode & GR_KILL) &&
++                  p->acl != current->acl) {
++                      ret = 1;
++                      goto out;
++              }
++      } while_each_pid_task(pid, type, p);
++out:
++      read_unlock(&tasklist_lock);
++
++      return ret;
++}
++
++void
++gr_copy_label(struct task_struct *tsk)
++{
++      tsk->signal->used_accept = 0;
++      tsk->acl_sp_role = 0;
++      tsk->acl_role_id = current->acl_role_id;
++      tsk->acl = current->acl;
++      tsk->role = current->role;
++      tsk->signal->curr_ip = current->signal->curr_ip;
++      tsk->signal->saved_ip = current->signal->saved_ip;
++      if (current->exec_file)
++              get_file(current->exec_file);
++      tsk->exec_file = current->exec_file;
++      tsk->is_writable = current->is_writable;
++      if (unlikely(current->signal->used_accept)) {
++              current->signal->curr_ip = 0;
++              current->signal->saved_ip = 0;
++      }
++
++      return;
++}
++
++static void
++gr_set_proc_res(struct task_struct *task)
++{
++      struct acl_subject_label *proc;
++      unsigned short i;
++
++      proc = task->acl;
++
++      if (proc->mode & (GR_LEARN | GR_INHERITLEARN))
++              return;
++
++      for (i = 0; i < RLIM_NLIMITS; i++) {
++              if (!(proc->resmask & (1 << i)))
++                      continue;
++
++              task->signal->rlim[i].rlim_cur = proc->res[i].rlim_cur;
++              task->signal->rlim[i].rlim_max = proc->res[i].rlim_max;
++      }
++
++      return;
++}
++
++extern int __gr_process_user_ban(struct user_struct *user);
++
++int
++gr_check_user_change(int real, int effective, int fs)
++{
++      unsigned int i;
++      __u16 num;
++      uid_t *uidlist;
++      int curuid;
++      int realok = 0;
++      int effectiveok = 0;
++      int fsok = 0;
++
++#if defined(CONFIG_GRKERNSEC_KERN_LOCKOUT) || defined(CONFIG_GRKERNSEC_BRUTE)
++      struct user_struct *user;
++
++      if (real == -1)
++              goto skipit;
++
++      user = find_user(real);
++      if (user == NULL)
++              goto skipit;
++
++      if (__gr_process_user_ban(user)) {
++              /* for find_user */
++              free_uid(user);
++              return 1;
++      }
++
++      /* for find_user */
++      free_uid(user);
++
++skipit:
++#endif
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++
++      if (current->acl->mode & (GR_LEARN | GR_INHERITLEARN))
++              gr_log_learn_id_change('u', real, effective, fs);
++
++      num = current->acl->user_trans_num;
++      uidlist = current->acl->user_transitions;
++
++      if (uidlist == NULL)
++              return 0;
++
++      if (real == -1)
++              realok = 1;
++      if (effective == -1)
++              effectiveok = 1;
++      if (fs == -1)
++              fsok = 1;
++
++      if (current->acl->user_trans_type & GR_ID_ALLOW) {
++              for (i = 0; i < num; i++) {
++                      curuid = (int)uidlist[i];
++                      if (real == curuid)
++                              realok = 1;
++                      if (effective == curuid)
++                              effectiveok = 1;
++                      if (fs == curuid)
++                              fsok = 1;
++              }
++      } else if (current->acl->user_trans_type & GR_ID_DENY) {
++              for (i = 0; i < num; i++) {
++                      curuid = (int)uidlist[i];
++                      if (real == curuid)
++                              break;
++                      if (effective == curuid)
++                              break;
++                      if (fs == curuid)
++                              break;
++              }
++              /* not in deny list */
++              if (i == num) {
++                      realok = 1;
++                      effectiveok = 1;
++                      fsok = 1;
++              }
++      }
++
++      if (realok && effectiveok && fsok)
++              return 0;
++      else {
++              gr_log_int(GR_DONT_AUDIT, GR_USRCHANGE_ACL_MSG, realok ? (effectiveok ? (fsok ? 0 : fs) : effective) : real);
++              return 1;
++      }
++}
++
++int
++gr_check_group_change(int real, int effective, int fs)
++{
++      unsigned int i;
++      __u16 num;
++      gid_t *gidlist;
++      int curgid;
++      int realok = 0;
++      int effectiveok = 0;
++      int fsok = 0;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++
++      if (current->acl->mode & (GR_LEARN | GR_INHERITLEARN))
++              gr_log_learn_id_change('g', real, effective, fs);
++
++      num = current->acl->group_trans_num;
++      gidlist = current->acl->group_transitions;
++
++      if (gidlist == NULL)
++              return 0;
++
++      if (real == -1)
++              realok = 1;
++      if (effective == -1)
++              effectiveok = 1;
++      if (fs == -1)
++              fsok = 1;
++
++      if (current->acl->group_trans_type & GR_ID_ALLOW) {
++              for (i = 0; i < num; i++) {
++                      curgid = (int)gidlist[i];
++                      if (real == curgid)
++                              realok = 1;
++                      if (effective == curgid)
++                              effectiveok = 1;
++                      if (fs == curgid)
++                              fsok = 1;
++              }
++      } else if (current->acl->group_trans_type & GR_ID_DENY) {
++              for (i = 0; i < num; i++) {
++                      curgid = (int)gidlist[i];
++                      if (real == curgid)
++                              break;
++                      if (effective == curgid)
++                              break;
++                      if (fs == curgid)
++                              break;
++              }
++              /* not in deny list */
++              if (i == num) {
++                      realok = 1;
++                      effectiveok = 1;
++                      fsok = 1;
++              }
++      }
++
++      if (realok && effectiveok && fsok)
++              return 0;
++      else {
++              gr_log_int(GR_DONT_AUDIT, GR_GRPCHANGE_ACL_MSG, realok ? (effectiveok ? (fsok ? 0 : fs) : effective) : real);
++              return 1;
++      }
++}
++
++void
++gr_set_role_label(struct task_struct *task, const uid_t uid, const uid_t gid)
++{
++      struct acl_role_label *role = task->role;
++      struct acl_subject_label *subj = NULL;
++      struct acl_object_label *obj;
++      struct file *filp;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return;
++
++      filp = task->exec_file;
++
++      /* kernel process, we'll give them the kernel role */
++      if (unlikely(!filp)) {
++              task->role = kernel_role;
++              task->acl = kernel_role->root_label;
++              return;
++      } else if (!task->role || !(task->role->roletype & GR_ROLE_SPECIAL))
++              role = lookup_acl_role_label(task, uid, gid);
++
++      /* perform subject lookup in possibly new role
++         we can use this result below in the case where role == task->role
++      */
++      subj = chk_subj_label(filp->f_path.dentry, filp->f_path.mnt, role);
++
++      /* if we changed uid/gid, but result in the same role
++         and are using inheritance, don't lose the inherited subject
++         if current subject is other than what normal lookup
++         would result in, we arrived via inheritance, don't
++         lose subject
++      */
++      if (role != task->role || (!(task->acl->mode & GR_INHERITLEARN) &&
++                                 (subj == task->acl)))
++              task->acl = subj;
++
++      task->role = role;
++
++      task->is_writable = 0;
++
++      /* ignore additional mmap checks for processes that are writable 
++         by the default ACL */
++      obj = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt, default_role->root_label);
++      if (unlikely(obj->mode & GR_WRITE))
++              task->is_writable = 1;
++      obj = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt, task->role->root_label);
++      if (unlikely(obj->mode & GR_WRITE))
++              task->is_writable = 1;
++
++#ifdef CONFIG_GRKERNSEC_RBAC_DEBUG
++      printk(KERN_ALERT "Set role label for (%s:%d): role:%s, subject:%s\n", task->comm, task->pid, task->role->rolename, task->acl->filename);
++#endif
++
++      gr_set_proc_res(task);
++
++      return;
++}
++
++int
++gr_set_proc_label(const struct dentry *dentry, const struct vfsmount *mnt,
++                const int unsafe_flags)
++{
++      struct task_struct *task = current;
++      struct acl_subject_label *newacl;
++      struct acl_object_label *obj;
++      __u32 retmode;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++
++      newacl = chk_subj_label(dentry, mnt, task->role);
++
++      task_lock(task);
++      if (unsafe_flags && !(task->acl->mode & GR_POVERRIDE) && (task->acl != newacl) &&
++           !(task->role->roletype & GR_ROLE_GOD) &&
++           !gr_search_file(dentry, GR_PTRACERD, mnt) &&
++           !(task->acl->mode & (GR_LEARN | GR_INHERITLEARN))) {
++                task_unlock(task);
++              if (unsafe_flags & LSM_UNSAFE_SHARE)
++                      gr_log_fs_generic(GR_DONT_AUDIT, GR_UNSAFESHARE_EXEC_ACL_MSG, dentry, mnt);
++              else
++                      gr_log_fs_generic(GR_DONT_AUDIT, GR_PTRACE_EXEC_ACL_MSG, dentry, mnt);
++              return -EACCES;
++      }
++      task_unlock(task);
++
++      obj = chk_obj_label(dentry, mnt, task->acl);
++      retmode = obj->mode & (GR_INHERIT | GR_AUDIT_INHERIT);
++
++      if (!(task->acl->mode & GR_INHERITLEARN) &&
++          ((newacl->mode & GR_LEARN) || !(retmode & GR_INHERIT))) {
++              if (obj->nested)
++                      task->acl = obj->nested;
++              else
++                      task->acl = newacl;
++      } else if (retmode & GR_INHERIT && retmode & GR_AUDIT_INHERIT)
++              gr_log_str_fs(GR_DO_AUDIT, GR_INHERIT_ACL_MSG, task->acl->filename, dentry, mnt);
++
++      task->is_writable = 0;
++
++      /* ignore additional mmap checks for processes that are writable 
++         by the default ACL */
++      obj = chk_obj_label(dentry, mnt, default_role->root_label);
++      if (unlikely(obj->mode & GR_WRITE))
++              task->is_writable = 1;
++      obj = chk_obj_label(dentry, mnt, task->role->root_label);
++      if (unlikely(obj->mode & GR_WRITE))
++              task->is_writable = 1;
++
++      gr_set_proc_res(task);
++
++#ifdef CONFIG_GRKERNSEC_RBAC_DEBUG
++      printk(KERN_ALERT "Set subject label for (%s:%d): role:%s, subject:%s\n", task->comm, task->pid, task->role->rolename, task->acl->filename);
++#endif
++      return 0;
++}
++
++/* always called with valid inodev ptr */
++static void
++do_handle_delete(struct inodev_entry *inodev, const ino_t ino, const dev_t dev)
++{
++      struct acl_object_label *matchpo;
++      struct acl_subject_label *matchps;
++      struct acl_subject_label *subj;
++      struct acl_role_label *role;
++      unsigned int x;
++
++      FOR_EACH_ROLE_START(role)
++              FOR_EACH_SUBJECT_START(role, subj, x)
++                      if ((matchpo = lookup_acl_obj_label(ino, dev, subj)) != NULL)
++                              matchpo->mode |= GR_DELETED;
++              FOR_EACH_SUBJECT_END(subj,x)
++              FOR_EACH_NESTED_SUBJECT_START(role, subj)
++                      if (subj->inode == ino && subj->device == dev)
++                              subj->mode |= GR_DELETED;
++              FOR_EACH_NESTED_SUBJECT_END(subj)
++              if ((matchps = lookup_acl_subj_label(ino, dev, role)) != NULL)
++                      matchps->mode |= GR_DELETED;
++      FOR_EACH_ROLE_END(role)
++
++      inodev->nentry->deleted = 1;
++
++      return;
++}
++
++void
++gr_handle_delete(const ino_t ino, const dev_t dev)
++{
++      struct inodev_entry *inodev;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return;
++
++      write_lock(&gr_inode_lock);
++      inodev = lookup_inodev_entry(ino, dev);
++      if (inodev != NULL)
++              do_handle_delete(inodev, ino, dev);
++      write_unlock(&gr_inode_lock);
++
++      return;
++}
++
++static void
++update_acl_obj_label(const ino_t oldinode, const dev_t olddevice,
++                   const ino_t newinode, const dev_t newdevice,
++                   struct acl_subject_label *subj)
++{
++      unsigned int index = fhash(oldinode, olddevice, subj->obj_hash_size);
++      struct acl_object_label *match;
++
++      match = subj->obj_hash[index];
++
++      while (match && (match->inode != oldinode ||
++             match->device != olddevice ||
++             !(match->mode & GR_DELETED)))
++              match = match->next;
++
++      if (match && (match->inode == oldinode)
++          && (match->device == olddevice)
++          && (match->mode & GR_DELETED)) {
++              if (match->prev == NULL) {
++                      subj->obj_hash[index] = match->next;
++                      if (match->next != NULL)
++                              match->next->prev = NULL;
++              } else {
++                      match->prev->next = match->next;
++                      if (match->next != NULL)
++                              match->next->prev = match->prev;
++              }
++              match->prev = NULL;
++              match->next = NULL;
++              match->inode = newinode;
++              match->device = newdevice;
++              match->mode &= ~GR_DELETED;
++
++              insert_acl_obj_label(match, subj);
++      }
++
++      return;
++}
++
++static void
++update_acl_subj_label(const ino_t oldinode, const dev_t olddevice,
++                    const ino_t newinode, const dev_t newdevice,
++                    struct acl_role_label *role)
++{
++      unsigned int index = fhash(oldinode, olddevice, role->subj_hash_size);
++      struct acl_subject_label *match;
++
++      match = role->subj_hash[index];
++
++      while (match && (match->inode != oldinode ||
++             match->device != olddevice ||
++             !(match->mode & GR_DELETED)))
++              match = match->next;
++
++      if (match && (match->inode == oldinode)
++          && (match->device == olddevice)
++          && (match->mode & GR_DELETED)) {
++              if (match->prev == NULL) {
++                      role->subj_hash[index] = match->next;
++                      if (match->next != NULL)
++                              match->next->prev = NULL;
++              } else {
++                      match->prev->next = match->next;
++                      if (match->next != NULL)
++                              match->next->prev = match->prev;
++              }
++              match->prev = NULL;
++              match->next = NULL;
++              match->inode = newinode;
++              match->device = newdevice;
++              match->mode &= ~GR_DELETED;
++
++              insert_acl_subj_label(match, role);
++      }
++
++      return;
++}
++
++static void
++update_inodev_entry(const ino_t oldinode, const dev_t olddevice,
++                  const ino_t newinode, const dev_t newdevice)
++{
++      unsigned int index = fhash(oldinode, olddevice, inodev_set.i_size);
++      struct inodev_entry *match;
++
++      match = inodev_set.i_hash[index];
++
++      while (match && (match->nentry->inode != oldinode ||
++             match->nentry->device != olddevice || !match->nentry->deleted))
++              match = match->next;
++
++      if (match && (match->nentry->inode == oldinode)
++          && (match->nentry->device == olddevice) &&
++          match->nentry->deleted) {
++              if (match->prev == NULL) {
++                      inodev_set.i_hash[index] = match->next;
++                      if (match->next != NULL)
++                              match->next->prev = NULL;
++              } else {
++                      match->prev->next = match->next;
++                      if (match->next != NULL)
++                              match->next->prev = match->prev;
++              }
++              match->prev = NULL;
++              match->next = NULL;
++              match->nentry->inode = newinode;
++              match->nentry->device = newdevice;
++              match->nentry->deleted = 0;
++
++              insert_inodev_entry(match);
++      }
++
++      return;
++}
++
++static void
++__do_handle_create(const struct name_entry *matchn, ino_t inode, dev_t dev)
++{
++      struct acl_subject_label *subj;
++      struct acl_role_label *role;
++      unsigned int x;
++      
++      FOR_EACH_ROLE_START(role)
++              update_acl_subj_label(matchn->inode, matchn->device,
++                                    inode, dev, role);
++
++              FOR_EACH_NESTED_SUBJECT_START(role, subj)
++                      if ((subj->inode == inode) && (subj->device == dev)) {
++                              subj->inode = inode;
++                              subj->device = dev;
++                      }
++              FOR_EACH_NESTED_SUBJECT_END(subj)
++              FOR_EACH_SUBJECT_START(role, subj, x)
++                      update_acl_obj_label(matchn->inode, matchn->device,
++                                           inode, dev, subj);
++              FOR_EACH_SUBJECT_END(subj,x)
++      FOR_EACH_ROLE_END(role)
++
++      update_inodev_entry(matchn->inode, matchn->device, inode, dev);
++
++      return;
++}
++
++static void
++do_handle_create(const struct name_entry *matchn, const struct dentry *dentry,
++               const struct vfsmount *mnt)
++{
++      ino_t ino = dentry->d_inode->i_ino;
++      dev_t dev = __get_dev(dentry);
++
++      __do_handle_create(matchn, ino, dev);   
++
++      return;
++}
++
++void
++gr_handle_create(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      struct name_entry *matchn;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return;
++
++      preempt_disable();
++      matchn = lookup_name_entry(gr_to_filename_rbac(dentry, mnt));
++
++      if (unlikely((unsigned long)matchn)) {
++              write_lock(&gr_inode_lock);
++              do_handle_create(matchn, dentry, mnt);
++              write_unlock(&gr_inode_lock);
++      }
++      preempt_enable();
++
++      return;
++}
++
++void
++gr_handle_proc_create(const struct dentry *dentry, const struct inode *inode)
++{
++      struct name_entry *matchn;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return;
++
++      preempt_disable();
++      matchn = lookup_name_entry(gr_to_proc_filename_rbac(dentry, init_pid_ns.proc_mnt));
++
++      if (unlikely((unsigned long)matchn)) {
++              write_lock(&gr_inode_lock);
++              __do_handle_create(matchn, inode->i_ino, inode->i_sb->s_dev);
++              write_unlock(&gr_inode_lock);
++      }
++      preempt_enable();
++
++      return;
++}
++
++void
++gr_handle_rename(struct inode *old_dir, struct inode *new_dir,
++               struct dentry *old_dentry,
++               struct dentry *new_dentry,
++               struct vfsmount *mnt, const __u8 replace)
++{
++      struct name_entry *matchn;
++      struct inodev_entry *inodev;
++      struct inode *inode = new_dentry->d_inode;
++      ino_t oldinode = old_dentry->d_inode->i_ino;
++      dev_t olddev = __get_dev(old_dentry);
++
++      /* vfs_rename swaps the name and parent link for old_dentry and
++         new_dentry
++         at this point, old_dentry has the new name, parent link, and inode
++         for the renamed file
++         if a file is being replaced by a rename, new_dentry has the inode
++         and name for the replaced file
++      */
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return;
++
++      preempt_disable();
++      matchn = lookup_name_entry(gr_to_filename_rbac(old_dentry, mnt));
++
++      /* we wouldn't have to check d_inode if it weren't for
++         NFS silly-renaming
++       */
++
++      write_lock(&gr_inode_lock);
++      if (unlikely(replace && inode)) {
++              ino_t newinode = inode->i_ino;
++              dev_t newdev = __get_dev(new_dentry);
++              inodev = lookup_inodev_entry(newinode, newdev);
++              if (inodev != NULL && ((inode->i_nlink <= 1) || S_ISDIR(inode->i_mode)))
++                      do_handle_delete(inodev, newinode, newdev);
++      }
++
++      inodev = lookup_inodev_entry(oldinode, olddev);
++      if (inodev != NULL && ((old_dentry->d_inode->i_nlink <= 1) || S_ISDIR(old_dentry->d_inode->i_mode)))
++              do_handle_delete(inodev, oldinode, olddev);
++
++      if (unlikely((unsigned long)matchn))
++              do_handle_create(matchn, old_dentry, mnt);
++
++      write_unlock(&gr_inode_lock);
++      preempt_enable();
++
++      return;
++}
++
++static int
++lookup_special_role_auth(__u16 mode, const char *rolename, unsigned char **salt,
++                       unsigned char **sum)
++{
++      struct acl_role_label *r;
++      struct role_allowed_ip *ipp;
++      struct role_transition *trans;
++      unsigned int i;
++      int found = 0;
++      u32 curr_ip = current->signal->curr_ip;
++
++      current->signal->saved_ip = curr_ip;
++
++      /* check transition table */
++
++      for (trans = current->role->transitions; trans; trans = trans->next) {
++              if (!strcmp(rolename, trans->rolename)) {
++                      found = 1;
++                      break;
++              }
++      }
++
++      if (!found)
++              return 0;
++
++      /* handle special roles that do not require authentication
++         and check ip */
++
++      FOR_EACH_ROLE_START(r)
++              if (!strcmp(rolename, r->rolename) &&
++                  (r->roletype & GR_ROLE_SPECIAL)) {
++                      found = 0;
++                      if (r->allowed_ips != NULL) {
++                              for (ipp = r->allowed_ips; ipp; ipp = ipp->next) {
++                                      if ((ntohl(curr_ip) & ipp->netmask) ==
++                                           (ntohl(ipp->addr) & ipp->netmask))
++                                              found = 1;
++                              }
++                      } else
++                              found = 2;
++                      if (!found)
++                              return 0;
++
++                      if (((mode == GR_SPROLE) && (r->roletype & GR_ROLE_NOPW)) ||
++                          ((mode == GR_SPROLEPAM) && (r->roletype & GR_ROLE_PAM))) {
++                              *salt = NULL;
++                              *sum = NULL;
++                              return 1;
++                      }
++              }
++      FOR_EACH_ROLE_END(r)
++
++      for (i = 0; i < num_sprole_pws; i++) {
++              if (!strcmp(rolename, acl_special_roles[i]->rolename)) {
++                      *salt = acl_special_roles[i]->salt;
++                      *sum = acl_special_roles[i]->sum;
++                      return 1;
++              }
++      }
++
++      return 0;
++}
++
++static void
++assign_special_role(char *rolename)
++{
++      struct acl_object_label *obj;
++      struct acl_role_label *r;
++      struct acl_role_label *assigned = NULL;
++      struct task_struct *tsk;
++      struct file *filp;
++
++      FOR_EACH_ROLE_START(r)
++              if (!strcmp(rolename, r->rolename) &&
++                  (r->roletype & GR_ROLE_SPECIAL)) {
++                      assigned = r;
++                      break;
++              }
++      FOR_EACH_ROLE_END(r)
++
++      if (!assigned)
++              return;
++
++      read_lock(&tasklist_lock);
++      read_lock(&grsec_exec_file_lock);
++
++      tsk = current->real_parent;
++      if (tsk == NULL)
++              goto out_unlock;
++
++      filp = tsk->exec_file;
++      if (filp == NULL)
++              goto out_unlock;
++
++      tsk->is_writable = 0;
++
++      tsk->acl_sp_role = 1;
++      tsk->acl_role_id = ++acl_sp_role_value;
++      tsk->role = assigned;
++      tsk->acl = chk_subj_label(filp->f_path.dentry, filp->f_path.mnt, tsk->role);
++
++      /* ignore additional mmap checks for processes that are writable 
++         by the default ACL */
++      obj = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt, default_role->root_label);
++      if (unlikely(obj->mode & GR_WRITE))
++              tsk->is_writable = 1;
++      obj = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt, tsk->role->root_label);
++      if (unlikely(obj->mode & GR_WRITE))
++              tsk->is_writable = 1;
++
++#ifdef CONFIG_GRKERNSEC_RBAC_DEBUG
++      printk(KERN_ALERT "Assigning special role:%s subject:%s to process (%s:%d)\n", tsk->role->rolename, tsk->acl->filename, tsk->comm, tsk->pid);
++#endif
++
++out_unlock:
++      read_unlock(&grsec_exec_file_lock);
++      read_unlock(&tasklist_lock);
++      return;
++}
++
++int gr_check_secure_terminal(struct task_struct *task)
++{
++      struct task_struct *p, *p2, *p3;
++      struct files_struct *files;
++      struct fdtable *fdt;
++      struct file *our_file = NULL, *file;
++      int i;
++
++      if (task->signal->tty == NULL)
++              return 1;
++
++      files = get_files_struct(task);
++      if (files != NULL) {
++              rcu_read_lock();
++              fdt = files_fdtable(files);
++              for (i=0; i < fdt->max_fds; i++) {
++                      file = fcheck_files(files, i);
++                      if (file && (our_file == NULL) && (file->private_data == task->signal->tty)) {
++                              get_file(file);
++                              our_file = file;
++                      }
++              }
++              rcu_read_unlock();
++              put_files_struct(files);
++      }
++
++      if (our_file == NULL)
++              return 1;
++
++      read_lock(&tasklist_lock);
++      do_each_thread(p2, p) {
++              files = get_files_struct(p);
++              if (files == NULL ||
++                  (p->signal && p->signal->tty == task->signal->tty)) {
++                      if (files != NULL)
++                              put_files_struct(files);
++                      continue;
++              }
++              rcu_read_lock();
++              fdt = files_fdtable(files);
++              for (i=0; i < fdt->max_fds; i++) {
++                      file = fcheck_files(files, i);
++                      if (file && S_ISCHR(file->f_path.dentry->d_inode->i_mode) &&
++                          file->f_path.dentry->d_inode->i_rdev == our_file->f_path.dentry->d_inode->i_rdev) {
++                              p3 = task;
++                              while (p3->pid > 0) {
++                                      if (p3 == p)
++                                              break;
++                                      p3 = p3->real_parent;
++                              }
++                              if (p3 == p)
++                                      break;
++                              gr_log_ttysniff(GR_DONT_AUDIT_GOOD, GR_TTYSNIFF_ACL_MSG, p);
++                              gr_handle_alertkill(p);
++                              rcu_read_unlock();
++                              put_files_struct(files);
++                              read_unlock(&tasklist_lock);
++                              fput(our_file);
++                              return 0;
++                      }
++              }
++              rcu_read_unlock();
++              put_files_struct(files);
++      } while_each_thread(p2, p);
++      read_unlock(&tasklist_lock);
++
++      fput(our_file);
++      return 1;
++}
++
++ssize_t
++write_grsec_handler(struct file *file, const char * buf, size_t count, loff_t *ppos)
++{
++      struct gr_arg_wrapper uwrap;
++      unsigned char *sprole_salt = NULL;
++      unsigned char *sprole_sum = NULL;
++      int error = sizeof (struct gr_arg_wrapper);
++      int error2 = 0;
++
++      mutex_lock(&gr_dev_mutex);
++
++      if ((gr_status & GR_READY) && !(current->acl->mode & GR_KERNELAUTH)) {
++              error = -EPERM;
++              goto out;
++      }
++
++      if (count != sizeof (struct gr_arg_wrapper)) {
++              gr_log_int_int(GR_DONT_AUDIT_GOOD, GR_DEV_ACL_MSG, (int)count, (int)sizeof(struct gr_arg_wrapper));
++              error = -EINVAL;
++              goto out;
++      }
++
++      
++      if (gr_auth_expires && time_after_eq(get_seconds(), gr_auth_expires)) {
++              gr_auth_expires = 0;
++              gr_auth_attempts = 0;
++      }
++
++      if (copy_from_user(&uwrap, buf, sizeof (struct gr_arg_wrapper))) {
++              error = -EFAULT;
++              goto out;
++      }
++
++      if ((uwrap.version != GRSECURITY_VERSION) || (uwrap.size != sizeof(struct gr_arg))) {
++              error = -EINVAL;
++              goto out;
++      }
++
++      if (copy_from_user(gr_usermode, uwrap.arg, sizeof (struct gr_arg))) {
++              error = -EFAULT;
++              goto out;
++      }
++
++      if (gr_usermode->mode != GR_SPROLE && gr_usermode->mode != GR_SPROLEPAM &&
++          gr_auth_attempts >= CONFIG_GRKERNSEC_ACL_MAXTRIES &&
++          time_after(gr_auth_expires, get_seconds())) {
++              error = -EBUSY;
++              goto out;
++      }
++
++      /* if non-root trying to do anything other than use a special role,
++         do not attempt authentication, do not count towards authentication
++         locking
++       */
++
++      if (gr_usermode->mode != GR_SPROLE && gr_usermode->mode != GR_STATUS &&
++          gr_usermode->mode != GR_UNSPROLE && gr_usermode->mode != GR_SPROLEPAM &&
++          current_uid()) {
++              error = -EPERM;
++              goto out;
++      }
++
++      /* ensure pw and special role name are null terminated */
++
++      gr_usermode->pw[GR_PW_LEN - 1] = '\0';
++      gr_usermode->sp_role[GR_SPROLE_LEN - 1] = '\0';
++
++      /* Okay. 
++       * We have our enough of the argument structure..(we have yet
++       * to copy_from_user the tables themselves) . Copy the tables
++       * only if we need them, i.e. for loading operations. */
++
++      switch (gr_usermode->mode) {
++      case GR_STATUS:
++                      if (gr_status & GR_READY) {
++                              error = 1;
++                              if (!gr_check_secure_terminal(current))
++                                      error = 3;
++                      } else
++                              error = 2;
++                      goto out;
++      case GR_SHUTDOWN:
++              if ((gr_status & GR_READY)
++                  && !(chkpw(gr_usermode, gr_system_salt, gr_system_sum))) {
++                      pax_open_kernel();
++                      gr_status &= ~GR_READY;
++                      pax_close_kernel();
++
++                      gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_SHUTS_ACL_MSG);
++                      free_variables();
++                      memset(gr_usermode, 0, sizeof (struct gr_arg));
++                      memset(gr_system_salt, 0, GR_SALT_LEN);
++                      memset(gr_system_sum, 0, GR_SHA_LEN);
++              } else if (gr_status & GR_READY) {
++                      gr_log_noargs(GR_DONT_AUDIT, GR_SHUTF_ACL_MSG);
++                      error = -EPERM;
++              } else {
++                      gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_SHUTI_ACL_MSG);
++                      error = -EAGAIN;
++              }
++              break;
++      case GR_ENABLE:
++              if (!(gr_status & GR_READY) && !(error2 = gracl_init(gr_usermode)))
++                      gr_log_str(GR_DONT_AUDIT_GOOD, GR_ENABLE_ACL_MSG, GR_VERSION);
++              else {
++                      if (gr_status & GR_READY)
++                              error = -EAGAIN;
++                      else
++                              error = error2;
++                      gr_log_str(GR_DONT_AUDIT, GR_ENABLEF_ACL_MSG, GR_VERSION);
++              }
++              break;
++      case GR_RELOAD:
++              if (!(gr_status & GR_READY)) {
++                      gr_log_str(GR_DONT_AUDIT_GOOD, GR_RELOADI_ACL_MSG, GR_VERSION);
++                      error = -EAGAIN;
++              } else if (!(chkpw(gr_usermode, gr_system_salt, gr_system_sum))) {
++                      lock_kernel();
++
++                      pax_open_kernel();
++                      gr_status &= ~GR_READY;
++                      pax_close_kernel();
++
++                      free_variables();
++                      if (!(error2 = gracl_init(gr_usermode))) {
++                              unlock_kernel();
++                              gr_log_str(GR_DONT_AUDIT_GOOD, GR_RELOAD_ACL_MSG, GR_VERSION);
++                      } else {
++                              unlock_kernel();
++                              error = error2;
++                              gr_log_str(GR_DONT_AUDIT, GR_RELOADF_ACL_MSG, GR_VERSION);
++                      }
++              } else {
++                      gr_log_str(GR_DONT_AUDIT, GR_RELOADF_ACL_MSG, GR_VERSION);
++                      error = -EPERM;
++              }
++              break;
++      case GR_SEGVMOD:
++              if (unlikely(!(gr_status & GR_READY))) {
++                      gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_SEGVMODI_ACL_MSG);
++                      error = -EAGAIN;
++                      break;
++              }
++
++              if (!(chkpw(gr_usermode, gr_system_salt, gr_system_sum))) {
++                      gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_SEGVMODS_ACL_MSG);
++                      if (gr_usermode->segv_device && gr_usermode->segv_inode) {
++                              struct acl_subject_label *segvacl;
++                              segvacl =
++                                  lookup_acl_subj_label(gr_usermode->segv_inode,
++                                                        gr_usermode->segv_device,
++                                                        current->role);
++                              if (segvacl) {
++                                      segvacl->crashes = 0;
++                                      segvacl->expires = 0;
++                              }
++                      } else if (gr_find_uid(gr_usermode->segv_uid) >= 0) {
++                              gr_remove_uid(gr_usermode->segv_uid);
++                      }
++              } else {
++                      gr_log_noargs(GR_DONT_AUDIT, GR_SEGVMODF_ACL_MSG);
++                      error = -EPERM;
++              }
++              break;
++      case GR_SPROLE:
++      case GR_SPROLEPAM:
++              if (unlikely(!(gr_status & GR_READY))) {
++                      gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_SPROLEI_ACL_MSG);
++                      error = -EAGAIN;
++                      break;
++              }
++
++              if (current->role->expires && time_after_eq(get_seconds(), current->role->expires)) {
++                      current->role->expires = 0;
++                      current->role->auth_attempts = 0;
++              }
++
++              if (current->role->auth_attempts >= CONFIG_GRKERNSEC_ACL_MAXTRIES &&
++                  time_after(current->role->expires, get_seconds())) {
++                      error = -EBUSY;
++                      goto out;
++              }
++
++              if (lookup_special_role_auth
++                  (gr_usermode->mode, gr_usermode->sp_role, &sprole_salt, &sprole_sum)
++                  && ((!sprole_salt && !sprole_sum)
++                      || !(chkpw(gr_usermode, sprole_salt, sprole_sum)))) {
++                      char *p = "";
++                      assign_special_role(gr_usermode->sp_role);
++                      read_lock(&tasklist_lock);
++                      if (current->real_parent)
++                              p = current->real_parent->role->rolename;
++                      read_unlock(&tasklist_lock);
++                      gr_log_str_int(GR_DONT_AUDIT_GOOD, GR_SPROLES_ACL_MSG,
++                                      p, acl_sp_role_value);
++              } else {
++                      gr_log_str(GR_DONT_AUDIT, GR_SPROLEF_ACL_MSG, gr_usermode->sp_role);
++                      error = -EPERM;
++                      if(!(current->role->auth_attempts++))
++                              current->role->expires = get_seconds() + CONFIG_GRKERNSEC_ACL_TIMEOUT;
++
++                      goto out;
++              }
++              break;
++      case GR_UNSPROLE:
++              if (unlikely(!(gr_status & GR_READY))) {
++                      gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_UNSPROLEI_ACL_MSG);
++                      error = -EAGAIN;
++                      break;
++              }
++
++              if (current->role->roletype & GR_ROLE_SPECIAL) {
++                      char *p = "";
++                      int i = 0;
++
++                      read_lock(&tasklist_lock);
++                      if (current->real_parent) {
++                              p = current->real_parent->role->rolename;
++                              i = current->real_parent->acl_role_id;
++                      }
++                      read_unlock(&tasklist_lock);
++
++                      gr_log_str_int(GR_DONT_AUDIT_GOOD, GR_UNSPROLES_ACL_MSG, p, i);
++                      gr_set_acls(1);
++              } else {
++                      error = -EPERM;
++                      goto out;
++              }
++              break;
++      default:
++              gr_log_int(GR_DONT_AUDIT, GR_INVMODE_ACL_MSG, gr_usermode->mode);
++              error = -EINVAL;
++              break;
++      }
++
++      if (error != -EPERM)
++              goto out;
++
++      if(!(gr_auth_attempts++))
++              gr_auth_expires = get_seconds() + CONFIG_GRKERNSEC_ACL_TIMEOUT;
++
++      out:
++      mutex_unlock(&gr_dev_mutex);
++      return error;
++}
++
++/* must be called with
++      rcu_read_lock();
++      read_lock(&tasklist_lock);
++      read_lock(&grsec_exec_file_lock);
++*/
++int gr_apply_subject_to_task(struct task_struct *task)
++{
++      struct acl_object_label *obj;
++      char *tmpname;
++      struct acl_subject_label *tmpsubj;
++      struct file *filp;
++      struct name_entry *nmatch;
++
++      filp = task->exec_file;
++      if (filp == NULL)
++              return 0;
++
++      /* the following is to apply the correct subject 
++         on binaries running when the RBAC system 
++         is enabled, when the binaries have been 
++         replaced or deleted since their execution
++         -----
++         when the RBAC system starts, the inode/dev
++         from exec_file will be one the RBAC system
++         is unaware of.  It only knows the inode/dev
++         of the present file on disk, or the absence
++         of it.
++      */
++      preempt_disable();
++      tmpname = gr_to_filename_rbac(filp->f_path.dentry, filp->f_path.mnt);
++                      
++      nmatch = lookup_name_entry(tmpname);
++      preempt_enable();
++      tmpsubj = NULL;
++      if (nmatch) {
++              if (nmatch->deleted)
++                      tmpsubj = lookup_acl_subj_label_deleted(nmatch->inode, nmatch->device, task->role);
++              else
++                      tmpsubj = lookup_acl_subj_label(nmatch->inode, nmatch->device, task->role);
++              if (tmpsubj != NULL)
++                      task->acl = tmpsubj;
++      }
++      if (tmpsubj == NULL)
++              task->acl = chk_subj_label(filp->f_path.dentry, filp->f_path.mnt,
++                                         task->role);
++      if (task->acl) {
++              task->is_writable = 0;
++              /* ignore additional mmap checks for processes that are writable 
++                 by the default ACL */
++              obj = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt, default_role->root_label);
++              if (unlikely(obj->mode & GR_WRITE))
++                      task->is_writable = 1;
++              obj = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt, task->role->root_label);
++              if (unlikely(obj->mode & GR_WRITE))
++                      task->is_writable = 1;
++
++              gr_set_proc_res(task);
++
++#ifdef CONFIG_GRKERNSEC_RBAC_DEBUG
++              printk(KERN_ALERT "gr_set_acls for (%s:%d): role:%s, subject:%s\n", task->comm, task->pid, task->role->rolename, task->acl->filename);
++#endif
++      } else {
++              return 1;
++      }
++
++      return 0;
++}
++
++int
++gr_set_acls(const int type)
++{
++      struct task_struct *task, *task2;
++      struct acl_role_label *role = current->role;
++      __u16 acl_role_id = current->acl_role_id;
++      const struct cred *cred;
++      int ret;
++
++      rcu_read_lock();
++      read_lock(&tasklist_lock);
++      read_lock(&grsec_exec_file_lock);
++      do_each_thread(task2, task) {
++              /* check to see if we're called from the exit handler,
++                 if so, only replace ACLs that have inherited the admin
++                 ACL */
++
++              if (type && (task->role != role ||
++                           task->acl_role_id != acl_role_id))
++                      continue;
++
++              task->acl_role_id = 0;
++              task->acl_sp_role = 0;
++
++              if (task->exec_file) {
++                      cred = __task_cred(task);
++                      task->role = lookup_acl_role_label(task, cred->uid, cred->gid);
++
++                      ret = gr_apply_subject_to_task(task);
++                      if (ret) {
++                              read_unlock(&grsec_exec_file_lock);
++                              read_unlock(&tasklist_lock);
++                              rcu_read_unlock();
++                              gr_log_str_int(GR_DONT_AUDIT_GOOD, GR_DEFACL_MSG, task->comm, task->pid);
++                              return ret;
++                      }
++              } else {
++                      // it's a kernel process
++                      task->role = kernel_role;
++                      task->acl = kernel_role->root_label;
++#ifdef CONFIG_GRKERNSEC_ACL_HIDEKERN
++                      task->acl->mode &= ~GR_PROCFIND;
++#endif
++              }
++      } while_each_thread(task2, task);
++      read_unlock(&grsec_exec_file_lock);
++      read_unlock(&tasklist_lock);
++      rcu_read_unlock();
++
++      return 0;
++}
++
++void
++gr_learn_resource(const struct task_struct *task,
++                const int res, const unsigned long wanted, const int gt)
++{
++      struct acl_subject_label *acl;
++      const struct cred *cred;
++
++      if (unlikely((gr_status & GR_READY) &&
++                   task->acl && (task->acl->mode & (GR_LEARN | GR_INHERITLEARN))))
++              goto skip_reslog;
++
++#ifdef CONFIG_GRKERNSEC_RESLOG
++      gr_log_resource(task, res, wanted, gt);
++#endif
++      skip_reslog:
++
++      if (unlikely(!(gr_status & GR_READY) || !wanted || res >= GR_NLIMITS))
++              return;
++
++      acl = task->acl;
++
++      if (likely(!acl || !(acl->mode & (GR_LEARN | GR_INHERITLEARN)) ||
++                 !(acl->resmask & (1 << (unsigned short) res))))
++              return;
++
++      if (wanted >= acl->res[res].rlim_cur) {
++              unsigned long res_add;
++
++              res_add = wanted;
++              switch (res) {
++              case RLIMIT_CPU:
++                      res_add += GR_RLIM_CPU_BUMP;
++                      break;
++              case RLIMIT_FSIZE:
++                      res_add += GR_RLIM_FSIZE_BUMP;
++                      break;
++              case RLIMIT_DATA:
++                      res_add += GR_RLIM_DATA_BUMP;
++                      break;
++              case RLIMIT_STACK:
++                      res_add += GR_RLIM_STACK_BUMP;
++                      break;
++              case RLIMIT_CORE:
++                      res_add += GR_RLIM_CORE_BUMP;
++                      break;
++              case RLIMIT_RSS:
++                      res_add += GR_RLIM_RSS_BUMP;
++                      break;
++              case RLIMIT_NPROC:
++                      res_add += GR_RLIM_NPROC_BUMP;
++                      break;
++              case RLIMIT_NOFILE:
++                      res_add += GR_RLIM_NOFILE_BUMP;
++                      break;
++              case RLIMIT_MEMLOCK:
++                      res_add += GR_RLIM_MEMLOCK_BUMP;
++                      break;
++              case RLIMIT_AS:
++                      res_add += GR_RLIM_AS_BUMP;
++                      break;
++              case RLIMIT_LOCKS:
++                      res_add += GR_RLIM_LOCKS_BUMP;
++                      break;
++              case RLIMIT_SIGPENDING:
++                      res_add += GR_RLIM_SIGPENDING_BUMP;
++                      break;
++              case RLIMIT_MSGQUEUE:
++                      res_add += GR_RLIM_MSGQUEUE_BUMP;
++                      break;
++              case RLIMIT_NICE:
++                      res_add += GR_RLIM_NICE_BUMP;
++                      break;
++              case RLIMIT_RTPRIO:
++                      res_add += GR_RLIM_RTPRIO_BUMP;
++                      break;
++              case RLIMIT_RTTIME:
++                      res_add += GR_RLIM_RTTIME_BUMP;
++                      break;
++              }
++
++              acl->res[res].rlim_cur = res_add;
++
++              if (wanted > acl->res[res].rlim_max)
++                      acl->res[res].rlim_max = res_add;
++
++              /* only log the subject filename, since resource logging is supported for
++                 single-subject learning only */
++              rcu_read_lock();
++              cred = __task_cred(task);
++              security_learn(GR_LEARN_AUDIT_MSG, task->role->rolename,
++                             task->role->roletype, cred->uid, cred->gid, acl->filename,
++                             acl->filename, acl->res[res].rlim_cur, acl->res[res].rlim_max,
++                             "", (unsigned long) res, &task->signal->saved_ip);
++              rcu_read_unlock();
++      }
++
++      return;
++}
++
++#if defined(CONFIG_PAX_HAVE_ACL_FLAGS) && (defined(CONFIG_PAX_NOEXEC) || defined(CONFIG_PAX_ASLR))
++void
++pax_set_initial_flags(struct linux_binprm *bprm)
++{
++      struct task_struct *task = current;
++        struct acl_subject_label *proc;
++      unsigned long flags;
++
++        if (unlikely(!(gr_status & GR_READY)))
++                return;
++
++      flags = pax_get_flags(task);
++
++        proc = task->acl;
++
++      if (proc->pax_flags & GR_PAX_DISABLE_PAGEEXEC)
++              flags &= ~MF_PAX_PAGEEXEC;
++      if (proc->pax_flags & GR_PAX_DISABLE_SEGMEXEC)
++              flags &= ~MF_PAX_SEGMEXEC;
++      if (proc->pax_flags & GR_PAX_DISABLE_RANDMMAP)
++              flags &= ~MF_PAX_RANDMMAP;
++      if (proc->pax_flags & GR_PAX_DISABLE_EMUTRAMP)
++              flags &= ~MF_PAX_EMUTRAMP;
++      if (proc->pax_flags & GR_PAX_DISABLE_MPROTECT)
++              flags &= ~MF_PAX_MPROTECT;
++
++      if (proc->pax_flags & GR_PAX_ENABLE_PAGEEXEC)
++              flags |= MF_PAX_PAGEEXEC;
++      if (proc->pax_flags & GR_PAX_ENABLE_SEGMEXEC)
++              flags |= MF_PAX_SEGMEXEC;
++      if (proc->pax_flags & GR_PAX_ENABLE_RANDMMAP)
++              flags |= MF_PAX_RANDMMAP;
++      if (proc->pax_flags & GR_PAX_ENABLE_EMUTRAMP)
++              flags |= MF_PAX_EMUTRAMP;
++      if (proc->pax_flags & GR_PAX_ENABLE_MPROTECT)
++              flags |= MF_PAX_MPROTECT;
++
++      pax_set_flags(task, flags);
++
++        return;
++}
++#endif
++
++#ifdef CONFIG_SYSCTL
++/* Eric Biederman likes breaking userland ABI and every inode-based security
++   system to save 35kb of memory */
++
++/* we modify the passed in filename, but adjust it back before returning */
++static struct acl_object_label *gr_lookup_by_name(char *name, unsigned int len)
++{
++      struct name_entry *nmatch;
++      char *p, *lastp = NULL;
++      struct acl_object_label *obj = NULL, *tmp;
++      struct acl_subject_label *tmpsubj;
++      char c = '\0';
++
++      read_lock(&gr_inode_lock);
++
++      p = name + len - 1;
++      do {
++              nmatch = lookup_name_entry(name);
++              if (lastp != NULL)
++                      *lastp = c;
++
++              if (nmatch == NULL)
++                      goto next_component;
++              tmpsubj = current->acl;
++              do {
++                      obj = lookup_acl_obj_label(nmatch->inode, nmatch->device, tmpsubj);
++                      if (obj != NULL) {
++                              tmp = obj->globbed;
++                              while (tmp) {
++                                      if (!glob_match(tmp->filename, name)) {
++                                              obj = tmp;
++                                              goto found_obj;
++                                      }
++                                      tmp = tmp->next;
++                              }
++                              goto found_obj;
++                      }
++              } while ((tmpsubj = tmpsubj->parent_subject));
++next_component:
++              /* end case */
++              if (p == name)
++                      break;
++
++              while (*p != '/')
++                      p--;
++              if (p == name)
++                      lastp = p + 1;
++              else {
++                      lastp = p;
++                      p--;
++              }
++              c = *lastp;
++              *lastp = '\0';
++      } while (1);
++found_obj:
++      read_unlock(&gr_inode_lock);
++      /* obj returned will always be non-null */
++      return obj;
++}
++
++/* returns 0 when allowing, non-zero on error
++   op of 0 is used for readdir, so we don't log the names of hidden files
++*/
++__u32
++gr_handle_sysctl(const struct ctl_table *table, const int op)
++{
++      ctl_table *tmp;
++      const char *proc_sys = "/proc/sys";
++      char *path;
++      struct acl_object_label *obj;
++      unsigned short len = 0, pos = 0, depth = 0, i;
++      __u32 err = 0;
++      __u32 mode = 0;
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++
++      /* for now, ignore operations on non-sysctl entries if it's not a
++         readdir*/
++      if (table->child != NULL && op != 0)
++              return 0;
++
++      mode |= GR_FIND;
++      /* it's only a read if it's an entry, read on dirs is for readdir */
++      if (op & MAY_READ)
++              mode |= GR_READ;
++      if (op & MAY_WRITE)
++              mode |= GR_WRITE;
++
++      preempt_disable();
++
++      path = per_cpu_ptr(gr_shared_page[0], smp_processor_id());
++
++      /* it's only a read/write if it's an actual entry, not a dir
++         (which are opened for readdir)
++      */
++
++      /* convert the requested sysctl entry into a pathname */
++
++      for (tmp = (ctl_table *)table; tmp != NULL; tmp = tmp->parent) {
++              len += strlen(tmp->procname);
++              len++;
++              depth++;
++      }
++
++      if ((len + depth + strlen(proc_sys) + 1) > PAGE_SIZE) {
++              /* deny */
++              goto out;
++      }
++
++      memset(path, 0, PAGE_SIZE);
++
++      memcpy(path, proc_sys, strlen(proc_sys));
++
++      pos += strlen(proc_sys);
++
++      for (; depth > 0; depth--) {
++              path[pos] = '/';
++              pos++;
++              for (i = 1, tmp = (ctl_table *)table; tmp != NULL; tmp = tmp->parent) {
++                      if (depth == i) {
++                              memcpy(path + pos, tmp->procname,
++                                     strlen(tmp->procname));
++                              pos += strlen(tmp->procname);
++                      }
++                      i++;
++              }
++      }
++
++      obj = gr_lookup_by_name(path, pos);
++      err = obj->mode & (mode | to_gr_audit(mode) | GR_SUPPRESS);
++
++      if (unlikely((current->acl->mode & (GR_LEARN | GR_INHERITLEARN)) &&
++                   ((err & mode) != mode))) {
++              __u32 new_mode = mode;
++
++              new_mode &= ~(GR_AUDITS | GR_SUPPRESS);
++
++              err = 0;
++              gr_log_learn_sysctl(path, new_mode);
++      } else if (!(err & GR_FIND) && !(err & GR_SUPPRESS) && op != 0) {
++              gr_log_hidden_sysctl(GR_DONT_AUDIT, GR_HIDDEN_ACL_MSG, path);
++              err = -ENOENT;
++      } else if (!(err & GR_FIND)) {
++              err = -ENOENT;
++      } else if (((err & mode) & ~GR_FIND) != (mode & ~GR_FIND) && !(err & GR_SUPPRESS)) {
++              gr_log_str4(GR_DONT_AUDIT, GR_SYSCTL_ACL_MSG, "denied",
++                             path, (mode & GR_READ) ? " reading" : "",
++                             (mode & GR_WRITE) ? " writing" : "");
++              err = -EACCES;
++      } else if ((err & mode) != mode) {
++              err = -EACCES;
++      } else if ((((err & mode) & ~GR_FIND) == (mode & ~GR_FIND)) && (err & GR_AUDITS)) {
++              gr_log_str4(GR_DO_AUDIT, GR_SYSCTL_ACL_MSG, "successful",
++                             path, (mode & GR_READ) ? " reading" : "",
++                             (mode & GR_WRITE) ? " writing" : "");
++              err = 0;
++      } else
++              err = 0;
++
++      out:
++      preempt_enable();
++
++      return err;
++}
++#endif
++
++int
++gr_handle_proc_ptrace(struct task_struct *task)
++{
++      struct file *filp;
++      struct task_struct *tmp = task;
++      struct task_struct *curtemp = current;
++      __u32 retmode;
++
++#ifndef CONFIG_GRKERNSEC_HARDEN_PTRACE
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++#endif
++
++      read_lock(&tasklist_lock);
++      read_lock(&grsec_exec_file_lock);
++      filp = task->exec_file;
++
++      while (tmp->pid > 0) {
++              if (tmp == curtemp)
++                      break;
++              tmp = tmp->real_parent;
++      }
++
++      if (!filp || (tmp->pid == 0 && ((grsec_enable_harden_ptrace && current_uid() && !(gr_status & GR_READY)) ||
++                              ((gr_status & GR_READY) && !(current->acl->mode & GR_RELAXPTRACE))))) {
++              read_unlock(&grsec_exec_file_lock);
++              read_unlock(&tasklist_lock);
++              return 1;
++      }
++
++#ifdef CONFIG_GRKERNSEC_HARDEN_PTRACE
++      if (!(gr_status & GR_READY)) {
++              read_unlock(&grsec_exec_file_lock);
++              read_unlock(&tasklist_lock);
++              return 0;
++      }
++#endif
++
++      retmode = gr_search_file(filp->f_path.dentry, GR_NOPTRACE, filp->f_path.mnt);
++      read_unlock(&grsec_exec_file_lock);
++      read_unlock(&tasklist_lock);
++
++      if (retmode & GR_NOPTRACE)
++              return 1;
++
++      if (!(current->acl->mode & GR_POVERRIDE) && !(current->role->roletype & GR_ROLE_GOD)
++          && (current->acl != task->acl || (current->acl != current->role->root_label
++          && current->pid != task->pid)))
++              return 1;
++
++      return 0;
++}
++
++void task_grsec_rbac(struct seq_file *m, struct task_struct *p)
++{
++      if (unlikely(!(gr_status & GR_READY)))
++              return;
++
++      if (!(current->role->roletype & GR_ROLE_GOD))
++              return;
++
++      seq_printf(m, "RBAC:\t%.64s:%c:%.950s\n",
++                      p->role->rolename, gr_task_roletype_to_char(p),
++                      p->acl->filename);
++}
++
++int
++gr_handle_ptrace(struct task_struct *task, const long request)
++{
++      struct task_struct *tmp = task;
++      struct task_struct *curtemp = current;
++      __u32 retmode;
++
++#ifndef CONFIG_GRKERNSEC_HARDEN_PTRACE
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++#endif
++
++      read_lock(&tasklist_lock);
++      while (tmp->pid > 0) {
++              if (tmp == curtemp)
++                      break;
++              tmp = tmp->real_parent;
++      }
++
++      if (tmp->pid == 0 && ((grsec_enable_harden_ptrace && current_uid() && !(gr_status & GR_READY)) ||
++                              ((gr_status & GR_READY) && !(current->acl->mode & GR_RELAXPTRACE)))) {
++              read_unlock(&tasklist_lock);
++              gr_log_ptrace(GR_DONT_AUDIT, GR_PTRACE_ACL_MSG, task);
++              return 1;
++      }
++      read_unlock(&tasklist_lock);
++
++#ifdef CONFIG_GRKERNSEC_HARDEN_PTRACE
++      if (!(gr_status & GR_READY))
++              return 0;
++#endif
++
++      read_lock(&grsec_exec_file_lock);
++      if (unlikely(!task->exec_file)) {
++              read_unlock(&grsec_exec_file_lock);
++              return 0;
++      }
++
++      retmode = gr_search_file(task->exec_file->f_path.dentry, GR_PTRACERD | GR_NOPTRACE, task->exec_file->f_path.mnt);
++      read_unlock(&grsec_exec_file_lock);
++
++      if (retmode & GR_NOPTRACE) {
++              gr_log_ptrace(GR_DONT_AUDIT, GR_PTRACE_ACL_MSG, task);
++              return 1;
++      }
++              
++      if (retmode & GR_PTRACERD) {
++              switch (request) {
++              case PTRACE_POKETEXT:
++              case PTRACE_POKEDATA:
++              case PTRACE_POKEUSR:
++#if !defined(CONFIG_PPC32) && !defined(CONFIG_PPC64) && !defined(CONFIG_PARISC) && !defined(CONFIG_ALPHA) && !defined(CONFIG_IA64)
++              case PTRACE_SETREGS:
++              case PTRACE_SETFPREGS:
++#endif
++#ifdef CONFIG_X86
++              case PTRACE_SETFPXREGS:
++#endif
++#ifdef CONFIG_ALTIVEC
++              case PTRACE_SETVRREGS:
++#endif
++                      return 1;
++              default:
++                      return 0;
++              }
++      } else if (!(current->acl->mode & GR_POVERRIDE) &&
++                 !(current->role->roletype & GR_ROLE_GOD) &&
++                 (current->acl != task->acl)) {
++              gr_log_ptrace(GR_DONT_AUDIT, GR_PTRACE_ACL_MSG, task);
++              return 1;
++      }
++
++      return 0;
++}
++
++static int is_writable_mmap(const struct file *filp)
++{
++      struct task_struct *task = current;
++      struct acl_object_label *obj, *obj2;
++
++      if (gr_status & GR_READY && !(task->acl->mode & GR_OVERRIDE) &&
++          !task->is_writable && S_ISREG(filp->f_path.dentry->d_inode->i_mode) && (filp->f_path.mnt != shm_mnt || (filp->f_path.dentry->d_inode->i_nlink > 0))) {
++              obj = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt, default_role->root_label);
++              obj2 = chk_obj_label(filp->f_path.dentry, filp->f_path.mnt,
++                                   task->role->root_label);
++              if (unlikely((obj->mode & GR_WRITE) || (obj2->mode & GR_WRITE))) {
++                      gr_log_fs_generic(GR_DONT_AUDIT, GR_WRITLIB_ACL_MSG, filp->f_path.dentry, filp->f_path.mnt);
++                      return 1;
++              }
++      }
++      return 0;
++}
++
++int
++gr_acl_handle_mmap(const struct file *file, const unsigned long prot)
++{
++      __u32 mode;
++
++      if (unlikely(!file || !(prot & PROT_EXEC)))
++              return 1;
++
++      if (is_writable_mmap(file))
++              return 0;
++
++      mode =
++          gr_search_file(file->f_path.dentry,
++                         GR_EXEC | GR_AUDIT_EXEC | GR_SUPPRESS,
++                         file->f_path.mnt);
++
++      if (!gr_tpe_allow(file))
++              return 0;
++
++      if (unlikely(!(mode & GR_EXEC) && !(mode & GR_SUPPRESS))) {
++              gr_log_fs_rbac_generic(GR_DONT_AUDIT, GR_MMAP_ACL_MSG, file->f_path.dentry, file->f_path.mnt);
++              return 0;
++      } else if (unlikely(!(mode & GR_EXEC))) {
++              return 0;
++      } else if (unlikely(mode & GR_EXEC && mode & GR_AUDIT_EXEC)) {
++              gr_log_fs_rbac_generic(GR_DO_AUDIT, GR_MMAP_ACL_MSG, file->f_path.dentry, file->f_path.mnt);
++              return 1;
++      }
++
++      return 1;
++}
++
++int
++gr_acl_handle_mprotect(const struct file *file, const unsigned long prot)
++{
++      __u32 mode;
++
++      if (unlikely(!file || !(prot & PROT_EXEC)))
++              return 1;
++
++      if (is_writable_mmap(file))
++              return 0;
++
++      mode =
++          gr_search_file(file->f_path.dentry,
++                         GR_EXEC | GR_AUDIT_EXEC | GR_SUPPRESS,
++                         file->f_path.mnt);
++
++      if (!gr_tpe_allow(file))
++              return 0;
++
++      if (unlikely(!(mode & GR_EXEC) && !(mode & GR_SUPPRESS))) {
++              gr_log_fs_rbac_generic(GR_DONT_AUDIT, GR_MPROTECT_ACL_MSG, file->f_path.dentry, file->f_path.mnt);
++              return 0;
++      } else if (unlikely(!(mode & GR_EXEC))) {
++              return 0;
++      } else if (unlikely(mode & GR_EXEC && mode & GR_AUDIT_EXEC)) {
++              gr_log_fs_rbac_generic(GR_DO_AUDIT, GR_MPROTECT_ACL_MSG, file->f_path.dentry, file->f_path.mnt);
++              return 1;
++      }
++
++      return 1;
++}
++
++void
++gr_acl_handle_psacct(struct task_struct *task, const long code)
++{
++      unsigned long runtime;
++      unsigned long cputime;
++      unsigned int wday, cday;
++      __u8 whr, chr;
++      __u8 wmin, cmin;
++      __u8 wsec, csec;
++      struct timespec timeval;
++
++      if (unlikely(!(gr_status & GR_READY) || !task->acl ||
++                   !(task->acl->mode & GR_PROCACCT)))
++              return;
++
++      do_posix_clock_monotonic_gettime(&timeval);
++      runtime = timeval.tv_sec - task->start_time.tv_sec;
++      wday = runtime / (3600 * 24);
++      runtime -= wday * (3600 * 24);
++      whr = runtime / 3600;
++      runtime -= whr * 3600;
++      wmin = runtime / 60;
++      runtime -= wmin * 60;
++      wsec = runtime;
++
++      cputime = (task->utime + task->stime) / HZ;
++      cday = cputime / (3600 * 24);
++      cputime -= cday * (3600 * 24);
++      chr = cputime / 3600;
++      cputime -= chr * 3600;
++      cmin = cputime / 60;
++      cputime -= cmin * 60;
++      csec = cputime;
++
++      gr_log_procacct(GR_DO_AUDIT, GR_ACL_PROCACCT_MSG, task, wday, whr, wmin, wsec, cday, chr, cmin, csec, code);
++
++      return;
++}
++
++void gr_set_kernel_label(struct task_struct *task)
++{
++      if (gr_status & GR_READY) {
++              task->role = kernel_role;
++              task->acl = kernel_role->root_label;
++      }
++      return;
++}
++
++#ifdef CONFIG_TASKSTATS
++int gr_is_taskstats_denied(int pid)
++{
++      struct task_struct *task;
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      const struct cred *cred;
++#endif
++      int ret = 0;
++
++      /* restrict taskstats viewing to un-chrooted root users
++         who have the 'view' subject flag if the RBAC system is enabled
++      */
++
++      rcu_read_lock();
++      read_lock(&tasklist_lock);
++      task = find_task_by_vpid(pid);
++      if (task) {
++#ifdef CONFIG_GRKERNSEC_CHROOT
++              if (proc_is_chrooted(task))
++                      ret = -EACCES;
++#endif
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++              cred = __task_cred(task);
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++              if (cred->uid != 0)
++                      ret = -EACCES;
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++              if (cred->uid != 0 && !groups_search(cred->group_info, CONFIG_GRKERNSEC_PROC_GID))
++                      ret = -EACCES;
++#endif
++#endif
++              if (gr_status & GR_READY) {
++                      if (!(task->acl->mode & GR_VIEW))
++                              ret = -EACCES;
++              }
++      } else
++              ret = -ENOENT;
++
++      read_unlock(&tasklist_lock);
++      rcu_read_unlock();
++
++      return ret;
++}
++#endif
++
++/* AUXV entries are filled via a descendant of search_binary_handler
++   after we've already applied the subject for the target
++*/
++int gr_acl_enable_at_secure(void)
++{
++      if (unlikely(!(gr_status & GR_READY)))
++              return 0;
++
++      if (current->acl->mode & GR_ATSECURE)
++              return 1;
++
++      return 0;
++}
++      
++int gr_acl_handle_filldir(const struct file *file, const char *name, const unsigned int namelen, const ino_t ino)
++{
++      struct task_struct *task = current;
++      struct dentry *dentry = file->f_path.dentry;
++      struct vfsmount *mnt = file->f_path.mnt;
++      struct acl_object_label *obj, *tmp;
++      struct acl_subject_label *subj;
++      unsigned int bufsize;
++      int is_not_root;
++      char *path;
++      dev_t dev = __get_dev(dentry);
++
++      if (unlikely(!(gr_status & GR_READY)))
++              return 1;
++
++      if (task->acl->mode & (GR_LEARN | GR_INHERITLEARN))
++              return 1;
++
++      /* ignore Eric Biederman */
++      if (IS_PRIVATE(dentry->d_inode))
++              return 1;
++
++      subj = task->acl;
++      do {
++              obj = lookup_acl_obj_label(ino, dev, subj);
++              if (obj != NULL)
++                      return (obj->mode & GR_FIND) ? 1 : 0;
++      } while ((subj = subj->parent_subject));
++      
++      /* this is purely an optimization since we're looking for an object
++         for the directory we're doing a readdir on
++         if it's possible for any globbed object to match the entry we're
++         filling into the directory, then the object we find here will be
++         an anchor point with attached globbed objects
++      */
++      obj = chk_obj_label_noglob(dentry, mnt, task->acl);
++      if (obj->globbed == NULL)
++              return (obj->mode & GR_FIND) ? 1 : 0;
++
++      is_not_root = ((obj->filename[0] == '/') &&
++                 (obj->filename[1] == '\0')) ? 0 : 1;
++      bufsize = PAGE_SIZE - namelen - is_not_root;
++
++      /* check bufsize > PAGE_SIZE || bufsize == 0 */
++      if (unlikely((bufsize - 1) > (PAGE_SIZE - 1)))
++              return 1;
++
++      preempt_disable();
++      path = d_real_path(dentry, mnt, per_cpu_ptr(gr_shared_page[0], smp_processor_id()),
++                         bufsize);
++
++      bufsize = strlen(path);
++
++      /* if base is "/", don't append an additional slash */
++      if (is_not_root)
++              *(path + bufsize) = '/';
++      memcpy(path + bufsize + is_not_root, name, namelen);
++      *(path + bufsize + namelen + is_not_root) = '\0';
++
++      tmp = obj->globbed;
++      while (tmp) {
++              if (!glob_match(tmp->filename, path)) {
++                      preempt_enable();
++                      return (tmp->mode & GR_FIND) ? 1 : 0;
++              }
++              tmp = tmp->next;
++      }
++      preempt_enable();
++      return (obj->mode & GR_FIND) ? 1 : 0;
++}
++
++#ifdef CONFIG_NETFILTER_XT_MATCH_GRADM_MODULE
++EXPORT_SYMBOL(gr_acl_is_enabled);
++#endif
++EXPORT_SYMBOL(gr_learn_resource);
++EXPORT_SYMBOL(gr_set_kernel_label);
++#ifdef CONFIG_SECURITY
++EXPORT_SYMBOL(gr_check_user_change);
++EXPORT_SYMBOL(gr_check_group_change);
++#endif
++
+diff --git a/grsecurity/gracl_alloc.c b/grsecurity/gracl_alloc.c
+new file mode 100644
+index 0000000..34fefda
+--- /dev/null
++++ b/grsecurity/gracl_alloc.c
+@@ -0,0 +1,105 @@
++#include <linux/kernel.h>
++#include <linux/mm.h>
++#include <linux/slab.h>
++#include <linux/vmalloc.h>
++#include <linux/gracl.h>
++#include <linux/grsecurity.h>
++
++static unsigned long alloc_stack_next = 1;
++static unsigned long alloc_stack_size = 1;
++static void **alloc_stack;
++
++static __inline__ int
++alloc_pop(void)
++{
++      if (alloc_stack_next == 1)
++              return 0;
++
++      kfree(alloc_stack[alloc_stack_next - 2]);
++
++      alloc_stack_next--;
++
++      return 1;
++}
++
++static __inline__ int
++alloc_push(void *buf)
++{
++      if (alloc_stack_next >= alloc_stack_size)
++              return 1;
++
++      alloc_stack[alloc_stack_next - 1] = buf;
++
++      alloc_stack_next++;
++
++      return 0;
++}
++
++void *
++acl_alloc(unsigned long len)
++{
++      void *ret = NULL;
++
++      if (!len || len > PAGE_SIZE)
++              goto out;
++
++      ret = kmalloc(len, GFP_KERNEL);
++
++      if (ret) {
++              if (alloc_push(ret)) {
++                      kfree(ret);
++                      ret = NULL;
++              }
++      }
++
++out:
++      return ret;
++}
++
++void *
++acl_alloc_num(unsigned long num, unsigned long len)
++{
++      if (!len || (num > (PAGE_SIZE / len)))
++              return NULL;
++
++      return acl_alloc(num * len);
++}
++
++void
++acl_free_all(void)
++{
++      if (gr_acl_is_enabled() || !alloc_stack)
++              return;
++
++      while (alloc_pop()) ;
++
++      if (alloc_stack) {
++              if ((alloc_stack_size * sizeof (void *)) <= PAGE_SIZE)
++                      kfree(alloc_stack);
++              else
++                      vfree(alloc_stack);
++      }
++
++      alloc_stack = NULL;
++      alloc_stack_size = 1;
++      alloc_stack_next = 1;
++
++      return;
++}
++
++int
++acl_alloc_stack_init(unsigned long size)
++{
++      if ((size * sizeof (void *)) <= PAGE_SIZE)
++              alloc_stack =
++                  (void **) kmalloc(size * sizeof (void *), GFP_KERNEL);
++      else
++              alloc_stack = (void **) vmalloc(size * sizeof (void *));
++
++      alloc_stack_size = size;
++
++      if (!alloc_stack)
++              return 0;
++      else
++              return 1;
++}
+diff --git a/grsecurity/gracl_cap.c b/grsecurity/gracl_cap.c
+new file mode 100644
+index 0000000..955ddfb
+--- /dev/null
++++ b/grsecurity/gracl_cap.c
+@@ -0,0 +1,101 @@
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/sched.h>
++#include <linux/gracl.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++extern const char *captab_log[];
++extern int captab_log_entries;
++
++int
++gr_acl_is_capable(const int cap)
++{
++      struct task_struct *task = current;
++      const struct cred *cred = current_cred();
++      struct acl_subject_label *curracl;
++      kernel_cap_t cap_drop = __cap_empty_set, cap_mask = __cap_empty_set;
++      kernel_cap_t cap_audit = __cap_empty_set;
++
++      if (!gr_acl_is_enabled())
++              return 1;
++
++      curracl = task->acl;
++
++      cap_drop = curracl->cap_lower;
++      cap_mask = curracl->cap_mask;
++      cap_audit = curracl->cap_invert_audit;
++
++      while ((curracl = curracl->parent_subject)) {
++              /* if the cap isn't specified in the current computed mask but is specified in the
++                 current level subject, and is lowered in the current level subject, then add
++                 it to the set of dropped capabilities
++                 otherwise, add the current level subject's mask to the current computed mask
++               */
++              if (!cap_raised(cap_mask, cap) && cap_raised(curracl->cap_mask, cap)) {
++                      cap_raise(cap_mask, cap);
++                      if (cap_raised(curracl->cap_lower, cap))
++                              cap_raise(cap_drop, cap);
++                      if (cap_raised(curracl->cap_invert_audit, cap))
++                              cap_raise(cap_audit, cap);
++              }
++      }
++
++      if (!cap_raised(cap_drop, cap)) {
++              if (cap_raised(cap_audit, cap))
++                      gr_log_cap(GR_DO_AUDIT, GR_CAP_ACL_MSG2, task, captab_log[cap]);
++              return 1;
++      }
++
++      curracl = task->acl;
++
++      if ((curracl->mode & (GR_LEARN | GR_INHERITLEARN))
++          && cap_raised(cred->cap_effective, cap)) {
++              security_learn(GR_LEARN_AUDIT_MSG, task->role->rolename,
++                             task->role->roletype, cred->uid,
++                             cred->gid, task->exec_file ?
++                             gr_to_filename(task->exec_file->f_path.dentry,
++                             task->exec_file->f_path.mnt) : curracl->filename,
++                             curracl->filename, 0UL,
++                             0UL, "", (unsigned long) cap, &task->signal->saved_ip);
++              return 1;
++      }
++
++      if ((cap >= 0) && (cap < captab_log_entries) && cap_raised(cred->cap_effective, cap) && !cap_raised(cap_audit, cap))
++              gr_log_cap(GR_DONT_AUDIT, GR_CAP_ACL_MSG, task, captab_log[cap]);
++      return 0;
++}
++
++int
++gr_acl_is_capable_nolog(const int cap)
++{
++      struct acl_subject_label *curracl;
++      kernel_cap_t cap_drop = __cap_empty_set, cap_mask = __cap_empty_set;
++
++      if (!gr_acl_is_enabled())
++              return 1;
++
++      curracl = current->acl;
++
++      cap_drop = curracl->cap_lower;
++      cap_mask = curracl->cap_mask;
++
++      while ((curracl = curracl->parent_subject)) {
++              /* if the cap isn't specified in the current computed mask but is specified in the
++                 current level subject, and is lowered in the current level subject, then add
++                 it to the set of dropped capabilities
++                 otherwise, add the current level subject's mask to the current computed mask
++               */
++              if (!cap_raised(cap_mask, cap) && cap_raised(curracl->cap_mask, cap)) {
++                      cap_raise(cap_mask, cap);
++                      if (cap_raised(curracl->cap_lower, cap))
++                              cap_raise(cap_drop, cap);
++              }
++      }
++
++      if (!cap_raised(cap_drop, cap))
++              return 1;
++
++      return 0;
++}
++
+diff --git a/grsecurity/gracl_fs.c b/grsecurity/gracl_fs.c
+new file mode 100644
+index 0000000..d5f210c
+--- /dev/null
++++ b/grsecurity/gracl_fs.c
+@@ -0,0 +1,433 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/types.h>
++#include <linux/fs.h>
++#include <linux/file.h>
++#include <linux/stat.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++#include <linux/gracl.h>
++
++__u32
++gr_acl_handle_hidden_file(const struct dentry * dentry,
++                        const struct vfsmount * mnt)
++{
++      __u32 mode;
++
++      if (unlikely(!dentry->d_inode))
++              return GR_FIND;
++
++      mode =
++          gr_search_file(dentry, GR_FIND | GR_AUDIT_FIND | GR_SUPPRESS, mnt);
++
++      if (unlikely(mode & GR_FIND && mode & GR_AUDIT_FIND)) {
++              gr_log_fs_rbac_generic(GR_DO_AUDIT, GR_HIDDEN_ACL_MSG, dentry, mnt);
++              return mode;
++      } else if (unlikely(!(mode & GR_FIND) && !(mode & GR_SUPPRESS))) {
++              gr_log_fs_rbac_generic(GR_DONT_AUDIT, GR_HIDDEN_ACL_MSG, dentry, mnt);
++              return 0;
++      } else if (unlikely(!(mode & GR_FIND)))
++              return 0;
++
++      return GR_FIND;
++}
++
++__u32
++gr_acl_handle_open(const struct dentry * dentry, const struct vfsmount * mnt,
++                 int acc_mode)
++{
++      __u32 reqmode = GR_FIND;
++      __u32 mode;
++
++      if (unlikely(!dentry->d_inode))
++              return reqmode;
++
++      if (acc_mode & MAY_APPEND)
++              reqmode |= GR_APPEND;
++      else if (acc_mode & MAY_WRITE)
++              reqmode |= GR_WRITE;
++      if ((acc_mode & MAY_READ) && !S_ISDIR(dentry->d_inode->i_mode))
++              reqmode |= GR_READ;
++
++      mode =
++          gr_search_file(dentry, reqmode | to_gr_audit(reqmode) | GR_SUPPRESS,
++                         mnt);
++
++      if (unlikely(((mode & reqmode) == reqmode) && mode & GR_AUDITS)) {
++              gr_log_fs_rbac_mode2(GR_DO_AUDIT, GR_OPEN_ACL_MSG, dentry, mnt,
++                             reqmode & GR_READ ? " reading" : "",
++                             reqmode & GR_WRITE ? " writing" : reqmode &
++                             GR_APPEND ? " appending" : "");
++              return reqmode;
++      } else
++          if (unlikely((mode & reqmode) != reqmode && !(mode & GR_SUPPRESS)))
++      {
++              gr_log_fs_rbac_mode2(GR_DONT_AUDIT, GR_OPEN_ACL_MSG, dentry, mnt,
++                             reqmode & GR_READ ? " reading" : "",
++                             reqmode & GR_WRITE ? " writing" : reqmode &
++                             GR_APPEND ? " appending" : "");
++              return 0;
++      } else if (unlikely((mode & reqmode) != reqmode))
++              return 0;
++
++      return reqmode;
++}
++
++__u32
++gr_acl_handle_creat(const struct dentry * dentry,
++                  const struct dentry * p_dentry,
++                  const struct vfsmount * p_mnt, int open_flags, int acc_mode,
++                  const int imode)
++{
++      __u32 reqmode = GR_WRITE | GR_CREATE;
++      __u32 mode;
++
++      if (acc_mode & MAY_APPEND)
++              reqmode |= GR_APPEND;
++      // if a directory was required or the directory already exists, then
++      // don't count this open as a read
++      if ((acc_mode & MAY_READ) &&
++          !((open_flags & O_DIRECTORY) || (dentry->d_inode && S_ISDIR(dentry->d_inode->i_mode))))
++              reqmode |= GR_READ;
++      if ((open_flags & O_CREAT) && (imode & (S_ISUID | S_ISGID)))
++              reqmode |= GR_SETID;
++
++      mode =
++          gr_check_create(dentry, p_dentry, p_mnt,
++                          reqmode | to_gr_audit(reqmode) | GR_SUPPRESS);
++
++      if (unlikely(((mode & reqmode) == reqmode) && mode & GR_AUDITS)) {
++              gr_log_fs_rbac_mode2(GR_DO_AUDIT, GR_CREATE_ACL_MSG, dentry, p_mnt,
++                             reqmode & GR_READ ? " reading" : "",
++                             reqmode & GR_WRITE ? " writing" : reqmode &
++                             GR_APPEND ? " appending" : "");
++              return reqmode;
++      } else
++          if (unlikely((mode & reqmode) != reqmode && !(mode & GR_SUPPRESS)))
++      {
++              gr_log_fs_rbac_mode2(GR_DONT_AUDIT, GR_CREATE_ACL_MSG, dentry, p_mnt,
++                             reqmode & GR_READ ? " reading" : "",
++                             reqmode & GR_WRITE ? " writing" : reqmode &
++                             GR_APPEND ? " appending" : "");
++              return 0;
++      } else if (unlikely((mode & reqmode) != reqmode))
++              return 0;
++
++      return reqmode;
++}
++
++__u32
++gr_acl_handle_access(const struct dentry * dentry, const struct vfsmount * mnt,
++                   const int fmode)
++{
++      __u32 mode, reqmode = GR_FIND;
++
++      if ((fmode & S_IXOTH) && !S_ISDIR(dentry->d_inode->i_mode))
++              reqmode |= GR_EXEC;
++      if (fmode & S_IWOTH)
++              reqmode |= GR_WRITE;
++      if (fmode & S_IROTH)
++              reqmode |= GR_READ;
++
++      mode =
++          gr_search_file(dentry, reqmode | to_gr_audit(reqmode) | GR_SUPPRESS,
++                         mnt);
++
++      if (unlikely(((mode & reqmode) == reqmode) && mode & GR_AUDITS)) {
++              gr_log_fs_rbac_mode3(GR_DO_AUDIT, GR_ACCESS_ACL_MSG, dentry, mnt,
++                             reqmode & GR_READ ? " reading" : "",
++                             reqmode & GR_WRITE ? " writing" : "",
++                             reqmode & GR_EXEC ? " executing" : "");
++              return reqmode;
++      } else
++          if (unlikely((mode & reqmode) != reqmode && !(mode & GR_SUPPRESS)))
++      {
++              gr_log_fs_rbac_mode3(GR_DONT_AUDIT, GR_ACCESS_ACL_MSG, dentry, mnt,
++                             reqmode & GR_READ ? " reading" : "",
++                             reqmode & GR_WRITE ? " writing" : "",
++                             reqmode & GR_EXEC ? " executing" : "");
++              return 0;
++      } else if (unlikely((mode & reqmode) != reqmode))
++              return 0;
++
++      return reqmode;
++}
++
++static __u32 generic_fs_handler(const struct dentry *dentry, const struct vfsmount *mnt, __u32 reqmode, const char *fmt)
++{
++      __u32 mode;
++
++      mode = gr_search_file(dentry, reqmode | to_gr_audit(reqmode) | GR_SUPPRESS, mnt);
++
++      if (unlikely(((mode & (reqmode)) == (reqmode)) && mode & GR_AUDITS)) {
++              gr_log_fs_rbac_generic(GR_DO_AUDIT, fmt, dentry, mnt);
++              return mode;
++      } else if (unlikely((mode & (reqmode)) != (reqmode) && !(mode & GR_SUPPRESS))) {
++              gr_log_fs_rbac_generic(GR_DONT_AUDIT, fmt, dentry, mnt);
++              return 0;
++      } else if (unlikely((mode & (reqmode)) != (reqmode)))
++              return 0;
++
++      return (reqmode);
++}
++
++__u32
++gr_acl_handle_rmdir(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_WRITE | GR_DELETE , GR_RMDIR_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_unlink(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_WRITE | GR_DELETE , GR_UNLINK_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_truncate(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_WRITE, GR_TRUNCATE_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_utime(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_WRITE, GR_ATIME_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_fchmod(const struct dentry *dentry, const struct vfsmount *mnt,
++                   mode_t mode)
++{
++      if (unlikely(dentry->d_inode && S_ISSOCK(dentry->d_inode->i_mode)))
++              return 1;
++
++      if (unlikely((mode != (mode_t)-1) && (mode & (S_ISUID | S_ISGID)))) {
++              return generic_fs_handler(dentry, mnt, GR_WRITE | GR_SETID,
++                                 GR_FCHMOD_ACL_MSG);
++      } else {
++              return generic_fs_handler(dentry, mnt, GR_WRITE, GR_FCHMOD_ACL_MSG);
++      }
++}
++
++__u32
++gr_acl_handle_chmod(const struct dentry *dentry, const struct vfsmount *mnt,
++                  mode_t mode)
++{
++      if (unlikely((mode != (mode_t)-1) && (mode & (S_ISUID | S_ISGID)))) {
++              return generic_fs_handler(dentry, mnt, GR_WRITE | GR_SETID,
++                                 GR_CHMOD_ACL_MSG);
++      } else {
++              return generic_fs_handler(dentry, mnt, GR_WRITE, GR_CHMOD_ACL_MSG);
++      }
++}
++
++__u32
++gr_acl_handle_chown(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_WRITE, GR_CHOWN_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_setxattr(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_WRITE, GR_SETXATTR_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_execve(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_EXEC, GR_EXEC_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_unix(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return generic_fs_handler(dentry, mnt, GR_READ | GR_WRITE,
++                         GR_UNIXCONNECT_ACL_MSG);
++}
++
++/* hardlinks require at minimum create and link permission,
++   any additional privilege required is based on the
++   privilege of the file being linked to
++*/
++__u32
++gr_acl_handle_link(const struct dentry * new_dentry,
++                 const struct dentry * parent_dentry,
++                 const struct vfsmount * parent_mnt,
++                 const struct dentry * old_dentry,
++                 const struct vfsmount * old_mnt, const char *to)
++{
++      __u32 mode;
++      __u32 needmode = GR_CREATE | GR_LINK;
++      __u32 needaudit = GR_AUDIT_CREATE | GR_AUDIT_LINK;
++
++      mode =
++          gr_check_link(new_dentry, parent_dentry, parent_mnt, old_dentry,
++                        old_mnt);
++
++      if (unlikely(((mode & needmode) == needmode) && (mode & needaudit))) {
++              gr_log_fs_rbac_str(GR_DO_AUDIT, GR_LINK_ACL_MSG, old_dentry, old_mnt, to);
++              return mode;
++      } else if (unlikely(((mode & needmode) != needmode) && !(mode & GR_SUPPRESS))) {
++              gr_log_fs_rbac_str(GR_DONT_AUDIT, GR_LINK_ACL_MSG, old_dentry, old_mnt, to);
++              return 0;
++      } else if (unlikely((mode & needmode) != needmode))
++              return 0;
++
++      return 1;
++}
++
++__u32
++gr_acl_handle_symlink(const struct dentry * new_dentry,
++                    const struct dentry * parent_dentry,
++                    const struct vfsmount * parent_mnt, const char *from)
++{
++      __u32 needmode = GR_WRITE | GR_CREATE;
++      __u32 mode;
++
++      mode =
++          gr_check_create(new_dentry, parent_dentry, parent_mnt,
++                          GR_CREATE | GR_AUDIT_CREATE |
++                          GR_WRITE | GR_AUDIT_WRITE | GR_SUPPRESS);
++
++      if (unlikely(mode & GR_WRITE && mode & GR_AUDITS)) {
++              gr_log_fs_str_rbac(GR_DO_AUDIT, GR_SYMLINK_ACL_MSG, from, new_dentry, parent_mnt);
++              return mode;
++      } else if (unlikely(((mode & needmode) != needmode) && !(mode & GR_SUPPRESS))) {
++              gr_log_fs_str_rbac(GR_DONT_AUDIT, GR_SYMLINK_ACL_MSG, from, new_dentry, parent_mnt);
++              return 0;
++      } else if (unlikely((mode & needmode) != needmode))
++              return 0;
++
++      return (GR_WRITE | GR_CREATE);
++}
++
++static __u32 generic_fs_create_handler(const struct dentry *new_dentry, const struct dentry *parent_dentry, const struct vfsmount *parent_mnt, __u32 reqmode, const char *fmt)
++{
++      __u32 mode;
++
++      mode = gr_check_create(new_dentry, parent_dentry, parent_mnt, reqmode | to_gr_audit(reqmode) | GR_SUPPRESS);
++
++      if (unlikely(((mode & (reqmode)) == (reqmode)) && mode & GR_AUDITS)) {
++              gr_log_fs_rbac_generic(GR_DO_AUDIT, fmt, new_dentry, parent_mnt);
++              return mode;
++      } else if (unlikely((mode & (reqmode)) != (reqmode) && !(mode & GR_SUPPRESS))) {
++              gr_log_fs_rbac_generic(GR_DONT_AUDIT, fmt, new_dentry, parent_mnt);
++              return 0;
++      } else if (unlikely((mode & (reqmode)) != (reqmode)))
++              return 0;
++
++      return (reqmode);
++}
++
++__u32
++gr_acl_handle_mknod(const struct dentry * new_dentry,
++                  const struct dentry * parent_dentry,
++                  const struct vfsmount * parent_mnt,
++                  const int mode)
++{
++      __u32 reqmode = GR_WRITE | GR_CREATE;
++      if (unlikely(mode & (S_ISUID | S_ISGID)))
++              reqmode |= GR_SETID;
++
++      return generic_fs_create_handler(new_dentry, parent_dentry, parent_mnt,
++                                reqmode, GR_MKNOD_ACL_MSG);
++}
++
++__u32
++gr_acl_handle_mkdir(const struct dentry *new_dentry,
++                  const struct dentry *parent_dentry,
++                  const struct vfsmount *parent_mnt)
++{
++      return generic_fs_create_handler(new_dentry, parent_dentry, parent_mnt,
++                                GR_WRITE | GR_CREATE, GR_MKDIR_ACL_MSG);
++}
++
++#define RENAME_CHECK_SUCCESS(old, new) \
++      (((old & (GR_WRITE | GR_READ)) == (GR_WRITE | GR_READ)) && \
++       ((new & (GR_WRITE | GR_READ)) == (GR_WRITE | GR_READ)))
++
++int
++gr_acl_handle_rename(struct dentry *new_dentry,
++                   struct dentry *parent_dentry,
++                   const struct vfsmount *parent_mnt,
++                   struct dentry *old_dentry,
++                   struct inode *old_parent_inode,
++                   struct vfsmount *old_mnt, const char *newname)
++{
++      __u32 comp1, comp2;
++      int error = 0;
++
++      if (unlikely(!gr_acl_is_enabled()))
++              return 0;
++
++      if (!new_dentry->d_inode) {
++              comp1 = gr_check_create(new_dentry, parent_dentry, parent_mnt,
++                                      GR_READ | GR_WRITE | GR_CREATE | GR_AUDIT_READ |
++                                      GR_AUDIT_WRITE | GR_AUDIT_CREATE | GR_SUPPRESS);
++              comp2 = gr_search_file(old_dentry, GR_READ | GR_WRITE |
++                                     GR_DELETE | GR_AUDIT_DELETE |
++                                     GR_AUDIT_READ | GR_AUDIT_WRITE |
++                                     GR_SUPPRESS, old_mnt);
++      } else {
++              comp1 = gr_search_file(new_dentry, GR_READ | GR_WRITE |
++                                     GR_CREATE | GR_DELETE |
++                                     GR_AUDIT_CREATE | GR_AUDIT_DELETE |
++                                     GR_AUDIT_READ | GR_AUDIT_WRITE |
++                                     GR_SUPPRESS, parent_mnt);
++              comp2 =
++                  gr_search_file(old_dentry,
++                                 GR_READ | GR_WRITE | GR_AUDIT_READ |
++                                 GR_DELETE | GR_AUDIT_DELETE |
++                                 GR_AUDIT_WRITE | GR_SUPPRESS, old_mnt);
++      }
++
++      if (RENAME_CHECK_SUCCESS(comp1, comp2) &&
++          ((comp1 & GR_AUDITS) || (comp2 & GR_AUDITS)))
++              gr_log_fs_rbac_str(GR_DO_AUDIT, GR_RENAME_ACL_MSG, old_dentry, old_mnt, newname);
++      else if (!RENAME_CHECK_SUCCESS(comp1, comp2) && !(comp1 & GR_SUPPRESS)
++               && !(comp2 & GR_SUPPRESS)) {
++              gr_log_fs_rbac_str(GR_DONT_AUDIT, GR_RENAME_ACL_MSG, old_dentry, old_mnt, newname);
++              error = -EACCES;
++      } else if (unlikely(!RENAME_CHECK_SUCCESS(comp1, comp2)))
++              error = -EACCES;
++
++      return error;
++}
++
++void
++gr_acl_handle_exit(void)
++{
++      u16 id;
++      char *rolename;
++      struct file *exec_file;
++
++      if (unlikely(current->acl_sp_role && gr_acl_is_enabled() && 
++                   !(current->role->roletype & GR_ROLE_PERSIST))) {
++              id = current->acl_role_id;
++              rolename = current->role->rolename;
++              gr_set_acls(1);
++              gr_log_str_int(GR_DONT_AUDIT_GOOD, GR_SPROLEL_ACL_MSG, rolename, id);
++      }
++
++      write_lock(&grsec_exec_file_lock);
++      exec_file = current->exec_file;
++      current->exec_file = NULL;
++      write_unlock(&grsec_exec_file_lock);
++
++      if (exec_file)
++              fput(exec_file);
++}
++
++int
++gr_acl_handle_procpidmem(const struct task_struct *task)
++{
++      if (unlikely(!gr_acl_is_enabled()))
++              return 0;
++
++      if (task != current && task->acl->mode & GR_PROTPROCFD)
++              return -EACCES;
++
++      return 0;
++}
+diff --git a/grsecurity/gracl_ip.c b/grsecurity/gracl_ip.c
+new file mode 100644
+index 0000000..cd07b96
+--- /dev/null
++++ b/grsecurity/gracl_ip.c
+@@ -0,0 +1,382 @@
++#include <linux/kernel.h>
++#include <asm/uaccess.h>
++#include <asm/errno.h>
++#include <net/sock.h>
++#include <linux/file.h>
++#include <linux/fs.h>
++#include <linux/net.h>
++#include <linux/in.h>
++#include <linux/skbuff.h>
++#include <linux/ip.h>
++#include <linux/udp.h>
++#include <linux/smp_lock.h>
++#include <linux/types.h>
++#include <linux/sched.h>
++#include <linux/netdevice.h>
++#include <linux/inetdevice.h>
++#include <linux/gracl.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++#define GR_BIND                       0x01
++#define GR_CONNECT            0x02
++#define GR_INVERT             0x04
++#define GR_BINDOVERRIDE               0x08
++#define GR_CONNECTOVERRIDE    0x10
++#define GR_SOCK_FAMILY                0x20
++
++static const char * gr_protocols[IPPROTO_MAX] = {
++      "ip", "icmp", "igmp", "ggp", "ipencap", "st", "tcp", "cbt",
++      "egp", "igp", "bbn-rcc", "nvp", "pup", "argus", "emcon", "xnet",
++      "chaos", "udp", "mux", "dcn", "hmp", "prm", "xns-idp", "trunk-1",
++      "trunk-2", "leaf-1", "leaf-2", "rdp", "irtp", "iso-tp4", "netblt", "mfe-nsp",
++      "merit-inp", "sep", "3pc", "idpr", "xtp", "ddp", "idpr-cmtp", "tp++",
++      "il", "ipv6", "sdrp", "ipv6-route", "ipv6-frag", "idrp", "rsvp", "gre",
++      "mhrp", "bna", "ipv6-crypt", "ipv6-auth", "i-nlsp", "swipe", "narp", "mobile",
++      "tlsp", "skip", "ipv6-icmp", "ipv6-nonxt", "ipv6-opts", "unknown:61", "cftp", "unknown:63",
++      "sat-expak", "kryptolan", "rvd", "ippc", "unknown:68", "sat-mon", "visa", "ipcv",
++      "cpnx", "cphb", "wsn", "pvp", "br-sat-mon", "sun-nd", "wb-mon", "wb-expak", 
++      "iso-ip", "vmtp", "secure-vmtp", "vines", "ttp", "nfsnet-igp", "dgp", "tcf", 
++      "eigrp", "ospf", "sprite-rpc", "larp", "mtp", "ax.25", "ipip", "micp",
++      "scc-sp", "etherip", "encap", "unknown:99", "gmtp", "ifmp", "pnni", "pim",
++      "aris", "scps", "qnx", "a/n", "ipcomp", "snp", "compaq-peer", "ipx-in-ip",
++      "vrrp", "pgm", "unknown:114", "l2tp", "ddx", "iatp", "stp", "srp",
++      "uti", "smp", "sm", "ptp", "isis", "fire", "crtp", "crdup",
++      "sscopmce", "iplt", "sps", "pipe", "sctp", "fc", "unkown:134", "unknown:135",
++      "unknown:136", "unknown:137", "unknown:138", "unknown:139", "unknown:140", "unknown:141", "unknown:142", "unknown:143",
++      "unknown:144", "unknown:145", "unknown:146", "unknown:147", "unknown:148", "unknown:149", "unknown:150", "unknown:151",
++      "unknown:152", "unknown:153", "unknown:154", "unknown:155", "unknown:156", "unknown:157", "unknown:158", "unknown:159",
++      "unknown:160", "unknown:161", "unknown:162", "unknown:163", "unknown:164", "unknown:165", "unknown:166", "unknown:167",
++      "unknown:168", "unknown:169", "unknown:170", "unknown:171", "unknown:172", "unknown:173", "unknown:174", "unknown:175",
++      "unknown:176", "unknown:177", "unknown:178", "unknown:179", "unknown:180", "unknown:181", "unknown:182", "unknown:183",
++      "unknown:184", "unknown:185", "unknown:186", "unknown:187", "unknown:188", "unknown:189", "unknown:190", "unknown:191",
++      "unknown:192", "unknown:193", "unknown:194", "unknown:195", "unknown:196", "unknown:197", "unknown:198", "unknown:199",
++      "unknown:200", "unknown:201", "unknown:202", "unknown:203", "unknown:204", "unknown:205", "unknown:206", "unknown:207",
++      "unknown:208", "unknown:209", "unknown:210", "unknown:211", "unknown:212", "unknown:213", "unknown:214", "unknown:215",
++      "unknown:216", "unknown:217", "unknown:218", "unknown:219", "unknown:220", "unknown:221", "unknown:222", "unknown:223",
++      "unknown:224", "unknown:225", "unknown:226", "unknown:227", "unknown:228", "unknown:229", "unknown:230", "unknown:231",
++      "unknown:232", "unknown:233", "unknown:234", "unknown:235", "unknown:236", "unknown:237", "unknown:238", "unknown:239",
++      "unknown:240", "unknown:241", "unknown:242", "unknown:243", "unknown:244", "unknown:245", "unknown:246", "unknown:247",
++      "unknown:248", "unknown:249", "unknown:250", "unknown:251", "unknown:252", "unknown:253", "unknown:254", "unknown:255",
++      };
++
++static const char * gr_socktypes[SOCK_MAX] = {
++      "unknown:0", "stream", "dgram", "raw", "rdm", "seqpacket", "unknown:6", 
++      "unknown:7", "unknown:8", "unknown:9", "packet"
++      };
++
++static const char * gr_sockfamilies[AF_MAX+1] = {
++      "unspec", "unix", "inet", "ax25", "ipx", "appletalk", "netrom", "bridge", "atmpvc", "x25",
++      "inet6", "rose", "decnet", "netbeui", "security", "key", "netlink", "packet", "ash",
++      "econet", "atmsvc", "rds", "sna", "irda", "ppox", "wanpipe", "llc", "fam_27", "fam_28",
++      "tipc", "bluetooth", "iucv", "rxrpc", "isdn", "phonet", "ieee802154"
++      };
++
++const char *
++gr_proto_to_name(unsigned char proto)
++{
++      return gr_protocols[proto];
++}
++
++const char *
++gr_socktype_to_name(unsigned char type)
++{
++      return gr_socktypes[type];
++}
++
++const char *
++gr_sockfamily_to_name(unsigned char family)
++{
++      return gr_sockfamilies[family];
++}
++
++int
++gr_search_socket(const int domain, const int type, const int protocol)
++{
++      struct acl_subject_label *curr;
++      const struct cred *cred = current_cred();
++
++      if (unlikely(!gr_acl_is_enabled()))
++              goto exit;
++
++      if ((domain < 0) || (type < 0) || (protocol < 0) ||
++          (domain >= AF_MAX) || (type >= SOCK_MAX) || (protocol >= IPPROTO_MAX))
++              goto exit;      // let the kernel handle it
++
++      curr = current->acl;
++
++      if (curr->sock_families[domain / 32] & (1 << (domain % 32))) {
++              /* the family is allowed, if this is PF_INET allow it only if
++                 the extra sock type/protocol checks pass */
++              if (domain == PF_INET)
++                      goto inet_check;
++              goto exit;
++      } else {
++              if (curr->mode & (GR_LEARN | GR_INHERITLEARN)) {
++                      __u32 fakeip = 0;
++                      security_learn(GR_IP_LEARN_MSG, current->role->rolename,
++                                     current->role->roletype, cred->uid,
++                                     cred->gid, current->exec_file ?
++                                     gr_to_filename(current->exec_file->f_path.dentry,
++                                     current->exec_file->f_path.mnt) :
++                                     curr->filename, curr->filename,
++                                     &fakeip, domain, 0, 0, GR_SOCK_FAMILY,
++                                     &current->signal->saved_ip);
++                      goto exit;
++              }
++              goto exit_fail;
++      }
++
++inet_check:
++      /* the rest of this checking is for IPv4 only */
++      if (!curr->ips)
++              goto exit;
++
++      if ((curr->ip_type & (1 << type)) &&
++          (curr->ip_proto[protocol / 32] & (1 << (protocol % 32))))
++              goto exit;
++
++      if (curr->mode & (GR_LEARN | GR_INHERITLEARN)) {
++              /* we don't place acls on raw sockets , and sometimes
++                 dgram/ip sockets are opened for ioctl and not
++                 bind/connect, so we'll fake a bind learn log */
++              if (type == SOCK_RAW || type == SOCK_PACKET) {
++                      __u32 fakeip = 0;
++                      security_learn(GR_IP_LEARN_MSG, current->role->rolename,
++                                     current->role->roletype, cred->uid,
++                                     cred->gid, current->exec_file ?
++                                     gr_to_filename(current->exec_file->f_path.dentry,
++                                     current->exec_file->f_path.mnt) :
++                                     curr->filename, curr->filename,
++                                     &fakeip, 0, type,
++                                     protocol, GR_CONNECT, &current->signal->saved_ip);
++              } else if ((type == SOCK_DGRAM) && (protocol == IPPROTO_IP)) {
++                      __u32 fakeip = 0;
++                      security_learn(GR_IP_LEARN_MSG, current->role->rolename,
++                                     current->role->roletype, cred->uid,
++                                     cred->gid, current->exec_file ?
++                                     gr_to_filename(current->exec_file->f_path.dentry,
++                                     current->exec_file->f_path.mnt) :
++                                     curr->filename, curr->filename,
++                                     &fakeip, 0, type,
++                                     protocol, GR_BIND, &current->signal->saved_ip);
++              }
++              /* we'll log when they use connect or bind */
++              goto exit;
++      }
++
++exit_fail:
++      if (domain == PF_INET)
++              gr_log_str3(GR_DONT_AUDIT, GR_SOCK_MSG, gr_sockfamily_to_name(domain), 
++                          gr_socktype_to_name(type), gr_proto_to_name(protocol));
++      else
++              gr_log_str2_int(GR_DONT_AUDIT, GR_SOCK_NOINET_MSG, gr_sockfamily_to_name(domain), 
++                          gr_socktype_to_name(type), protocol);
++
++      return 0;
++exit:
++      return 1;
++}
++
++int check_ip_policy(struct acl_ip_label *ip, __u32 ip_addr, __u16 ip_port, __u8 protocol, const int mode, const int type, __u32 our_addr, __u32 our_netmask)
++{
++      if ((ip->mode & mode) &&
++          (ip_port >= ip->low) &&
++          (ip_port <= ip->high) &&
++          ((ntohl(ip_addr) & our_netmask) ==
++           (ntohl(our_addr) & our_netmask))
++          && (ip->proto[protocol / 32] & (1 << (protocol % 32)))
++          && (ip->type & (1 << type))) {
++              if (ip->mode & GR_INVERT)
++                      return 2; // specifically denied
++              else
++                      return 1; // allowed
++      }
++
++      return 0; // not specifically allowed, may continue parsing
++}
++
++static int
++gr_search_connectbind(const int full_mode, struct sock *sk,
++                    struct sockaddr_in *addr, const int type)
++{
++      char iface[IFNAMSIZ] = {0};
++      struct acl_subject_label *curr;
++      struct acl_ip_label *ip;
++      struct inet_sock *isk;
++      struct net_device *dev;
++      struct in_device *idev;
++      unsigned long i;
++      int ret;
++      int mode = full_mode & (GR_BIND | GR_CONNECT);
++      __u32 ip_addr = 0;
++      __u32 our_addr;
++      __u32 our_netmask;
++      char *p;
++      __u16 ip_port = 0;
++      const struct cred *cred = current_cred();
++
++      if (unlikely(!gr_acl_is_enabled() || sk->sk_family != PF_INET))
++              return 0;
++
++      curr = current->acl;
++      isk = inet_sk(sk);
++
++      /* INADDR_ANY overriding for binds, inaddr_any_override is already in network order */
++      if ((full_mode & GR_BINDOVERRIDE) && addr->sin_addr.s_addr == htonl(INADDR_ANY) && curr->inaddr_any_override != 0)
++              addr->sin_addr.s_addr = curr->inaddr_any_override;
++      if ((full_mode & GR_CONNECT) && isk->saddr == htonl(INADDR_ANY) && curr->inaddr_any_override != 0) {
++              struct sockaddr_in saddr;
++              int err;
++
++              saddr.sin_family = AF_INET;
++              saddr.sin_addr.s_addr = curr->inaddr_any_override;
++              saddr.sin_port = isk->sport;
++
++              err = security_socket_bind(sk->sk_socket, (struct sockaddr *)&saddr, sizeof(struct sockaddr_in));
++              if (err)
++                      return err;
++
++              err = sk->sk_socket->ops->bind(sk->sk_socket, (struct sockaddr *)&saddr, sizeof(struct sockaddr_in));
++              if (err)
++                      return err;
++      }
++
++      if (!curr->ips)
++              return 0;
++
++      ip_addr = addr->sin_addr.s_addr;
++      ip_port = ntohs(addr->sin_port);
++
++      if (curr->mode & (GR_LEARN | GR_INHERITLEARN)) {
++              security_learn(GR_IP_LEARN_MSG, current->role->rolename,
++                             current->role->roletype, cred->uid,
++                             cred->gid, current->exec_file ?
++                             gr_to_filename(current->exec_file->f_path.dentry,
++                             current->exec_file->f_path.mnt) :
++                             curr->filename, curr->filename,
++                             &ip_addr, ip_port, type,
++                             sk->sk_protocol, mode, &current->signal->saved_ip);
++              return 0;
++      }
++
++      for (i = 0; i < curr->ip_num; i++) {
++              ip = *(curr->ips + i);
++              if (ip->iface != NULL) {
++                      strncpy(iface, ip->iface, IFNAMSIZ - 1);
++                      p = strchr(iface, ':');
++                      if (p != NULL)
++                              *p = '\0';
++                      dev = dev_get_by_name(sock_net(sk), iface);
++                      if (dev == NULL)
++                              continue;
++                      idev = in_dev_get(dev);
++                      if (idev == NULL) {
++                              dev_put(dev);
++                              continue;
++                      }
++                      rcu_read_lock();
++                      for_ifa(idev) {
++                              if (!strcmp(ip->iface, ifa->ifa_label)) {
++                                      our_addr = ifa->ifa_address;
++                                      our_netmask = 0xffffffff;
++                                      ret = check_ip_policy(ip, ip_addr, ip_port, sk->sk_protocol, mode, type, our_addr, our_netmask);
++                                      if (ret == 1) {
++                                              rcu_read_unlock();
++                                              in_dev_put(idev);
++                                              dev_put(dev);
++                                              return 0;
++                                      } else if (ret == 2) {
++                                              rcu_read_unlock();
++                                              in_dev_put(idev);
++                                              dev_put(dev);
++                                              goto denied;
++                                      }
++                              }
++                      } endfor_ifa(idev);
++                      rcu_read_unlock();
++                      in_dev_put(idev);
++                      dev_put(dev);
++              } else {
++                      our_addr = ip->addr;
++                      our_netmask = ip->netmask;
++                      ret = check_ip_policy(ip, ip_addr, ip_port, sk->sk_protocol, mode, type, our_addr, our_netmask);
++                      if (ret == 1)
++                              return 0;
++                      else if (ret == 2)
++                              goto denied;
++              }
++      }
++
++denied:
++      if (mode == GR_BIND)
++              gr_log_int5_str2(GR_DONT_AUDIT, GR_BIND_ACL_MSG, &ip_addr, ip_port, gr_socktype_to_name(type), gr_proto_to_name(sk->sk_protocol));
++      else if (mode == GR_CONNECT)
++              gr_log_int5_str2(GR_DONT_AUDIT, GR_CONNECT_ACL_MSG, &ip_addr, ip_port, gr_socktype_to_name(type), gr_proto_to_name(sk->sk_protocol));
++
++      return -EACCES;
++}
++
++int
++gr_search_connect(struct socket *sock, struct sockaddr_in *addr)
++{
++      return gr_search_connectbind(GR_CONNECT | GR_CONNECTOVERRIDE, sock->sk, addr, sock->type);
++}
++
++int
++gr_search_bind(struct socket *sock, struct sockaddr_in *addr)
++{
++      return gr_search_connectbind(GR_BIND | GR_BINDOVERRIDE, sock->sk, addr, sock->type);
++}
++
++int gr_search_listen(struct socket *sock)
++{
++      struct sock *sk = sock->sk;
++      struct sockaddr_in addr;
++
++      addr.sin_addr.s_addr = inet_sk(sk)->saddr;
++      addr.sin_port = inet_sk(sk)->sport;
++
++      return gr_search_connectbind(GR_BIND | GR_CONNECTOVERRIDE, sock->sk, &addr, sock->type);
++}
++
++int gr_search_accept(struct socket *sock)
++{
++      struct sock *sk = sock->sk;
++      struct sockaddr_in addr;
++
++      addr.sin_addr.s_addr = inet_sk(sk)->saddr;
++      addr.sin_port = inet_sk(sk)->sport;
++
++      return gr_search_connectbind(GR_BIND | GR_CONNECTOVERRIDE, sock->sk, &addr, sock->type);
++}
++
++int
++gr_search_udp_sendmsg(struct sock *sk, struct sockaddr_in *addr)
++{
++      if (addr)
++              return gr_search_connectbind(GR_CONNECT, sk, addr, SOCK_DGRAM);
++      else {
++              struct sockaddr_in sin;
++              const struct inet_sock *inet = inet_sk(sk);
++
++              sin.sin_addr.s_addr = inet->daddr;
++              sin.sin_port = inet->dport;
++
++              return gr_search_connectbind(GR_CONNECT | GR_CONNECTOVERRIDE, sk, &sin, SOCK_DGRAM);
++      }
++}
++
++int
++gr_search_udp_recvmsg(struct sock *sk, const struct sk_buff *skb)
++{
++      struct sockaddr_in sin;
++
++      if (unlikely(skb->len < sizeof (struct udphdr)))
++              return 0;       // skip this packet
++
++      sin.sin_addr.s_addr = ip_hdr(skb)->saddr;
++      sin.sin_port = udp_hdr(skb)->source;
++
++      return gr_search_connectbind(GR_CONNECT | GR_CONNECTOVERRIDE, sk, &sin, SOCK_DGRAM);
++}
+diff --git a/grsecurity/gracl_learn.c b/grsecurity/gracl_learn.c
+new file mode 100644
+index 0000000..34bdd46
+--- /dev/null
++++ b/grsecurity/gracl_learn.c
+@@ -0,0 +1,208 @@
++#include <linux/kernel.h>
++#include <linux/mm.h>
++#include <linux/sched.h>
++#include <linux/poll.h>
++#include <linux/smp_lock.h>
++#include <linux/string.h>
++#include <linux/file.h>
++#include <linux/types.h>
++#include <linux/vmalloc.h>
++#include <linux/grinternal.h>
++
++extern ssize_t write_grsec_handler(struct file * file, const char __user * buf,
++                                 size_t count, loff_t *ppos);
++extern int gr_acl_is_enabled(void);
++
++static DECLARE_WAIT_QUEUE_HEAD(learn_wait);
++static int gr_learn_attached;
++
++/* use a 512k buffer */
++#define LEARN_BUFFER_SIZE (512 * 1024)
++
++static DEFINE_SPINLOCK(gr_learn_lock);
++static DEFINE_MUTEX(gr_learn_user_mutex);
++
++/* we need to maintain two buffers, so that the kernel context of grlearn
++   uses a semaphore around the userspace copying, and the other kernel contexts
++   use a spinlock when copying into the buffer, since they cannot sleep
++*/
++static char *learn_buffer;
++static char *learn_buffer_user;
++static int learn_buffer_len;
++static int learn_buffer_user_len;
++
++static ssize_t
++read_learn(struct file *file, char __user * buf, size_t count, loff_t * ppos)
++{
++      DECLARE_WAITQUEUE(wait, current);
++      ssize_t retval = 0;
++
++      add_wait_queue(&learn_wait, &wait);
++      set_current_state(TASK_INTERRUPTIBLE);
++      do {
++              mutex_lock(&gr_learn_user_mutex);
++              spin_lock(&gr_learn_lock);
++              if (learn_buffer_len)
++                      break;
++              spin_unlock(&gr_learn_lock);
++              mutex_unlock(&gr_learn_user_mutex);
++              if (file->f_flags & O_NONBLOCK) {
++                      retval = -EAGAIN;
++                      goto out;
++              }
++              if (signal_pending(current)) {
++                      retval = -ERESTARTSYS;
++                      goto out;
++              }
++
++              schedule();
++      } while (1);
++
++      memcpy(learn_buffer_user, learn_buffer, learn_buffer_len);
++      learn_buffer_user_len = learn_buffer_len;
++      retval = learn_buffer_len;
++      learn_buffer_len = 0;
++
++      spin_unlock(&gr_learn_lock);
++
++      if (copy_to_user(buf, learn_buffer_user, learn_buffer_user_len))
++              retval = -EFAULT;
++
++      mutex_unlock(&gr_learn_user_mutex);
++out:
++      set_current_state(TASK_RUNNING);
++      remove_wait_queue(&learn_wait, &wait);
++      return retval;
++}
++
++static unsigned int
++poll_learn(struct file * file, poll_table * wait)
++{
++      poll_wait(file, &learn_wait, wait);
++
++      if (learn_buffer_len)
++              return (POLLIN | POLLRDNORM);
++
++      return 0;
++}
++
++void
++gr_clear_learn_entries(void)
++{
++      char *tmp;
++
++      mutex_lock(&gr_learn_user_mutex);
++      spin_lock(&gr_learn_lock);
++      tmp = learn_buffer;
++      learn_buffer = NULL;
++      spin_unlock(&gr_learn_lock);
++      if (tmp)
++              vfree(tmp);
++      if (learn_buffer_user != NULL) {
++              vfree(learn_buffer_user);
++              learn_buffer_user = NULL;
++      }
++      learn_buffer_len = 0;
++      mutex_unlock(&gr_learn_user_mutex);
++
++      return;
++}
++
++void
++gr_add_learn_entry(const char *fmt, ...)
++{
++      va_list args;
++      unsigned int len;
++
++      if (!gr_learn_attached)
++              return;
++
++      spin_lock(&gr_learn_lock);
++
++      /* leave a gap at the end so we know when it's "full" but don't have to
++         compute the exact length of the string we're trying to append
++      */
++      if (learn_buffer_len > LEARN_BUFFER_SIZE - 16384) {
++              spin_unlock(&gr_learn_lock);
++              wake_up_interruptible(&learn_wait);
++              return;
++      }
++      if (learn_buffer == NULL) {
++              spin_unlock(&gr_learn_lock);
++              return;
++      }
++
++      va_start(args, fmt);
++      len = vsnprintf(learn_buffer + learn_buffer_len, LEARN_BUFFER_SIZE - learn_buffer_len, fmt, args);
++      va_end(args);
++
++      learn_buffer_len += len + 1;
++
++      spin_unlock(&gr_learn_lock);
++      wake_up_interruptible(&learn_wait);
++
++      return;
++}
++
++static int
++open_learn(struct inode *inode, struct file *file)
++{
++      if (file->f_mode & FMODE_READ && gr_learn_attached)
++              return -EBUSY;
++      if (file->f_mode & FMODE_READ) {
++              int retval = 0;
++              mutex_lock(&gr_learn_user_mutex);
++              if (learn_buffer == NULL)
++                      learn_buffer = vmalloc(LEARN_BUFFER_SIZE);
++              if (learn_buffer_user == NULL)
++                      learn_buffer_user = vmalloc(LEARN_BUFFER_SIZE);
++              if (learn_buffer == NULL) {
++                      retval = -ENOMEM;
++                      goto out_error;
++              }
++              if (learn_buffer_user == NULL) {
++                      retval = -ENOMEM;
++                      goto out_error;
++              }
++              learn_buffer_len = 0;
++              learn_buffer_user_len = 0;
++              gr_learn_attached = 1;
++out_error:
++              mutex_unlock(&gr_learn_user_mutex);
++              return retval;
++      }
++      return 0;
++}
++
++static int
++close_learn(struct inode *inode, struct file *file)
++{
++      if (file->f_mode & FMODE_READ) {
++              char *tmp = NULL;
++              mutex_lock(&gr_learn_user_mutex);
++              spin_lock(&gr_learn_lock);
++              tmp = learn_buffer;
++              learn_buffer = NULL;
++              spin_unlock(&gr_learn_lock);
++              if (tmp)
++                      vfree(tmp);
++              if (learn_buffer_user != NULL) {
++                      vfree(learn_buffer_user);
++                      learn_buffer_user = NULL;
++              }
++              learn_buffer_len = 0;
++              learn_buffer_user_len = 0;
++              gr_learn_attached = 0;
++              mutex_unlock(&gr_learn_user_mutex);
++      }
++
++      return 0;
++}
++              
++const struct file_operations grsec_fops = {
++      .read           = read_learn,
++      .write          = write_grsec_handler,
++      .open           = open_learn,
++      .release        = close_learn,
++      .poll           = poll_learn,
++};
+diff --git a/grsecurity/gracl_res.c b/grsecurity/gracl_res.c
+new file mode 100644
+index 0000000..70b2179
+--- /dev/null
++++ b/grsecurity/gracl_res.c
+@@ -0,0 +1,67 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/gracl.h>
++#include <linux/grinternal.h>
++
++static const char *restab_log[] = {
++      [RLIMIT_CPU] = "RLIMIT_CPU",
++      [RLIMIT_FSIZE] = "RLIMIT_FSIZE",
++      [RLIMIT_DATA] = "RLIMIT_DATA",
++      [RLIMIT_STACK] = "RLIMIT_STACK",
++      [RLIMIT_CORE] = "RLIMIT_CORE",
++      [RLIMIT_RSS] = "RLIMIT_RSS",
++      [RLIMIT_NPROC] = "RLIMIT_NPROC",
++      [RLIMIT_NOFILE] = "RLIMIT_NOFILE",
++      [RLIMIT_MEMLOCK] = "RLIMIT_MEMLOCK",
++      [RLIMIT_AS] = "RLIMIT_AS",
++      [RLIMIT_LOCKS] = "RLIMIT_LOCKS",
++      [RLIMIT_SIGPENDING] = "RLIMIT_SIGPENDING",
++      [RLIMIT_MSGQUEUE] = "RLIMIT_MSGQUEUE",
++      [RLIMIT_NICE] = "RLIMIT_NICE",
++      [RLIMIT_RTPRIO] = "RLIMIT_RTPRIO",
++      [RLIMIT_RTTIME] = "RLIMIT_RTTIME",
++      [GR_CRASH_RES] = "RLIMIT_CRASH"
++};
++
++void
++gr_log_resource(const struct task_struct *task,
++              const int res, const unsigned long wanted, const int gt)
++{
++      const struct cred *cred;
++      unsigned long rlim;
++
++      if (!gr_acl_is_enabled() && !grsec_resource_logging)
++              return;
++
++      // not yet supported resource
++      if (unlikely(!restab_log[res]))
++              return;
++
++      if (res == RLIMIT_CPU || res == RLIMIT_RTTIME)
++              rlim = task->signal->rlim[res].rlim_max;
++      else
++              rlim = task->signal->rlim[res].rlim_cur;
++      if (likely((rlim == RLIM_INFINITY) || (gt && wanted <= rlim) || (!gt && wanted < rlim)))
++              return;
++
++      rcu_read_lock();
++      cred = __task_cred(task);
++
++      if (res == RLIMIT_NPROC && 
++          (cap_raised(cred->cap_effective, CAP_SYS_ADMIN) || 
++           cap_raised(cred->cap_effective, CAP_SYS_RESOURCE)))
++              goto out_rcu_unlock;
++      else if (res == RLIMIT_MEMLOCK &&
++               cap_raised(cred->cap_effective, CAP_IPC_LOCK))
++              goto out_rcu_unlock;
++      else if (res == RLIMIT_NICE && cap_raised(cred->cap_effective, CAP_SYS_NICE))
++              goto out_rcu_unlock;
++      rcu_read_unlock();
++
++      gr_log_res_ulong2_str(GR_DONT_AUDIT, GR_RESOURCE_MSG, task, wanted, restab_log[res], rlim);
++
++      return;
++out_rcu_unlock:
++      rcu_read_unlock();
++      return;
++}
+diff --git a/grsecurity/gracl_segv.c b/grsecurity/gracl_segv.c
+new file mode 100644
+index 0000000..1d1b734
+--- /dev/null
++++ b/grsecurity/gracl_segv.c
+@@ -0,0 +1,284 @@
++#include <linux/kernel.h>
++#include <linux/mm.h>
++#include <asm/uaccess.h>
++#include <asm/errno.h>
++#include <asm/mman.h>
++#include <net/sock.h>
++#include <linux/file.h>
++#include <linux/fs.h>
++#include <linux/net.h>
++#include <linux/in.h>
++#include <linux/smp_lock.h>
++#include <linux/slab.h>
++#include <linux/types.h>
++#include <linux/sched.h>
++#include <linux/timer.h>
++#include <linux/gracl.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++static struct crash_uid *uid_set;
++static unsigned short uid_used;
++static DEFINE_SPINLOCK(gr_uid_lock);
++extern rwlock_t gr_inode_lock;
++extern struct acl_subject_label *
++      lookup_acl_subj_label(const ino_t inode, const dev_t dev,
++                            struct acl_role_label *role);
++extern int gr_fake_force_sig(int sig, struct task_struct *t);
++
++int
++gr_init_uidset(void)
++{
++      uid_set =
++          kmalloc(GR_UIDTABLE_MAX * sizeof (struct crash_uid), GFP_KERNEL);
++      uid_used = 0;
++
++      return uid_set ? 1 : 0;
++}
++
++void
++gr_free_uidset(void)
++{
++      if (uid_set)
++              kfree(uid_set);
++
++      return;
++}
++
++int
++gr_find_uid(const uid_t uid)
++{
++      struct crash_uid *tmp = uid_set;
++      uid_t buid;
++      int low = 0, high = uid_used - 1, mid;
++
++      while (high >= low) {
++              mid = (low + high) >> 1;
++              buid = tmp[mid].uid;
++              if (buid == uid)
++                      return mid;
++              if (buid > uid)
++                      high = mid - 1;
++              if (buid < uid)
++                      low = mid + 1;
++      }
++
++      return -1;
++}
++
++static __inline__ void
++gr_insertsort(void)
++{
++      unsigned short i, j;
++      struct crash_uid index;
++
++      for (i = 1; i < uid_used; i++) {
++              index = uid_set[i];
++              j = i;
++              while ((j > 0) && uid_set[j - 1].uid > index.uid) {
++                      uid_set[j] = uid_set[j - 1];
++                      j--;
++              }
++              uid_set[j] = index;
++      }
++
++      return;
++}
++
++static __inline__ void
++gr_insert_uid(const uid_t uid, const unsigned long expires)
++{
++      int loc;
++
++      if (uid_used == GR_UIDTABLE_MAX)
++              return;
++
++      loc = gr_find_uid(uid);
++
++      if (loc >= 0) {
++              uid_set[loc].expires = expires;
++              return;
++      }
++
++      uid_set[uid_used].uid = uid;
++      uid_set[uid_used].expires = expires;
++      uid_used++;
++
++      gr_insertsort();
++
++      return;
++}
++
++void
++gr_remove_uid(const unsigned short loc)
++{
++      unsigned short i;
++
++      for (i = loc + 1; i < uid_used; i++)
++              uid_set[i - 1] = uid_set[i];
++
++      uid_used--;
++
++      return;
++}
++
++int
++gr_check_crash_uid(const uid_t uid)
++{
++      int loc;
++      int ret = 0;
++
++      if (unlikely(!gr_acl_is_enabled()))
++              return 0;
++
++      spin_lock(&gr_uid_lock);
++      loc = gr_find_uid(uid);
++
++      if (loc < 0)
++              goto out_unlock;
++
++      if (time_before_eq(uid_set[loc].expires, get_seconds()))
++              gr_remove_uid(loc);
++      else
++              ret = 1;
++
++out_unlock:
++      spin_unlock(&gr_uid_lock);
++      return ret;
++}
++
++static __inline__ int
++proc_is_setxid(const struct cred *cred)
++{
++      if (cred->uid != cred->euid || cred->uid != cred->suid ||
++          cred->uid != cred->fsuid)
++              return 1;
++      if (cred->gid != cred->egid || cred->gid != cred->sgid ||
++          cred->gid != cred->fsgid)
++              return 1;
++
++      return 0;
++}
++
++void
++gr_handle_crash(struct task_struct *task, const int sig)
++{
++      struct acl_subject_label *curr;
++      struct task_struct *tsk, *tsk2;
++      const struct cred *cred;
++      const struct cred *cred2;
++
++      if (sig != SIGSEGV && sig != SIGKILL && sig != SIGBUS && sig != SIGILL)
++              return;
++
++      if (unlikely(!gr_acl_is_enabled()))
++              return;
++
++      curr = task->acl;
++
++      if (!(curr->resmask & (1 << GR_CRASH_RES)))
++              return;
++
++      if (time_before_eq(curr->expires, get_seconds())) {
++              curr->expires = 0;
++              curr->crashes = 0;
++      }
++
++      curr->crashes++;
++
++      if (!curr->expires)
++              curr->expires = get_seconds() + curr->res[GR_CRASH_RES].rlim_max;
++
++      if ((curr->crashes >= curr->res[GR_CRASH_RES].rlim_cur) &&
++          time_after(curr->expires, get_seconds())) {
++              rcu_read_lock();
++              cred = __task_cred(task);
++              if (cred->uid && proc_is_setxid(cred)) {
++                      gr_log_crash1(GR_DONT_AUDIT, GR_SEGVSTART_ACL_MSG, task, curr->res[GR_CRASH_RES].rlim_max);
++                      spin_lock(&gr_uid_lock);
++                      gr_insert_uid(cred->uid, curr->expires);
++                      spin_unlock(&gr_uid_lock);
++                      curr->expires = 0;
++                      curr->crashes = 0;
++                      read_lock(&tasklist_lock);
++                      do_each_thread(tsk2, tsk) {
++                              cred2 = __task_cred(tsk);
++                              if (tsk != task && cred2->uid == cred->uid)
++                                      gr_fake_force_sig(SIGKILL, tsk);
++                      } while_each_thread(tsk2, tsk);
++                      read_unlock(&tasklist_lock);
++              } else {
++                      gr_log_crash2(GR_DONT_AUDIT, GR_SEGVNOSUID_ACL_MSG, task, curr->res[GR_CRASH_RES].rlim_max);
++                      read_lock(&tasklist_lock);
++                      read_lock(&grsec_exec_file_lock);
++                      do_each_thread(tsk2, tsk) {
++                              if (likely(tsk != task)) {
++                                      // if this thread has the same subject as the one that triggered
++                                      // RES_CRASH and it's the same binary, kill it
++                                      if (tsk->acl == task->acl && tsk->exec_file == task->exec_file)
++                                              gr_fake_force_sig(SIGKILL, tsk);
++                              }
++                      } while_each_thread(tsk2, tsk);
++                      read_unlock(&grsec_exec_file_lock);
++                      read_unlock(&tasklist_lock);
++              }
++              rcu_read_unlock();
++      }
++
++      return;
++}
++
++int
++gr_check_crash_exec(const struct file *filp)
++{
++      struct acl_subject_label *curr;
++
++      if (unlikely(!gr_acl_is_enabled()))
++              return 0;
++
++      read_lock(&gr_inode_lock);
++      curr = lookup_acl_subj_label(filp->f_path.dentry->d_inode->i_ino,
++                                   filp->f_path.dentry->d_inode->i_sb->s_dev,
++                                   current->role);
++      read_unlock(&gr_inode_lock);
++
++      if (!curr || !(curr->resmask & (1 << GR_CRASH_RES)) ||
++          (!curr->crashes && !curr->expires))
++              return 0;
++
++      if ((curr->crashes >= curr->res[GR_CRASH_RES].rlim_cur) &&
++          time_after(curr->expires, get_seconds()))
++              return 1;
++      else if (time_before_eq(curr->expires, get_seconds())) {
++              curr->crashes = 0;
++              curr->expires = 0;
++      }
++
++      return 0;
++}
++
++void
++gr_handle_alertkill(struct task_struct *task)
++{
++      struct acl_subject_label *curracl;
++      __u32 curr_ip;
++      struct task_struct *p, *p2;
++
++      if (unlikely(!gr_acl_is_enabled()))
++              return;
++
++      curracl = task->acl;
++      curr_ip = task->signal->curr_ip;
++
++      if ((curracl->mode & GR_KILLIPPROC) && curr_ip) {
++              read_lock(&tasklist_lock);
++              do_each_thread(p2, p) {
++                      if (p->signal->curr_ip == curr_ip)
++                              gr_fake_force_sig(SIGKILL, p);
++              } while_each_thread(p2, p);
++              read_unlock(&tasklist_lock);
++      } else if (curracl->mode & GR_KILLPROC)
++              gr_fake_force_sig(SIGKILL, task);
++
++      return;
++}
+diff --git a/grsecurity/gracl_shm.c b/grsecurity/gracl_shm.c
+new file mode 100644
+index 0000000..9d83a69
+--- /dev/null
++++ b/grsecurity/gracl_shm.c
+@@ -0,0 +1,40 @@
++#include <linux/kernel.h>
++#include <linux/mm.h>
++#include <linux/sched.h>
++#include <linux/file.h>
++#include <linux/ipc.h>
++#include <linux/gracl.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++int
++gr_handle_shmat(const pid_t shm_cprid, const pid_t shm_lapid,
++              const time_t shm_createtime, const uid_t cuid, const int shmid)
++{
++      struct task_struct *task;
++
++      if (!gr_acl_is_enabled())
++              return 1;
++
++      rcu_read_lock();
++      read_lock(&tasklist_lock);
++
++      task = find_task_by_vpid(shm_cprid);
++
++      if (unlikely(!task))
++              task = find_task_by_vpid(shm_lapid);
++
++      if (unlikely(task && (time_before_eq((unsigned long)task->start_time.tv_sec, (unsigned long)shm_createtime) ||
++                            (task->pid == shm_lapid)) &&
++                   (task->acl->mode & GR_PROTSHM) &&
++                   (task->acl != current->acl))) {
++              read_unlock(&tasklist_lock);
++              rcu_read_unlock();
++              gr_log_int3(GR_DONT_AUDIT, GR_SHMAT_ACL_MSG, cuid, shm_cprid, shmid);
++              return 0;
++      }
++      read_unlock(&tasklist_lock);
++      rcu_read_unlock();
++
++      return 1;
++}
+diff --git a/grsecurity/grsec_chdir.c b/grsecurity/grsec_chdir.c
+new file mode 100644
+index 0000000..bc0be01
+--- /dev/null
++++ b/grsecurity/grsec_chdir.c
+@@ -0,0 +1,19 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/fs.h>
++#include <linux/file.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++void
++gr_log_chdir(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++#ifdef CONFIG_GRKERNSEC_AUDIT_CHDIR
++      if ((grsec_enable_chdir && grsec_enable_group &&
++           in_group_p(grsec_audit_gid)) || (grsec_enable_chdir &&
++                                            !grsec_enable_group)) {
++              gr_log_fs_generic(GR_DO_AUDIT, GR_CHDIR_AUDIT_MSG, dentry, mnt);
++      }
++#endif
++      return;
++}
+diff --git a/grsecurity/grsec_chroot.c b/grsecurity/grsec_chroot.c
+new file mode 100644
+index 0000000..197bdd5
+--- /dev/null
++++ b/grsecurity/grsec_chroot.c
+@@ -0,0 +1,386 @@
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/sched.h>
++#include <linux/file.h>
++#include <linux/fs.h>
++#include <linux/mount.h>
++#include <linux/types.h>
++#include <linux/pid_namespace.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++void gr_set_chroot_entries(struct task_struct *task, struct path *path)
++{
++#ifdef CONFIG_GRKERNSEC
++      if (task->pid > 1 && path->dentry != init_task.fs->root.dentry &&
++                           path->dentry != task->nsproxy->mnt_ns->root->mnt_root)
++              task->gr_is_chrooted = 1;
++      else
++              task->gr_is_chrooted = 0;
++
++      task->gr_chroot_dentry = path->dentry;
++#endif
++      return;
++}
++
++void gr_clear_chroot_entries(struct task_struct *task)
++{
++#ifdef CONFIG_GRKERNSEC
++      task->gr_is_chrooted = 0;
++      task->gr_chroot_dentry = NULL;
++#endif
++      return;
++}     
++
++int
++gr_handle_chroot_unix(const pid_t pid)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_UNIX
++      struct task_struct *p;
++
++      if (unlikely(!grsec_enable_chroot_unix))
++              return 1;
++
++      if (likely(!proc_is_chrooted(current)))
++              return 1;
++
++      rcu_read_lock();
++      read_lock(&tasklist_lock);
++
++      p = find_task_by_vpid_unrestricted(pid);
++      if (unlikely(p && !have_same_root(current, p))) {
++              read_unlock(&tasklist_lock);
++              rcu_read_unlock();
++              gr_log_noargs(GR_DONT_AUDIT, GR_UNIX_CHROOT_MSG);
++              return 0;
++      }
++      read_unlock(&tasklist_lock);
++      rcu_read_unlock();
++#endif
++      return 1;
++}
++
++int
++gr_handle_chroot_nice(void)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_NICE
++      if (grsec_enable_chroot_nice && proc_is_chrooted(current)) {
++              gr_log_noargs(GR_DONT_AUDIT, GR_NICE_CHROOT_MSG);
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_chroot_setpriority(struct task_struct *p, const int niceval)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_NICE
++      if (grsec_enable_chroot_nice && (niceval < task_nice(p))
++                      && proc_is_chrooted(current)) {
++              gr_log_str_int(GR_DONT_AUDIT, GR_PRIORITY_CHROOT_MSG, p->comm, p->pid);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_chroot_rawio(const struct inode *inode)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_CAPS
++      if (grsec_enable_chroot_caps && proc_is_chrooted(current) && 
++          inode && S_ISBLK(inode->i_mode) && !capable(CAP_SYS_RAWIO))
++              return 1;
++#endif
++      return 0;
++}
++
++int
++gr_handle_chroot_fowner(struct pid *pid, enum pid_type type)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_FINDTASK
++      struct task_struct *p;
++      int ret = 0;
++      if (!grsec_enable_chroot_findtask || !proc_is_chrooted(current) || !pid)
++              return ret;
++
++      read_lock(&tasklist_lock);
++      do_each_pid_task(pid, type, p) {
++              if (!have_same_root(current, p)) {
++                      ret = 1;
++                      goto out;
++              }
++      } while_each_pid_task(pid, type, p);
++out:
++      read_unlock(&tasklist_lock);
++      return ret;
++#endif
++      return 0;
++}
++
++int
++gr_pid_is_chrooted(struct task_struct *p)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_FINDTASK
++      if (!grsec_enable_chroot_findtask || !proc_is_chrooted(current) || p == NULL)
++              return 0;
++
++      if ((p->exit_state & (EXIT_ZOMBIE | EXIT_DEAD)) ||
++          !have_same_root(current, p)) {
++              return 1;
++      }
++#endif
++      return 0;
++}
++
++EXPORT_SYMBOL(gr_pid_is_chrooted);
++
++#if defined(CONFIG_GRKERNSEC_CHROOT_DOUBLE) || defined(CONFIG_GRKERNSEC_CHROOT_FCHDIR)
++int gr_is_outside_chroot(const struct dentry *u_dentry, const struct vfsmount *u_mnt)
++{
++      struct dentry *dentry = (struct dentry *)u_dentry;
++      struct vfsmount *mnt = (struct vfsmount *)u_mnt;
++      struct dentry *realroot;
++      struct vfsmount *realrootmnt;
++      struct dentry *currentroot;
++      struct vfsmount *currentmnt;
++      struct task_struct *reaper = &init_task;
++      int ret = 1;
++
++      read_lock(&reaper->fs->lock);
++      realrootmnt = mntget(reaper->fs->root.mnt);
++      realroot = dget(reaper->fs->root.dentry);
++      read_unlock(&reaper->fs->lock);
++
++      read_lock(&current->fs->lock);
++      currentmnt = mntget(current->fs->root.mnt);
++      currentroot = dget(current->fs->root.dentry);
++      read_unlock(&current->fs->lock);
++
++      spin_lock(&dcache_lock);
++      for (;;) {
++              if (unlikely((dentry == realroot && mnt == realrootmnt)
++                   || (dentry == currentroot && mnt == currentmnt)))
++                      break;
++              if (unlikely(dentry == mnt->mnt_root || IS_ROOT(dentry))) {
++                      if (mnt->mnt_parent == mnt)
++                              break;
++                      dentry = mnt->mnt_mountpoint;
++                      mnt = mnt->mnt_parent;
++                      continue;
++              }
++              dentry = dentry->d_parent;
++      }
++      spin_unlock(&dcache_lock);
++
++      dput(currentroot);
++      mntput(currentmnt);
++
++      /* access is outside of chroot */
++      if (dentry == realroot && mnt == realrootmnt)
++              ret = 0;
++
++      dput(realroot);
++      mntput(realrootmnt);
++      return ret;
++}
++#endif
++
++int
++gr_chroot_fchdir(struct dentry *u_dentry, struct vfsmount *u_mnt)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_FCHDIR
++      if (!grsec_enable_chroot_fchdir)
++              return 1;
++
++      if (!proc_is_chrooted(current))
++              return 1;
++      else if (!gr_is_outside_chroot(u_dentry, u_mnt)) {
++              gr_log_fs_generic(GR_DONT_AUDIT, GR_CHROOT_FCHDIR_MSG, u_dentry, u_mnt);
++              return 0;
++      }
++#endif
++      return 1;
++}
++
++int
++gr_chroot_shmat(const pid_t shm_cprid, const pid_t shm_lapid,
++              const time_t shm_createtime)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_SHMAT
++      struct task_struct *p;
++      time_t starttime;
++
++      if (unlikely(!grsec_enable_chroot_shmat))
++              return 1;
++
++      if (likely(!proc_is_chrooted(current)))
++              return 1;
++
++      rcu_read_lock();
++      read_lock(&tasklist_lock);
++
++      if ((p = find_task_by_vpid_unrestricted(shm_cprid))) {
++              starttime = p->start_time.tv_sec;
++              if (time_before_eq((unsigned long)starttime, (unsigned long)shm_createtime)) {
++                      if (have_same_root(current, p)) {
++                              goto allow;
++                      } else {
++                              read_unlock(&tasklist_lock);
++                              rcu_read_unlock();
++                              gr_log_noargs(GR_DONT_AUDIT, GR_SHMAT_CHROOT_MSG);
++                              return 0;
++                      }
++              }
++              /* creator exited, pid reuse, fall through to next check */
++      }
++      if ((p = find_task_by_vpid_unrestricted(shm_lapid))) {
++              if (unlikely(!have_same_root(current, p))) {
++                      read_unlock(&tasklist_lock);
++                      rcu_read_unlock();
++                      gr_log_noargs(GR_DONT_AUDIT, GR_SHMAT_CHROOT_MSG);
++                      return 0;
++              }
++      }
++
++allow:
++      read_unlock(&tasklist_lock);
++      rcu_read_unlock();
++#endif
++      return 1;
++}
++
++void
++gr_log_chroot_exec(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_EXECLOG
++      if (grsec_enable_chroot_execlog && proc_is_chrooted(current))
++              gr_log_fs_generic(GR_DO_AUDIT, GR_EXEC_CHROOT_MSG, dentry, mnt);
++#endif
++      return;
++}
++
++int
++gr_handle_chroot_mknod(const struct dentry *dentry,
++                     const struct vfsmount *mnt, const int mode)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_MKNOD
++      if (grsec_enable_chroot_mknod && !S_ISFIFO(mode) && !S_ISREG(mode) && 
++          proc_is_chrooted(current)) {
++              gr_log_fs_generic(GR_DONT_AUDIT, GR_MKNOD_CHROOT_MSG, dentry, mnt);
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_chroot_mount(const struct dentry *dentry,
++                     const struct vfsmount *mnt, const char *dev_name)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_MOUNT
++      if (grsec_enable_chroot_mount && proc_is_chrooted(current)) {
++              gr_log_str_fs(GR_DONT_AUDIT, GR_MOUNT_CHROOT_MSG, dev_name ? dev_name : "none" , dentry, mnt);
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_chroot_pivot(void)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_PIVOT
++      if (grsec_enable_chroot_pivot && proc_is_chrooted(current)) {
++              gr_log_noargs(GR_DONT_AUDIT, GR_PIVOT_CHROOT_MSG);
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_chroot_chroot(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_DOUBLE
++      if (grsec_enable_chroot_double && proc_is_chrooted(current) &&
++          !gr_is_outside_chroot(dentry, mnt)) {
++              gr_log_fs_generic(GR_DONT_AUDIT, GR_CHROOT_CHROOT_MSG, dentry, mnt);
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
++
++extern const char *captab_log[];
++extern int captab_log_entries;
++
++int
++gr_chroot_is_capable(const int cap)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_CAPS
++      if (grsec_enable_chroot_caps && proc_is_chrooted(current)) {
++              kernel_cap_t chroot_caps = GR_CHROOT_CAPS;
++              if (cap_raised(chroot_caps, cap)) {
++                      const struct cred *creds = current_cred();
++                      if (cap_raised(creds->cap_effective, cap) && cap < captab_log_entries) {
++                              gr_log_cap(GR_DONT_AUDIT, GR_CAP_CHROOT_MSG, current, captab_log[cap]);
++                      }
++                      return 0;
++              }
++      }
++#endif
++      return 1;
++}
++
++int
++gr_chroot_is_capable_nolog(const int cap)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_CAPS
++      if (grsec_enable_chroot_caps && proc_is_chrooted(current)) {
++              kernel_cap_t chroot_caps = GR_CHROOT_CAPS;
++              if (cap_raised(chroot_caps, cap)) {
++                      return 0;
++              }
++      }
++#endif
++      return 1;
++}
++
++int
++gr_handle_chroot_sysctl(const int op)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_SYSCTL
++      if (grsec_enable_chroot_sysctl && proc_is_chrooted(current)
++          && (op & MAY_WRITE))
++              return -EACCES;
++#endif
++      return 0;
++}
++
++void
++gr_handle_chroot_chdir(struct path *path)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_CHDIR
++      if (grsec_enable_chroot_chdir)
++              set_fs_pwd(current->fs, path);
++#endif
++      return;
++}
++
++int
++gr_handle_chroot_chmod(const struct dentry *dentry,
++                     const struct vfsmount *mnt, const int mode)
++{
++#ifdef CONFIG_GRKERNSEC_CHROOT_CHMOD
++      /* allow chmod +s on directories, but not on files */
++      if (grsec_enable_chroot_chmod && !S_ISDIR(dentry->d_inode->i_mode) &&
++          ((mode & S_ISUID) || ((mode & (S_ISGID | S_IXGRP)) == (S_ISGID | S_IXGRP))) &&
++          proc_is_chrooted(current)) {
++              gr_log_fs_generic(GR_DONT_AUDIT, GR_CHMOD_CHROOT_MSG, dentry, mnt);
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
+diff --git a/grsecurity/grsec_disabled.c b/grsecurity/grsec_disabled.c
+new file mode 100644
+index 0000000..b81db5b
+--- /dev/null
++++ b/grsecurity/grsec_disabled.c
+@@ -0,0 +1,439 @@
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/sched.h>
++#include <linux/file.h>
++#include <linux/fs.h>
++#include <linux/kdev_t.h>
++#include <linux/net.h>
++#include <linux/in.h>
++#include <linux/ip.h>
++#include <linux/skbuff.h>
++#include <linux/sysctl.h>
++
++#ifdef CONFIG_PAX_HAVE_ACL_FLAGS
++void
++pax_set_initial_flags(struct linux_binprm *bprm)
++{
++      return;
++}
++#endif
++
++#ifdef CONFIG_SYSCTL
++__u32
++gr_handle_sysctl(const struct ctl_table * table, const int op)
++{
++      return 0;
++}
++#endif
++
++#ifdef CONFIG_TASKSTATS
++int gr_is_taskstats_denied(int pid)
++{
++      return 0;
++}
++#endif
++
++int
++gr_acl_is_enabled(void)
++{
++      return 0;
++}
++
++void
++gr_handle_proc_create(const struct dentry *dentry, const struct inode *inode)
++{
++      return;
++}
++
++int
++gr_handle_rawio(const struct inode *inode)
++{
++      return 0;
++}
++
++void
++gr_acl_handle_psacct(struct task_struct *task, const long code)
++{
++      return;
++}
++
++int
++gr_handle_ptrace(struct task_struct *task, const long request)
++{
++      return 0;
++}
++
++int
++gr_handle_proc_ptrace(struct task_struct *task)
++{
++      return 0;
++}
++
++void
++gr_learn_resource(const struct task_struct *task,
++                const int res, const unsigned long wanted, const int gt)
++{
++      return;
++}
++
++int
++gr_set_acls(const int type)
++{
++      return 0;
++}
++
++int
++gr_check_hidden_task(const struct task_struct *tsk)
++{
++      return 0;
++}
++
++int
++gr_check_protected_task(const struct task_struct *task)
++{
++      return 0;
++}
++
++int
++gr_check_protected_task_fowner(struct pid *pid, enum pid_type type)
++{
++      return 0;
++}
++
++void
++gr_copy_label(struct task_struct *tsk)
++{
++      return;
++}
++
++void
++gr_set_pax_flags(struct task_struct *task)
++{
++      return;
++}
++
++int
++gr_set_proc_label(const struct dentry *dentry, const struct vfsmount *mnt,
++                const int unsafe_share)
++{
++      return 0;
++}
++
++void
++gr_handle_delete(const ino_t ino, const dev_t dev)
++{
++      return;
++}
++
++void
++gr_handle_create(const struct dentry *dentry, const struct vfsmount *mnt)
++{
++      return;
++}
++
++void
++gr_handle_crash(struct task_struct *task, const int sig)
++{
++      return;
++}
++
++int
++gr_check_crash_exec(const struct file *filp)
++{
++      return 0;
++}
++
++int
++gr_check_crash_uid(const uid_t uid)
++{
++      return 0;
++}
++
++void
++gr_handle_rename(struct inode *old_dir, struct inode *new_dir,
++               struct dentry *old_dentry,
++               struct dentry *new_dentry,
++               struct vfsmount *mnt, const __u8 replace)
++{
++      return;
++}
++
++int
++gr_search_socket(const int family, const int type, const int protocol)
++{
++      return 1;
++}
++
++int
++gr_search_connectbind(const int mode, const struct socket *sock,
++                    const struct sockaddr_in *addr)
++{
++      return 0;
++}
++
++void
++gr_handle_alertkill(struct task_struct *task)
++{
++      return;
++}
++
++__u32
++gr_acl_handle_execve(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_hidden_file(const struct dentry * dentry,
++                        const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_open(const struct dentry * dentry, const struct vfsmount * mnt,
++                 int acc_mode)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_rmdir(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_unlink(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++int
++gr_acl_handle_mmap(const struct file *file, const unsigned long prot,
++                 unsigned int *vm_flags)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_truncate(const struct dentry * dentry,
++                     const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_utime(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_access(const struct dentry * dentry,
++                   const struct vfsmount * mnt, const int fmode)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_fchmod(const struct dentry * dentry, const struct vfsmount * mnt,
++                   mode_t mode)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_chmod(const struct dentry * dentry, const struct vfsmount * mnt,
++                  mode_t mode)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_chown(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_setxattr(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++void
++grsecurity_init(void)
++{
++      return;
++}
++
++__u32
++gr_acl_handle_mknod(const struct dentry * new_dentry,
++                  const struct dentry * parent_dentry,
++                  const struct vfsmount * parent_mnt,
++                  const int mode)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_mkdir(const struct dentry * new_dentry,
++                  const struct dentry * parent_dentry,
++                  const struct vfsmount * parent_mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_symlink(const struct dentry * new_dentry,
++                    const struct dentry * parent_dentry,
++                    const struct vfsmount * parent_mnt, const char *from)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_link(const struct dentry * new_dentry,
++                 const struct dentry * parent_dentry,
++                 const struct vfsmount * parent_mnt,
++                 const struct dentry * old_dentry,
++                 const struct vfsmount * old_mnt, const char *to)
++{
++      return 1;
++}
++
++int
++gr_acl_handle_rename(const struct dentry *new_dentry,
++                   const struct dentry *parent_dentry,
++                   const struct vfsmount *parent_mnt,
++                   const struct dentry *old_dentry,
++                   const struct inode *old_parent_inode,
++                   const struct vfsmount *old_mnt, const char *newname)
++{
++      return 0;
++}
++
++int
++gr_acl_handle_filldir(const struct file *file, const char *name,
++                    const int namelen, const ino_t ino)
++{
++      return 1;
++}
++
++int
++gr_handle_shmat(const pid_t shm_cprid, const pid_t shm_lapid,
++              const time_t shm_createtime, const uid_t cuid, const int shmid)
++{
++      return 1;
++}
++
++int
++gr_search_bind(const struct socket *sock, const struct sockaddr_in *addr)
++{
++      return 0;
++}
++
++int
++gr_search_accept(const struct socket *sock)
++{
++      return 0;
++}
++
++int
++gr_search_listen(const struct socket *sock)
++{
++      return 0;
++}
++
++int
++gr_search_connect(const struct socket *sock, const struct sockaddr_in *addr)
++{
++      return 0;
++}
++
++__u32
++gr_acl_handle_unix(const struct dentry * dentry, const struct vfsmount * mnt)
++{
++      return 1;
++}
++
++__u32
++gr_acl_handle_creat(const struct dentry * dentry,
++                  const struct dentry * p_dentry,
++                  const struct vfsmount * p_mnt, int open_flags, int acc_mode,
++                  const int imode)
++{
++      return 1;
++}
++
++void
++gr_acl_handle_exit(void)
++{
++      return;
++}
++
++int
++gr_acl_handle_mprotect(const struct file *file, const unsigned long prot)
++{
++      return 1;
++}
++
++void
++gr_set_role_label(const uid_t uid, const gid_t gid)
++{
++      return;
++}
++
++int
++gr_acl_handle_procpidmem(const struct task_struct *task)
++{
++      return 0;
++}
++
++int
++gr_search_udp_recvmsg(const struct sock *sk, const struct sk_buff *skb)
++{
++      return 0;
++}
++
++int
++gr_search_udp_sendmsg(const struct sock *sk, const struct sockaddr_in *addr)
++{
++      return 0;
++}
++
++void
++gr_set_kernel_label(struct task_struct *task)
++{
++      return;
++}
++
++int
++gr_check_user_change(int real, int effective, int fs)
++{
++      return 0;
++}
++
++int
++gr_check_group_change(int real, int effective, int fs)
++{
++      return 0;
++}
++
++int gr_acl_enable_at_secure(void)
++{
++      return 0;
++}
++
++dev_t gr_get_dev_from_dentry(struct dentry *dentry)
++{
++      return dentry->d_inode->i_sb->s_dev;
++}
++
++EXPORT_SYMBOL(gr_learn_resource);
++EXPORT_SYMBOL(gr_set_kernel_label);
++#ifdef CONFIG_SECURITY
++EXPORT_SYMBOL(gr_check_user_change);
++EXPORT_SYMBOL(gr_check_group_change);
++#endif
+diff --git a/grsecurity/grsec_exec.c b/grsecurity/grsec_exec.c
+new file mode 100644
+index 0000000..a96e155
+--- /dev/null
++++ b/grsecurity/grsec_exec.c
+@@ -0,0 +1,204 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/file.h>
++#include <linux/binfmts.h>
++#include <linux/smp_lock.h>
++#include <linux/fs.h>
++#include <linux/types.h>
++#include <linux/grdefs.h>
++#include <linux/grinternal.h>
++#include <linux/capability.h>
++#include <linux/compat.h>
++#include <linux/module.h>
++
++#include <asm/uaccess.h>
++
++#ifdef CONFIG_GRKERNSEC_EXECLOG
++static char gr_exec_arg_buf[132];
++static DEFINE_MUTEX(gr_exec_arg_mutex);
++#endif
++
++void
++gr_handle_exec_args(struct linux_binprm *bprm, const char __user *const __user *argv)
++{
++#ifdef CONFIG_GRKERNSEC_EXECLOG
++      char *grarg = gr_exec_arg_buf;
++      unsigned int i, x, execlen = 0;
++      char c;
++
++      if (!((grsec_enable_execlog && grsec_enable_group &&
++             in_group_p(grsec_audit_gid))
++            || (grsec_enable_execlog && !grsec_enable_group)))
++              return;
++
++      mutex_lock(&gr_exec_arg_mutex);
++      memset(grarg, 0, sizeof(gr_exec_arg_buf));
++
++      if (unlikely(argv == NULL))
++              goto log;
++
++      for (i = 0; i < bprm->argc && execlen < 128; i++) {
++              const char __user *p;
++              unsigned int len;
++
++              if (copy_from_user(&p, argv + i, sizeof(p)))
++                      goto log;
++              if (!p)
++                      goto log;
++              len = strnlen_user(p, 128 - execlen);
++              if (len > 128 - execlen)
++                      len = 128 - execlen;
++              else if (len > 0)
++                      len--;
++              if (copy_from_user(grarg + execlen, p, len))
++                      goto log;
++
++              /* rewrite unprintable characters */
++              for (x = 0; x < len; x++) {
++                      c = *(grarg + execlen + x);
++                      if (c < 32 || c > 126)
++                              *(grarg + execlen + x) = ' ';
++              }
++
++              execlen += len;
++              *(grarg + execlen) = ' ';
++              *(grarg + execlen + 1) = '\0';
++              execlen++;
++      }
++
++      log:
++      gr_log_fs_str(GR_DO_AUDIT, GR_EXEC_AUDIT_MSG, bprm->file->f_path.dentry,
++                      bprm->file->f_path.mnt, grarg);
++      mutex_unlock(&gr_exec_arg_mutex);
++#endif
++      return;
++}
++
++#ifdef CONFIG_COMPAT
++void
++gr_handle_exec_args_compat(struct linux_binprm *bprm, compat_uptr_t __user *argv)
++{
++#ifdef CONFIG_GRKERNSEC_EXECLOG
++      char *grarg = gr_exec_arg_buf;
++      unsigned int i, x, execlen = 0;
++      char c;
++
++      if (!((grsec_enable_execlog && grsec_enable_group &&
++             in_group_p(grsec_audit_gid))
++            || (grsec_enable_execlog && !grsec_enable_group)))
++              return;
++
++      mutex_lock(&gr_exec_arg_mutex);
++      memset(grarg, 0, sizeof(gr_exec_arg_buf));
++
++      if (unlikely(argv == NULL))
++              goto log;
++
++      for (i = 0; i < bprm->argc && execlen < 128; i++) {
++              compat_uptr_t p;
++              unsigned int len;
++
++              if (get_user(p, argv + i))
++                      goto log;
++              len = strnlen_user(compat_ptr(p), 128 - execlen);
++              if (len > 128 - execlen)
++                      len = 128 - execlen;
++              else if (len > 0)
++                      len--;
++              else
++                      goto log;
++              if (copy_from_user(grarg + execlen, compat_ptr(p), len))
++                      goto log;
++
++              /* rewrite unprintable characters */
++              for (x = 0; x < len; x++) {
++                      c = *(grarg + execlen + x);
++                      if (c < 32 || c > 126)
++                              *(grarg + execlen + x) = ' ';
++              }
++
++              execlen += len;
++              *(grarg + execlen) = ' ';
++              *(grarg + execlen + 1) = '\0';
++              execlen++;
++      }
++
++      log:
++      gr_log_fs_str(GR_DO_AUDIT, GR_EXEC_AUDIT_MSG, bprm->file->f_path.dentry,
++                      bprm->file->f_path.mnt, grarg);
++      mutex_unlock(&gr_exec_arg_mutex);
++#endif
++      return;
++}
++#endif
++
++#ifdef CONFIG_GRKERNSEC
++extern int gr_acl_is_capable(const int cap);
++extern int gr_acl_is_capable_nolog(const int cap);
++extern int gr_chroot_is_capable(const int cap);
++extern int gr_chroot_is_capable_nolog(const int cap);
++#endif
++
++const char *captab_log[] = {
++      "CAP_CHOWN",
++      "CAP_DAC_OVERRIDE",
++      "CAP_DAC_READ_SEARCH",
++      "CAP_FOWNER",
++      "CAP_FSETID",
++      "CAP_KILL",
++      "CAP_SETGID",
++      "CAP_SETUID",
++      "CAP_SETPCAP",
++      "CAP_LINUX_IMMUTABLE",
++      "CAP_NET_BIND_SERVICE",
++      "CAP_NET_BROADCAST",
++      "CAP_NET_ADMIN",
++      "CAP_NET_RAW",
++      "CAP_IPC_LOCK",
++      "CAP_IPC_OWNER",
++      "CAP_SYS_MODULE",
++      "CAP_SYS_RAWIO",
++      "CAP_SYS_CHROOT",
++      "CAP_SYS_PTRACE",
++      "CAP_SYS_PACCT",
++      "CAP_SYS_ADMIN",
++      "CAP_SYS_BOOT",
++      "CAP_SYS_NICE",
++      "CAP_SYS_RESOURCE",
++      "CAP_SYS_TIME",
++      "CAP_SYS_TTY_CONFIG",
++      "CAP_MKNOD",
++      "CAP_LEASE",
++      "CAP_AUDIT_WRITE",
++      "CAP_AUDIT_CONTROL",
++      "CAP_SETFCAP",
++      "CAP_MAC_OVERRIDE",
++      "CAP_MAC_ADMIN"
++};
++
++int captab_log_entries = sizeof(captab_log)/sizeof(captab_log[0]);
++
++int gr_is_capable(const int cap)
++{
++#ifdef CONFIG_GRKERNSEC
++      if (gr_acl_is_capable(cap) && gr_chroot_is_capable(cap))
++              return 1;
++      return 0;
++#else
++      return 1;
++#endif
++}
++
++int gr_is_capable_nolog(const int cap)
++{
++#ifdef CONFIG_GRKERNSEC
++      if (gr_acl_is_capable_nolog(cap) && gr_chroot_is_capable_nolog(cap))
++              return 1;
++      return 0;
++#else
++      return 1;
++#endif
++}
++
++EXPORT_SYMBOL(gr_is_capable);
++EXPORT_SYMBOL(gr_is_capable_nolog);
+diff --git a/grsecurity/grsec_fifo.c b/grsecurity/grsec_fifo.c
+new file mode 100644
+index 0000000..d3ee748
+--- /dev/null
++++ b/grsecurity/grsec_fifo.c
+@@ -0,0 +1,24 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/fs.h>
++#include <linux/file.h>
++#include <linux/grinternal.h>
++
++int
++gr_handle_fifo(const struct dentry *dentry, const struct vfsmount *mnt,
++             const struct dentry *dir, const int flag, const int acc_mode)
++{
++#ifdef CONFIG_GRKERNSEC_FIFO
++      const struct cred *cred = current_cred();
++
++      if (grsec_enable_fifo && S_ISFIFO(dentry->d_inode->i_mode) &&
++          !(flag & O_EXCL) && (dir->d_inode->i_mode & S_ISVTX) &&
++          (dentry->d_inode->i_uid != dir->d_inode->i_uid) &&
++          (cred->fsuid != dentry->d_inode->i_uid)) {
++              if (!inode_permission(dentry->d_inode, acc_mode))
++                      gr_log_fs_int2(GR_DONT_AUDIT, GR_FIFO_MSG, dentry, mnt, dentry->d_inode->i_uid, dentry->d_inode->i_gid);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
+diff --git a/grsecurity/grsec_fork.c b/grsecurity/grsec_fork.c
+new file mode 100644
+index 0000000..8ca18bf
+--- /dev/null
++++ b/grsecurity/grsec_fork.c
+@@ -0,0 +1,23 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++#include <linux/errno.h>
++
++void
++gr_log_forkfail(const int retval)
++{
++#ifdef CONFIG_GRKERNSEC_FORKFAIL
++      if (grsec_enable_forkfail && (retval == -EAGAIN || retval == -ENOMEM)) {
++              switch (retval) {
++                      case -EAGAIN:
++                              gr_log_str(GR_DONT_AUDIT, GR_FAILFORK_MSG, "EAGAIN");
++                              break;
++                      case -ENOMEM:
++                              gr_log_str(GR_DONT_AUDIT, GR_FAILFORK_MSG, "ENOMEM");
++                              break;
++              }
++      }
++#endif
++      return;
++}
+diff --git a/grsecurity/grsec_init.c b/grsecurity/grsec_init.c
+new file mode 100644
+index 0000000..1e995d3
+--- /dev/null
++++ b/grsecurity/grsec_init.c
+@@ -0,0 +1,278 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/mm.h>
++#include <linux/smp_lock.h>
++#include <linux/gracl.h>
++#include <linux/slab.h>
++#include <linux/vmalloc.h>
++#include <linux/percpu.h>
++#include <linux/module.h>
++
++int grsec_enable_ptrace_readexec;
++int grsec_enable_setxid;
++int grsec_enable_brute;
++int grsec_enable_link;
++int grsec_enable_dmesg;
++int grsec_enable_harden_ptrace;
++int grsec_enable_fifo;
++int grsec_enable_execlog;
++int grsec_enable_signal;
++int grsec_enable_forkfail;
++int grsec_enable_audit_ptrace;
++int grsec_enable_time;
++int grsec_enable_audit_textrel;
++int grsec_enable_group;
++int grsec_audit_gid;
++int grsec_enable_chdir;
++int grsec_enable_mount;
++int grsec_enable_rofs;
++int grsec_enable_chroot_findtask;
++int grsec_enable_chroot_mount;
++int grsec_enable_chroot_shmat;
++int grsec_enable_chroot_fchdir;
++int grsec_enable_chroot_double;
++int grsec_enable_chroot_pivot;
++int grsec_enable_chroot_chdir;
++int grsec_enable_chroot_chmod;
++int grsec_enable_chroot_mknod;
++int grsec_enable_chroot_nice;
++int grsec_enable_chroot_execlog;
++int grsec_enable_chroot_caps;
++int grsec_enable_chroot_sysctl;
++int grsec_enable_chroot_unix;
++int grsec_enable_tpe;
++int grsec_tpe_gid;
++int grsec_enable_blackhole;
++#ifdef CONFIG_IPV6_MODULE
++EXPORT_SYMBOL(grsec_enable_blackhole);
++#endif
++int grsec_lastack_retries;
++int grsec_enable_tpe_all;
++int grsec_enable_tpe_invert;
++int grsec_enable_socket_all;
++int grsec_socket_all_gid;
++int grsec_enable_socket_client;
++int grsec_socket_client_gid;
++int grsec_enable_socket_server;
++int grsec_socket_server_gid;
++int grsec_resource_logging;
++int grsec_disable_privio;
++int grsec_enable_log_rwxmaps;
++int grsec_lock;
++
++DEFINE_SPINLOCK(grsec_alert_lock);
++unsigned long grsec_alert_wtime = 0;
++unsigned long grsec_alert_fyet = 0;
++
++DEFINE_SPINLOCK(grsec_audit_lock);
++
++DEFINE_RWLOCK(grsec_exec_file_lock);
++
++char *gr_shared_page[4];
++
++char *gr_alert_log_fmt;
++char *gr_audit_log_fmt;
++char *gr_alert_log_buf;
++char *gr_audit_log_buf;
++
++extern struct gr_arg *gr_usermode;
++extern unsigned char *gr_system_salt;
++extern unsigned char *gr_system_sum;
++
++void __init
++grsecurity_init(void)
++{
++      int j;
++      /* create the per-cpu shared pages */
++
++#ifdef CONFIG_X86
++      memset((char *)(0x41a + PAGE_OFFSET), 0, 36);
++#endif
++
++      for (j = 0; j < 4; j++) {
++              gr_shared_page[j] = (char *)__alloc_percpu(PAGE_SIZE, __alignof__(unsigned long long));
++              if (gr_shared_page[j] == NULL) {
++                      panic("Unable to allocate grsecurity shared page");
++                      return;
++              }
++      }
++
++      /* allocate log buffers */
++      gr_alert_log_fmt = kmalloc(512, GFP_KERNEL);
++      if (!gr_alert_log_fmt) {
++              panic("Unable to allocate grsecurity alert log format buffer");
++              return;
++      }
++      gr_audit_log_fmt = kmalloc(512, GFP_KERNEL);
++      if (!gr_audit_log_fmt) {
++              panic("Unable to allocate grsecurity audit log format buffer");
++              return;
++      }
++      gr_alert_log_buf = (char *) get_zeroed_page(GFP_KERNEL);
++      if (!gr_alert_log_buf) {
++              panic("Unable to allocate grsecurity alert log buffer");
++              return;
++      }
++      gr_audit_log_buf = (char *) get_zeroed_page(GFP_KERNEL);
++      if (!gr_audit_log_buf) {
++              panic("Unable to allocate grsecurity audit log buffer");
++              return;
++      }
++
++      /* allocate memory for authentication structure */
++      gr_usermode = kmalloc(sizeof(struct gr_arg), GFP_KERNEL);
++      gr_system_salt = kmalloc(GR_SALT_LEN, GFP_KERNEL);
++      gr_system_sum = kmalloc(GR_SHA_LEN, GFP_KERNEL);
++
++      if (!gr_usermode || !gr_system_salt || !gr_system_sum) {
++              panic("Unable to allocate grsecurity authentication structure");
++              return;
++      }
++
++
++#ifdef CONFIG_GRKERNSEC_IO
++#if !defined(CONFIG_GRKERNSEC_SYSCTL_DISTRO)
++      grsec_disable_privio = 1;
++#elif defined(CONFIG_GRKERNSEC_SYSCTL_ON)
++      grsec_disable_privio = 1;
++#else
++      grsec_disable_privio = 0;
++#endif
++#endif
++
++#ifdef CONFIG_GRKERNSEC_TPE_INVERT
++      /* for backward compatibility, tpe_invert always defaults to on if
++         enabled in the kernel
++      */
++      grsec_enable_tpe_invert = 1;
++#endif
++
++#if !defined(CONFIG_GRKERNSEC_SYSCTL) || defined(CONFIG_GRKERNSEC_SYSCTL_ON)
++#ifndef CONFIG_GRKERNSEC_SYSCTL
++      grsec_lock = 1;
++#endif
++
++#ifdef CONFIG_GRKERNSEC_AUDIT_TEXTREL
++      grsec_enable_audit_textrel = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_RWXMAP_LOG
++      grsec_enable_log_rwxmaps = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_GROUP
++      grsec_enable_group = 1;
++      grsec_audit_gid = CONFIG_GRKERNSEC_AUDIT_GID;
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_CHDIR
++      grsec_enable_chdir = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_HARDEN_PTRACE
++      grsec_enable_harden_ptrace = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_MOUNT
++      grsec_enable_mount = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_LINK
++      grsec_enable_link = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_BRUTE
++      grsec_enable_brute = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_DMESG
++      grsec_enable_dmesg = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++      grsec_enable_blackhole = 1;
++      grsec_lastack_retries = 4;
++#endif
++#ifdef CONFIG_GRKERNSEC_FIFO
++      grsec_enable_fifo = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_EXECLOG
++      grsec_enable_execlog = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_SETXID
++      grsec_enable_setxid = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_PTRACE_READEXEC
++      grsec_enable_ptrace_readexec = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_SIGNAL
++      grsec_enable_signal = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_FORKFAIL
++      grsec_enable_forkfail = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_TIME
++      grsec_enable_time = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_RESLOG
++      grsec_resource_logging = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_FINDTASK
++      grsec_enable_chroot_findtask = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_UNIX
++      grsec_enable_chroot_unix = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_MOUNT
++      grsec_enable_chroot_mount = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_FCHDIR
++      grsec_enable_chroot_fchdir = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_SHMAT
++      grsec_enable_chroot_shmat = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_PTRACE
++      grsec_enable_audit_ptrace = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_DOUBLE
++      grsec_enable_chroot_double = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_PIVOT
++      grsec_enable_chroot_pivot = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_CHDIR
++      grsec_enable_chroot_chdir = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_CHMOD
++      grsec_enable_chroot_chmod = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_MKNOD
++      grsec_enable_chroot_mknod = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_NICE
++      grsec_enable_chroot_nice = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_EXECLOG
++      grsec_enable_chroot_execlog = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_CAPS
++      grsec_enable_chroot_caps = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_SYSCTL
++      grsec_enable_chroot_sysctl = 1;
++#endif
++#ifdef CONFIG_GRKERNSEC_TPE
++      grsec_enable_tpe = 1;
++      grsec_tpe_gid = CONFIG_GRKERNSEC_TPE_GID;
++#ifdef CONFIG_GRKERNSEC_TPE_ALL
++      grsec_enable_tpe_all = 1;
++#endif
++#endif
++#ifdef CONFIG_GRKERNSEC_SOCKET_ALL
++      grsec_enable_socket_all = 1;
++      grsec_socket_all_gid = CONFIG_GRKERNSEC_SOCKET_ALL_GID;
++#endif
++#ifdef CONFIG_GRKERNSEC_SOCKET_CLIENT
++      grsec_enable_socket_client = 1;
++      grsec_socket_client_gid = CONFIG_GRKERNSEC_SOCKET_CLIENT_GID;
++#endif
++#ifdef CONFIG_GRKERNSEC_SOCKET_SERVER
++      grsec_enable_socket_server = 1;
++      grsec_socket_server_gid = CONFIG_GRKERNSEC_SOCKET_SERVER_GID;
++#endif
++#endif
++
++      return;
++}
+diff --git a/grsecurity/grsec_link.c b/grsecurity/grsec_link.c
+new file mode 100644
+index 0000000..3efe141
+--- /dev/null
++++ b/grsecurity/grsec_link.c
+@@ -0,0 +1,43 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/fs.h>
++#include <linux/file.h>
++#include <linux/grinternal.h>
++
++int
++gr_handle_follow_link(const struct inode *parent,
++                    const struct inode *inode,
++                    const struct dentry *dentry, const struct vfsmount *mnt)
++{
++#ifdef CONFIG_GRKERNSEC_LINK
++      const struct cred *cred = current_cred();
++
++      if (grsec_enable_link && S_ISLNK(inode->i_mode) &&
++          (parent->i_mode & S_ISVTX) && (parent->i_uid != inode->i_uid) &&
++          (parent->i_mode & S_IWOTH) && (cred->fsuid != inode->i_uid)) {
++              gr_log_fs_int2(GR_DONT_AUDIT, GR_SYMLINK_MSG, dentry, mnt, inode->i_uid, inode->i_gid);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_hardlink(const struct dentry *dentry,
++                 const struct vfsmount *mnt,
++                 struct inode *inode, const int mode, const char *to)
++{
++#ifdef CONFIG_GRKERNSEC_LINK
++      const struct cred *cred = current_cred();
++
++      if (grsec_enable_link && cred->fsuid != inode->i_uid &&
++          (!S_ISREG(mode) || (mode & S_ISUID) ||
++           ((mode & (S_ISGID | S_IXGRP)) == (S_ISGID | S_IXGRP)) ||
++           (inode_permission(inode, MAY_READ | MAY_WRITE))) &&
++          !capable(CAP_FOWNER) && cred->uid) {
++              gr_log_fs_int2_str(GR_DONT_AUDIT, GR_HARDLINK_MSG, dentry, mnt, inode->i_uid, inode->i_gid, to);
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
+diff --git a/grsecurity/grsec_log.c b/grsecurity/grsec_log.c
+new file mode 100644
+index 0000000..a45d2e9
+--- /dev/null
++++ b/grsecurity/grsec_log.c
+@@ -0,0 +1,322 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/file.h>
++#include <linux/tty.h>
++#include <linux/fs.h>
++#include <linux/grinternal.h>
++
++#ifdef CONFIG_TREE_PREEMPT_RCU
++#define DISABLE_PREEMPT() preempt_disable()
++#define ENABLE_PREEMPT() preempt_enable()
++#else
++#define DISABLE_PREEMPT()
++#define ENABLE_PREEMPT()
++#endif
++
++#define BEGIN_LOCKS(x) \
++      DISABLE_PREEMPT(); \
++      rcu_read_lock(); \
++      read_lock(&tasklist_lock); \
++      read_lock(&grsec_exec_file_lock); \
++      if (x != GR_DO_AUDIT) \
++              spin_lock(&grsec_alert_lock); \
++      else \
++              spin_lock(&grsec_audit_lock)
++
++#define END_LOCKS(x) \
++      if (x != GR_DO_AUDIT) \
++              spin_unlock(&grsec_alert_lock); \
++      else \
++              spin_unlock(&grsec_audit_lock); \
++      read_unlock(&grsec_exec_file_lock); \
++      read_unlock(&tasklist_lock); \
++      rcu_read_unlock(); \
++      ENABLE_PREEMPT(); \
++      if (x == GR_DONT_AUDIT) \
++              gr_handle_alertkill(current)
++
++enum {
++      FLOODING,
++      NO_FLOODING
++};
++
++extern char *gr_alert_log_fmt;
++extern char *gr_audit_log_fmt;
++extern char *gr_alert_log_buf;
++extern char *gr_audit_log_buf;
++
++static int gr_log_start(int audit)
++{
++      char *loglevel = (audit == GR_DO_AUDIT) ? KERN_INFO : KERN_ALERT;
++      char *fmt = (audit == GR_DO_AUDIT) ? gr_audit_log_fmt : gr_alert_log_fmt;
++      char *buf = (audit == GR_DO_AUDIT) ? gr_audit_log_buf : gr_alert_log_buf;
++#if (CONFIG_GRKERNSEC_FLOODTIME > 0 && CONFIG_GRKERNSEC_FLOODBURST > 0)
++      unsigned long curr_secs = get_seconds();
++
++      if (audit == GR_DO_AUDIT)
++              goto set_fmt;
++
++      if (!grsec_alert_wtime || time_after(curr_secs, grsec_alert_wtime + CONFIG_GRKERNSEC_FLOODTIME)) {
++              grsec_alert_wtime = curr_secs;
++              grsec_alert_fyet = 0;
++      } else if (time_before_eq(curr_secs, grsec_alert_wtime + CONFIG_GRKERNSEC_FLOODTIME)
++                  && (grsec_alert_fyet < CONFIG_GRKERNSEC_FLOODBURST)) {
++              grsec_alert_fyet++;
++      } else if (grsec_alert_fyet == CONFIG_GRKERNSEC_FLOODBURST) {
++              grsec_alert_wtime = curr_secs;
++              grsec_alert_fyet++;
++              printk(KERN_ALERT "grsec: more alerts, logging disabled for %d seconds\n", CONFIG_GRKERNSEC_FLOODTIME);
++              return FLOODING;
++      }
++      else return FLOODING;
++
++set_fmt:
++#endif
++      memset(buf, 0, PAGE_SIZE);
++      if (current->signal->curr_ip && gr_acl_is_enabled()) {
++              sprintf(fmt, "%s%s", loglevel, "grsec: From %pI4: (%.64s:%c:%.950s) ");
++              snprintf(buf, PAGE_SIZE - 1, fmt, &current->signal->curr_ip, current->role->rolename, gr_roletype_to_char(), current->acl->filename);
++      } else if (current->signal->curr_ip) {
++              sprintf(fmt, "%s%s", loglevel, "grsec: From %pI4: ");
++              snprintf(buf, PAGE_SIZE - 1, fmt, &current->signal->curr_ip);
++      } else if (gr_acl_is_enabled()) {
++              sprintf(fmt, "%s%s", loglevel, "grsec: (%.64s:%c:%.950s) ");
++              snprintf(buf, PAGE_SIZE - 1, fmt, current->role->rolename, gr_roletype_to_char(), current->acl->filename);
++      } else {
++              sprintf(fmt, "%s%s", loglevel, "grsec: ");
++              strcpy(buf, fmt);
++      }
++
++      return NO_FLOODING;
++}
++
++static void gr_log_middle(int audit, const char *msg, va_list ap)
++      __attribute__ ((format (printf, 2, 0)));
++
++static void gr_log_middle(int audit, const char *msg, va_list ap)
++{
++      char *buf = (audit == GR_DO_AUDIT) ? gr_audit_log_buf : gr_alert_log_buf;
++      unsigned int len = strlen(buf);
++
++      vsnprintf(buf + len, PAGE_SIZE - len - 1, msg, ap);
++
++      return;
++}
++
++static void gr_log_middle_varargs(int audit, const char *msg, ...)
++      __attribute__ ((format (printf, 2, 3)));
++
++static void gr_log_middle_varargs(int audit, const char *msg, ...)
++{
++      char *buf = (audit == GR_DO_AUDIT) ? gr_audit_log_buf : gr_alert_log_buf;
++      unsigned int len = strlen(buf);
++      va_list ap;
++
++      va_start(ap, msg);
++      vsnprintf(buf + len, PAGE_SIZE - len - 1, msg, ap);
++      va_end(ap);
++
++      return;
++}
++
++static void gr_log_end(int audit, int append_default)
++{
++      char *buf = (audit == GR_DO_AUDIT) ? gr_audit_log_buf : gr_alert_log_buf;
++
++      if (append_default) {
++              unsigned int len = strlen(buf);
++              snprintf(buf + len, PAGE_SIZE - len - 1, DEFAULTSECMSG, DEFAULTSECARGS(current, current_cred(), __task_cred(current->real_parent)));
++      }
++
++      printk("%s\n", buf);
++
++      return;
++}
++
++void gr_log_varargs(int audit, const char *msg, int argtypes, ...)
++{
++      int logtype;
++      char *result = (audit == GR_DO_AUDIT) ? "successful" : "denied";
++      char *str1 = NULL, *str2 = NULL, *str3 = NULL;
++      void *voidptr = NULL;
++      int num1 = 0, num2 = 0;
++      unsigned long ulong1 = 0, ulong2 = 0;
++      struct dentry *dentry = NULL;
++      struct vfsmount *mnt = NULL;
++      struct file *file = NULL;
++      struct task_struct *task = NULL;
++      const struct cred *cred, *pcred;
++      va_list ap;
++
++      BEGIN_LOCKS(audit);
++      logtype = gr_log_start(audit);
++      if (logtype == FLOODING) {
++              END_LOCKS(audit);
++              return;
++      }
++      va_start(ap, argtypes);
++      switch (argtypes) {
++      case GR_TTYSNIFF:
++              task = va_arg(ap, struct task_struct *);
++              gr_log_middle_varargs(audit, msg, &task->signal->curr_ip, gr_task_fullpath0(task), task->comm, task->pid, gr_parent_task_fullpath0(task), task->real_parent->comm, task->real_parent->pid);
++              break;
++      case GR_SYSCTL_HIDDEN:
++              str1 = va_arg(ap, char *);
++              gr_log_middle_varargs(audit, msg, result, str1);
++              break;
++      case GR_RBAC:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              gr_log_middle_varargs(audit, msg, result, gr_to_filename(dentry, mnt));
++              break;
++      case GR_RBAC_STR:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              str1 = va_arg(ap, char *);
++              gr_log_middle_varargs(audit, msg, result, gr_to_filename(dentry, mnt), str1);
++              break;
++      case GR_STR_RBAC:
++              str1 = va_arg(ap, char *);
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              gr_log_middle_varargs(audit, msg, result, str1, gr_to_filename(dentry, mnt));
++              break;
++      case GR_RBAC_MODE2:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              str1 = va_arg(ap, char *);
++              str2 = va_arg(ap, char *);
++              gr_log_middle_varargs(audit, msg, result, gr_to_filename(dentry, mnt), str1, str2);
++              break;
++      case GR_RBAC_MODE3:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              str1 = va_arg(ap, char *);
++              str2 = va_arg(ap, char *);
++              str3 = va_arg(ap, char *);
++              gr_log_middle_varargs(audit, msg, result, gr_to_filename(dentry, mnt), str1, str2, str3);
++              break;
++      case GR_FILENAME:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              gr_log_middle_varargs(audit, msg, gr_to_filename(dentry, mnt));
++              break;
++      case GR_STR_FILENAME:
++              str1 = va_arg(ap, char *);
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              gr_log_middle_varargs(audit, msg, str1, gr_to_filename(dentry, mnt));
++              break;
++      case GR_FILENAME_STR:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              str1 = va_arg(ap, char *);
++              gr_log_middle_varargs(audit, msg, gr_to_filename(dentry, mnt), str1);
++              break;
++      case GR_FILENAME_TWO_INT:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              num1 = va_arg(ap, int);
++              num2 = va_arg(ap, int);
++              gr_log_middle_varargs(audit, msg, gr_to_filename(dentry, mnt), num1, num2);
++              break;
++      case GR_FILENAME_TWO_INT_STR:
++              dentry = va_arg(ap, struct dentry *);
++              mnt = va_arg(ap, struct vfsmount *);
++              num1 = va_arg(ap, int);
++              num2 = va_arg(ap, int);
++              str1 = va_arg(ap, char *);
++              gr_log_middle_varargs(audit, msg, gr_to_filename(dentry, mnt), num1, num2, str1);
++              break;
++      case GR_TEXTREL:
++              file = va_arg(ap, struct file *);
++              ulong1 = va_arg(ap, unsigned long);
++              ulong2 = va_arg(ap, unsigned long);
++              gr_log_middle_varargs(audit, msg, file ? gr_to_filename(file->f_path.dentry, file->f_path.mnt) : "<anonymous mapping>", ulong1, ulong2);
++              break;
++      case GR_PTRACE:
++              task = va_arg(ap, struct task_struct *);
++              gr_log_middle_varargs(audit, msg, task->exec_file ? gr_to_filename(task->exec_file->f_path.dentry, task->exec_file->f_path.mnt) : "(none)", task->comm, task->pid);
++              break;
++      case GR_RESOURCE:
++              task = va_arg(ap, struct task_struct *);
++              cred = __task_cred(task);
++              pcred = __task_cred(task->real_parent);
++              ulong1 = va_arg(ap, unsigned long);
++              str1 = va_arg(ap, char *);
++              ulong2 = va_arg(ap, unsigned long);
++              gr_log_middle_varargs(audit, msg, ulong1, str1, ulong2, gr_task_fullpath(task), task->comm, task->pid, cred->uid, cred->euid, cred->gid, cred->egid, gr_parent_task_fullpath(task), task->real_parent->comm, task->real_parent->pid, pcred->uid, pcred->euid, pcred->gid, pcred->egid);
++              break;
++      case GR_CAP:
++              task = va_arg(ap, struct task_struct *);
++              cred = __task_cred(task);
++              pcred = __task_cred(task->real_parent);
++              str1 = va_arg(ap, char *);
++              gr_log_middle_varargs(audit, msg, str1, gr_task_fullpath(task), task->comm, task->pid, cred->uid, cred->euid, cred->gid, cred->egid, gr_parent_task_fullpath(task), task->real_parent->comm, task->real_parent->pid, pcred->uid, pcred->euid, pcred->gid, pcred->egid);
++              break;
++      case GR_SIG:
++              str1 = va_arg(ap, char *);
++              voidptr = va_arg(ap, void *);
++              gr_log_middle_varargs(audit, msg, str1, voidptr);
++              break;
++      case GR_SIG2:
++              task = va_arg(ap, struct task_struct *);
++              cred = __task_cred(task);
++              pcred = __task_cred(task->real_parent);
++              num1 = va_arg(ap, int);
++              gr_log_middle_varargs(audit, msg, num1, gr_task_fullpath0(task), task->comm, task->pid, cred->uid, cred->euid, cred->gid, cred->egid, gr_parent_task_fullpath0(task), task->real_parent->comm, task->real_parent->pid, pcred->uid, pcred->euid, pcred->gid, pcred->egid);
++              break;
++      case GR_CRASH1:
++              task = va_arg(ap, struct task_struct *);
++              cred = __task_cred(task);
++              pcred = __task_cred(task->real_parent);
++              ulong1 = va_arg(ap, unsigned long);
++              gr_log_middle_varargs(audit, msg, gr_task_fullpath(task), task->comm, task->pid, cred->uid, cred->euid, cred->gid, cred->egid, gr_parent_task_fullpath(task), task->real_parent->comm, task->real_parent->pid, pcred->uid, pcred->euid, pcred->gid, pcred->egid, cred->uid, ulong1);
++              break;
++      case GR_CRASH2:
++              task = va_arg(ap, struct task_struct *);
++              cred = __task_cred(task);
++              pcred = __task_cred(task->real_parent);
++              ulong1 = va_arg(ap, unsigned long);
++              gr_log_middle_varargs(audit, msg, gr_task_fullpath(task), task->comm, task->pid, cred->uid, cred->euid, cred->gid, cred->egid, gr_parent_task_fullpath(task), task->real_parent->comm, task->real_parent->pid, pcred->uid, pcred->euid, pcred->gid, pcred->egid, ulong1);
++              break;
++      case GR_RWXMAP:
++              file = va_arg(ap, struct file *);
++              gr_log_middle_varargs(audit, msg, file ? gr_to_filename(file->f_path.dentry, file->f_path.mnt) : "<anonymous mapping>");
++              break;
++      case GR_PSACCT:
++              {
++                      unsigned int wday, cday;
++                      __u8 whr, chr;
++                      __u8 wmin, cmin;
++                      __u8 wsec, csec;
++                      char cur_tty[64] = { 0 };
++                      char parent_tty[64] = { 0 };
++
++                      task = va_arg(ap, struct task_struct *);
++                      wday = va_arg(ap, unsigned int);
++                      cday = va_arg(ap, unsigned int);
++                      whr = va_arg(ap, int);
++                      chr = va_arg(ap, int);
++                      wmin = va_arg(ap, int);
++                      cmin = va_arg(ap, int);
++                      wsec = va_arg(ap, int);
++                      csec = va_arg(ap, int);
++                      ulong1 = va_arg(ap, unsigned long);
++                      cred = __task_cred(task);
++                      pcred = __task_cred(task->real_parent);
++
++                      gr_log_middle_varargs(audit, msg, gr_task_fullpath(task), task->comm, task->pid, &task->signal->curr_ip, tty_name(task->signal->tty, cur_tty), cred->uid, cred->euid, cred->gid, cred->egid, wday, whr, wmin, wsec, cday, chr, cmin, csec, (task->flags & PF_SIGNALED) ? "killed by signal" : "exited", ulong1, gr_parent_task_fullpath(task), task->real_parent->comm, task->real_parent->pid, &task->real_parent->signal->curr_ip, tty_name(task->real_parent->signal->tty, parent_tty), pcred->uid, pcred->euid, pcred->gid, pcred->egid);
++              }
++              break;
++      default:
++              gr_log_middle(audit, msg, ap);
++      }
++      va_end(ap);
++      // these don't need DEFAULTSECARGS printed on the end
++      if (argtypes == GR_CRASH1 || argtypes == GR_CRASH2)
++              gr_log_end(audit, 0);
++      else
++              gr_log_end(audit, 1);
++      END_LOCKS(audit);
++}
+diff --git a/grsecurity/grsec_mem.c b/grsecurity/grsec_mem.c
+new file mode 100644
+index 0000000..f536303
+--- /dev/null
++++ b/grsecurity/grsec_mem.c
+@@ -0,0 +1,40 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/mm.h>
++#include <linux/mman.h>
++#include <linux/grinternal.h>
++
++void
++gr_handle_ioperm(void)
++{
++      gr_log_noargs(GR_DONT_AUDIT, GR_IOPERM_MSG);
++      return;
++}
++
++void
++gr_handle_iopl(void)
++{
++      gr_log_noargs(GR_DONT_AUDIT, GR_IOPL_MSG);
++      return;
++}
++
++void
++gr_handle_mem_readwrite(u64 from, u64 to)
++{
++      gr_log_two_u64(GR_DONT_AUDIT, GR_MEM_READWRITE_MSG, from, to);
++      return;
++}
++
++void
++gr_handle_vm86(void)
++{
++      gr_log_noargs(GR_DONT_AUDIT, GR_VM86_MSG);
++      return;
++}
++
++void
++gr_log_badprocpid(const char *entry)
++{
++      gr_log_str(GR_DONT_AUDIT, GR_BADPROCPID_MSG, entry);
++      return;
++}
+diff --git a/grsecurity/grsec_mount.c b/grsecurity/grsec_mount.c
+new file mode 100644
+index 0000000..2131422
+--- /dev/null
++++ b/grsecurity/grsec_mount.c
+@@ -0,0 +1,62 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/mount.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++void
++gr_log_remount(const char *devname, const int retval)
++{
++#ifdef CONFIG_GRKERNSEC_AUDIT_MOUNT
++      if (grsec_enable_mount && (retval >= 0))
++              gr_log_str(GR_DO_AUDIT, GR_REMOUNT_AUDIT_MSG, devname ? devname : "none");
++#endif
++      return;
++}
++
++void
++gr_log_unmount(const char *devname, const int retval)
++{
++#ifdef CONFIG_GRKERNSEC_AUDIT_MOUNT
++      if (grsec_enable_mount && (retval >= 0))
++              gr_log_str(GR_DO_AUDIT, GR_UNMOUNT_AUDIT_MSG, devname ? devname : "none");
++#endif
++      return;
++}
++
++void
++gr_log_mount(const char *from, const char *to, const int retval)
++{
++#ifdef CONFIG_GRKERNSEC_AUDIT_MOUNT
++      if (grsec_enable_mount && (retval >= 0))
++              gr_log_str_str(GR_DO_AUDIT, GR_MOUNT_AUDIT_MSG, from ? from : "none", to);
++#endif
++      return;
++}
++
++int
++gr_handle_rofs_mount(struct dentry *dentry, struct vfsmount *mnt, int mnt_flags)
++{
++#ifdef CONFIG_GRKERNSEC_ROFS
++      if (grsec_enable_rofs && !(mnt_flags & MNT_READONLY)) {
++              gr_log_fs_generic(GR_DO_AUDIT, GR_ROFS_MOUNT_MSG, dentry, mnt);
++              return -EPERM;
++      } else
++              return 0;
++#endif
++      return 0;
++}
++
++int
++gr_handle_rofs_blockwrite(struct dentry *dentry, struct vfsmount *mnt, int acc_mode)
++{
++#ifdef CONFIG_GRKERNSEC_ROFS
++      if (grsec_enable_rofs && (acc_mode & MAY_WRITE) &&
++          dentry->d_inode && S_ISBLK(dentry->d_inode->i_mode)) {
++              gr_log_fs_generic(GR_DO_AUDIT, GR_ROFS_BLOCKWRITE_MSG, dentry, mnt);
++              return -EPERM;
++      } else
++              return 0;
++#endif
++      return 0;
++}
+diff --git a/grsecurity/grsec_pax.c b/grsecurity/grsec_pax.c
+new file mode 100644
+index 0000000..a3b12a0
+--- /dev/null
++++ b/grsecurity/grsec_pax.c
+@@ -0,0 +1,36 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/mm.h>
++#include <linux/file.h>
++#include <linux/grinternal.h>
++#include <linux/grsecurity.h>
++
++void
++gr_log_textrel(struct vm_area_struct * vma)
++{
++#ifdef CONFIG_GRKERNSEC_AUDIT_TEXTREL
++      if (grsec_enable_audit_textrel)
++              gr_log_textrel_ulong_ulong(GR_DO_AUDIT, GR_TEXTREL_AUDIT_MSG, vma->vm_file, vma->vm_start, vma->vm_pgoff);
++#endif
++      return;
++}
++
++void
++gr_log_rwxmmap(struct file *file)
++{
++#ifdef CONFIG_GRKERNSEC_RWXMAP_LOG
++      if (grsec_enable_log_rwxmaps)
++              gr_log_rwxmap(GR_DONT_AUDIT, GR_RWXMMAP_MSG, file);
++#endif
++      return;
++}
++
++void
++gr_log_rwxmprotect(struct file *file)
++{
++#ifdef CONFIG_GRKERNSEC_RWXMAP_LOG
++      if (grsec_enable_log_rwxmaps)
++              gr_log_rwxmap(GR_DONT_AUDIT, GR_RWXMPROTECT_MSG, file);
++#endif
++      return;
++}
+diff --git a/grsecurity/grsec_ptrace.c b/grsecurity/grsec_ptrace.c
+new file mode 100644
+index 0000000..78f8733
+--- /dev/null
++++ b/grsecurity/grsec_ptrace.c
+@@ -0,0 +1,30 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/grinternal.h>
++#include <linux/security.h>
++
++void
++gr_audit_ptrace(struct task_struct *task)
++{
++#ifdef CONFIG_GRKERNSEC_AUDIT_PTRACE
++      if (grsec_enable_audit_ptrace)
++              gr_log_ptrace(GR_DO_AUDIT, GR_PTRACE_AUDIT_MSG, task);
++#endif
++      return;
++}
++
++int
++gr_ptrace_readexec(struct file *file, int unsafe_flags)
++{
++#ifdef CONFIG_GRKERNSEC_PTRACE_READEXEC
++      const struct dentry *dentry = file->f_path.dentry;
++      const struct vfsmount *mnt = file->f_path.mnt;
++
++      if (grsec_enable_ptrace_readexec && (unsafe_flags & LSM_UNSAFE_PTRACE) &&
++          (inode_permission(dentry->d_inode, MAY_READ) || !gr_acl_handle_open(dentry, mnt, MAY_READ))) {
++              gr_log_fs_generic(GR_DONT_AUDIT, GR_PTRACE_READEXEC_MSG, dentry, mnt);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
+diff --git a/grsecurity/grsec_sig.c b/grsecurity/grsec_sig.c
+new file mode 100644
+index 0000000..c648492
+--- /dev/null
++++ b/grsecurity/grsec_sig.c
+@@ -0,0 +1,206 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/delay.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++#include <linux/hardirq.h>
++
++char *signames[] = {
++      [SIGSEGV] = "Segmentation fault",
++      [SIGILL] = "Illegal instruction",
++      [SIGABRT] = "Abort",
++      [SIGBUS] = "Invalid alignment/Bus error"
++};
++
++void
++gr_log_signal(const int sig, const void *addr, const struct task_struct *t)
++{
++#ifdef CONFIG_GRKERNSEC_SIGNAL
++      if (grsec_enable_signal && ((sig == SIGSEGV) || (sig == SIGILL) ||
++                                  (sig == SIGABRT) || (sig == SIGBUS))) {
++              if (t->pid == current->pid) {
++                      gr_log_sig_addr(GR_DONT_AUDIT_GOOD, GR_UNISIGLOG_MSG, signames[sig], addr);
++              } else {
++                      gr_log_sig_task(GR_DONT_AUDIT_GOOD, GR_DUALSIGLOG_MSG, t, sig);
++              }
++      }
++#endif
++      return;
++}
++
++int
++gr_handle_signal(const struct task_struct *p, const int sig)
++{
++#ifdef CONFIG_GRKERNSEC
++      /* ignore the 0 signal for protected task checks */
++      if (current->pid > 1 && sig && gr_check_protected_task(p)) {
++              gr_log_sig_task(GR_DONT_AUDIT, GR_SIG_ACL_MSG, p, sig);
++              return -EPERM;
++      } else if (gr_pid_is_chrooted((struct task_struct *)p)) {
++              return -EPERM;
++      }
++#endif
++      return 0;
++}
++
++#ifdef CONFIG_GRKERNSEC
++extern int specific_send_sig_info(int sig, struct siginfo *info, struct task_struct *t);
++
++int gr_fake_force_sig(int sig, struct task_struct *t)
++{
++      unsigned long int flags;
++      int ret, blocked, ignored;
++      struct k_sigaction *action;
++
++      spin_lock_irqsave(&t->sighand->siglock, flags);
++      action = &t->sighand->action[sig-1];
++      ignored = action->sa.sa_handler == SIG_IGN;
++      blocked = sigismember(&t->blocked, sig);
++      if (blocked || ignored) {
++              action->sa.sa_handler = SIG_DFL;
++              if (blocked) {
++                      sigdelset(&t->blocked, sig);
++                      recalc_sigpending_and_wake(t);
++              }
++      }
++      if (action->sa.sa_handler == SIG_DFL)
++              t->signal->flags &= ~SIGNAL_UNKILLABLE;
++      ret = specific_send_sig_info(sig, SEND_SIG_PRIV, t);
++
++      spin_unlock_irqrestore(&t->sighand->siglock, flags);
++
++      return ret;
++}
++#endif
++
++#ifdef CONFIG_GRKERNSEC_BRUTE
++#define GR_USER_BAN_TIME (15 * 60)
++
++static int __get_dumpable(unsigned long mm_flags)
++{
++      int ret;
++
++      ret = mm_flags & MMF_DUMPABLE_MASK;
++      return (ret >= 2) ? 2 : ret;
++}
++#endif
++
++void gr_handle_brute_attach(struct task_struct *p, unsigned long mm_flags)
++{
++#ifdef CONFIG_GRKERNSEC_BRUTE
++      uid_t uid = 0;
++
++      if (!grsec_enable_brute)
++              return;
++
++      rcu_read_lock();
++      read_lock(&tasklist_lock);
++      read_lock(&grsec_exec_file_lock);
++      if (p->real_parent && p->real_parent->exec_file == p->exec_file)
++              p->real_parent->brute = 1;
++      else {
++              const struct cred *cred = __task_cred(p), *cred2;
++              struct task_struct *tsk, *tsk2;
++
++              if (!__get_dumpable(mm_flags) && cred->uid) {
++                      struct user_struct *user;
++
++                      uid = cred->uid;
++
++                      /* this is put upon execution past expiration */
++                      user = find_user(uid);
++                      if (user == NULL)
++                              goto unlock;
++                      user->banned = 1;
++                      user->ban_expires = get_seconds() + GR_USER_BAN_TIME;
++                      if (user->ban_expires == ~0UL)
++                              user->ban_expires--;
++
++                      do_each_thread(tsk2, tsk) {
++                              cred2 = __task_cred(tsk);
++                              if (tsk != p && cred2->uid == uid)
++                                      gr_fake_force_sig(SIGKILL, tsk);
++                      } while_each_thread(tsk2, tsk);
++              }
++      }
++unlock:
++      read_unlock(&grsec_exec_file_lock);
++      read_unlock(&tasklist_lock);
++      rcu_read_unlock();
++
++      if (uid)
++              printk(KERN_ALERT "grsec: bruteforce prevention initiated against uid %u, banning for %d minutes\n", uid, GR_USER_BAN_TIME / 60);
++#endif
++      return;
++}
++
++void gr_handle_brute_check(void)
++{
++#ifdef CONFIG_GRKERNSEC_BRUTE
++      if (current->brute)
++              msleep(30 * 1000);
++#endif
++      return;
++}
++
++void gr_handle_kernel_exploit(void)
++{
++#ifdef CONFIG_GRKERNSEC_KERN_LOCKOUT
++      const struct cred *cred;
++      struct task_struct *tsk, *tsk2;
++      struct user_struct *user;
++      uid_t uid;
++
++      if (in_irq() || in_serving_softirq() || in_nmi())
++              panic("grsec: halting the system due to suspicious kernel crash caused in interrupt context");
++
++      uid = current_uid();
++
++      if (uid == 0)
++              panic("grsec: halting the system due to suspicious kernel crash caused by root");
++      else {
++              /* kill all the processes of this user, hold a reference
++                 to their creds struct, and prevent them from creating
++                 another process until system reset
++              */
++              printk(KERN_ALERT "grsec: banning user with uid %u until system restart for suspicious kernel crash\n", uid);
++              /* we intentionally leak this ref */
++              user = get_uid(current->cred->user);
++              if (user) {
++                      user->banned = 1;
++                      user->ban_expires = ~0UL;
++              }
++
++              read_lock(&tasklist_lock);
++              do_each_thread(tsk2, tsk) {
++                      cred = __task_cred(tsk);
++                      if (cred->uid == uid)
++                              gr_fake_force_sig(SIGKILL, tsk);
++              } while_each_thread(tsk2, tsk);
++              read_unlock(&tasklist_lock);
++      }
++#endif
++}
++
++int __gr_process_user_ban(struct user_struct *user)
++{
++#if defined(CONFIG_GRKERNSEC_KERN_LOCKOUT) || defined(CONFIG_GRKERNSEC_BRUTE)
++      if (unlikely(user->banned)) {
++              if (user->ban_expires != ~0UL && time_after_eq(get_seconds(), user->ban_expires)) {
++                      user->banned = 0;
++                      user->ban_expires = 0;
++                      free_uid(user);
++              } else
++                      return -EPERM;
++      }
++#endif
++      return 0;
++}
++
++int gr_process_user_ban(void)
++{
++#if defined(CONFIG_GRKERNSEC_KERN_LOCKOUT) || defined(CONFIG_GRKERNSEC_BRUTE)
++      return __gr_process_user_ban(current->cred->user);
++#endif
++      return 0;
++}
+diff --git a/grsecurity/grsec_sock.c b/grsecurity/grsec_sock.c
+new file mode 100644
+index 0000000..7512ea9
+--- /dev/null
++++ b/grsecurity/grsec_sock.c
+@@ -0,0 +1,275 @@
++#include <linux/kernel.h>
++#include <linux/module.h>
++#include <linux/sched.h>
++#include <linux/file.h>
++#include <linux/net.h>
++#include <linux/in.h>
++#include <linux/ip.h>
++#include <net/sock.h>
++#include <net/inet_sock.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++#include <linux/gracl.h>
++
++kernel_cap_t gr_cap_rtnetlink(struct sock *sock);
++EXPORT_SYMBOL(gr_cap_rtnetlink);
++
++extern int gr_search_udp_recvmsg(const struct sock *sk, const struct sk_buff *skb);
++extern int gr_search_udp_sendmsg(const struct sock *sk, const struct sockaddr_in *addr);
++
++EXPORT_SYMBOL(gr_search_udp_recvmsg);
++EXPORT_SYMBOL(gr_search_udp_sendmsg);
++
++#ifdef CONFIG_UNIX_MODULE
++EXPORT_SYMBOL(gr_acl_handle_unix);
++EXPORT_SYMBOL(gr_acl_handle_mknod);
++EXPORT_SYMBOL(gr_handle_chroot_unix);
++EXPORT_SYMBOL(gr_handle_create);
++#endif
++
++#ifdef CONFIG_GRKERNSEC
++#define gr_conn_table_size 32749
++struct conn_table_entry {
++      struct conn_table_entry *next;
++      struct signal_struct *sig;
++};
++
++struct conn_table_entry *gr_conn_table[gr_conn_table_size];
++DEFINE_SPINLOCK(gr_conn_table_lock);
++
++extern const char * gr_socktype_to_name(unsigned char type);
++extern const char * gr_proto_to_name(unsigned char proto);
++extern const char * gr_sockfamily_to_name(unsigned char family);
++
++static __inline__ int 
++conn_hash(__u32 saddr, __u32 daddr, __u16 sport, __u16 dport, unsigned int size)
++{
++      return ((daddr + saddr + (sport << 8) + (dport << 16)) % size);
++}
++
++static __inline__ int
++conn_match(const struct signal_struct *sig, __u32 saddr, __u32 daddr, 
++         __u16 sport, __u16 dport)
++{
++      if (unlikely(sig->gr_saddr == saddr && sig->gr_daddr == daddr &&
++                   sig->gr_sport == sport && sig->gr_dport == dport))
++              return 1;
++      else
++              return 0;
++}
++
++static void gr_add_to_task_ip_table_nolock(struct signal_struct *sig, struct conn_table_entry *newent)
++{
++      struct conn_table_entry **match;
++      unsigned int index;
++
++      index = conn_hash(sig->gr_saddr, sig->gr_daddr, 
++                        sig->gr_sport, sig->gr_dport, 
++                        gr_conn_table_size);
++
++      newent->sig = sig;
++      
++      match = &gr_conn_table[index];
++      newent->next = *match;
++      *match = newent;
++
++      return;
++}
++
++static void gr_del_task_from_ip_table_nolock(struct signal_struct *sig)
++{
++      struct conn_table_entry *match, *last = NULL;
++      unsigned int index;
++
++      index = conn_hash(sig->gr_saddr, sig->gr_daddr, 
++                        sig->gr_sport, sig->gr_dport, 
++                        gr_conn_table_size);
++
++      match = gr_conn_table[index];
++      while (match && !conn_match(match->sig, 
++              sig->gr_saddr, sig->gr_daddr, sig->gr_sport, 
++              sig->gr_dport)) {
++              last = match;
++              match = match->next;
++      }
++
++      if (match) {
++              if (last)
++                      last->next = match->next;
++              else
++                      gr_conn_table[index] = NULL;
++              kfree(match);
++      }
++
++      return;
++}
++
++static struct signal_struct * gr_lookup_task_ip_table(__u32 saddr, __u32 daddr,
++                                           __u16 sport, __u16 dport)
++{
++      struct conn_table_entry *match;
++      unsigned int index;
++
++      index = conn_hash(saddr, daddr, sport, dport, gr_conn_table_size);
++
++      match = gr_conn_table[index];
++      while (match && !conn_match(match->sig, saddr, daddr, sport, dport))
++              match = match->next;
++
++      if (match)
++              return match->sig;
++      else
++              return NULL;
++}
++
++#endif
++
++void gr_update_task_in_ip_table(struct task_struct *task, const struct inet_sock *inet)
++{
++#ifdef CONFIG_GRKERNSEC
++      struct signal_struct *sig = task->signal;
++      struct conn_table_entry *newent;
++
++      newent = kmalloc(sizeof(struct conn_table_entry), GFP_ATOMIC);
++      if (newent == NULL)
++              return;
++      /* no bh lock needed since we are called with bh disabled */
++      spin_lock(&gr_conn_table_lock);
++      gr_del_task_from_ip_table_nolock(sig);
++      sig->gr_saddr = inet->rcv_saddr;
++      sig->gr_daddr = inet->daddr;
++      sig->gr_sport = inet->sport;
++      sig->gr_dport = inet->dport;
++      gr_add_to_task_ip_table_nolock(sig, newent);
++      spin_unlock(&gr_conn_table_lock);
++#endif
++      return;
++}
++
++void gr_del_task_from_ip_table(struct task_struct *task)
++{
++#ifdef CONFIG_GRKERNSEC
++      spin_lock_bh(&gr_conn_table_lock);
++      gr_del_task_from_ip_table_nolock(task->signal);
++      spin_unlock_bh(&gr_conn_table_lock);
++#endif
++      return;
++}
++
++void
++gr_attach_curr_ip(const struct sock *sk)
++{
++#ifdef CONFIG_GRKERNSEC
++      struct signal_struct *p, *set;
++      const struct inet_sock *inet = inet_sk(sk);     
++
++      if (unlikely(sk->sk_protocol != IPPROTO_TCP))
++              return;
++
++      set = current->signal;
++
++      spin_lock_bh(&gr_conn_table_lock);
++      p = gr_lookup_task_ip_table(inet->daddr, inet->rcv_saddr,
++                                  inet->dport, inet->sport);
++      if (unlikely(p != NULL)) {
++              set->curr_ip = p->curr_ip;
++              set->used_accept = 1;
++              gr_del_task_from_ip_table_nolock(p);
++              spin_unlock_bh(&gr_conn_table_lock);
++              return;
++      }
++      spin_unlock_bh(&gr_conn_table_lock);
++
++      set->curr_ip = inet->daddr;
++      set->used_accept = 1;
++#endif
++      return;
++}
++
++int
++gr_handle_sock_all(const int family, const int type, const int protocol)
++{
++#ifdef CONFIG_GRKERNSEC_SOCKET_ALL
++      if (grsec_enable_socket_all && in_group_p(grsec_socket_all_gid) &&
++          (family != AF_UNIX)) {
++              if (family == AF_INET)
++                      gr_log_str3(GR_DONT_AUDIT, GR_SOCK_MSG, gr_sockfamily_to_name(family), gr_socktype_to_name(type), gr_proto_to_name(protocol));
++              else
++                      gr_log_str2_int(GR_DONT_AUDIT, GR_SOCK_NOINET_MSG, gr_sockfamily_to_name(family), gr_socktype_to_name(type), protocol);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_sock_server(const struct sockaddr *sck)
++{
++#ifdef CONFIG_GRKERNSEC_SOCKET_SERVER
++      if (grsec_enable_socket_server &&
++          in_group_p(grsec_socket_server_gid) &&
++          sck && (sck->sa_family != AF_UNIX) &&
++          (sck->sa_family != AF_LOCAL)) {
++              gr_log_noargs(GR_DONT_AUDIT, GR_BIND_MSG);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_sock_server_other(const struct sock *sck)
++{
++#ifdef CONFIG_GRKERNSEC_SOCKET_SERVER
++      if (grsec_enable_socket_server &&
++          in_group_p(grsec_socket_server_gid) &&
++          sck && (sck->sk_family != AF_UNIX) &&
++          (sck->sk_family != AF_LOCAL)) {
++              gr_log_noargs(GR_DONT_AUDIT, GR_BIND_MSG);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
++
++int
++gr_handle_sock_client(const struct sockaddr *sck)
++{
++#ifdef CONFIG_GRKERNSEC_SOCKET_CLIENT
++      if (grsec_enable_socket_client && in_group_p(grsec_socket_client_gid) &&
++          sck && (sck->sa_family != AF_UNIX) &&
++          (sck->sa_family != AF_LOCAL)) {
++              gr_log_noargs(GR_DONT_AUDIT, GR_CONNECT_MSG);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
++
++kernel_cap_t
++gr_cap_rtnetlink(struct sock *sock)
++{
++#ifdef CONFIG_GRKERNSEC
++      if (!gr_acl_is_enabled())
++              return current_cap();
++      else if (sock->sk_protocol == NETLINK_ISCSI &&
++               cap_raised(current_cap(), CAP_SYS_ADMIN) &&
++               gr_is_capable(CAP_SYS_ADMIN))
++              return current_cap();
++      else if (sock->sk_protocol == NETLINK_AUDIT &&
++               cap_raised(current_cap(), CAP_AUDIT_WRITE) &&
++               gr_is_capable(CAP_AUDIT_WRITE) &&
++               cap_raised(current_cap(), CAP_AUDIT_CONTROL) &&
++               gr_is_capable(CAP_AUDIT_CONTROL))
++              return current_cap();
++      else if (cap_raised(current_cap(), CAP_NET_ADMIN) &&
++               ((sock->sk_protocol == NETLINK_ROUTE) ? 
++                gr_is_capable_nolog(CAP_NET_ADMIN) : 
++                gr_is_capable(CAP_NET_ADMIN)))
++              return current_cap();
++      else
++              return __cap_empty_set;
++#else
++      return current_cap();
++#endif
++}
+diff --git a/grsecurity/grsec_sysctl.c b/grsecurity/grsec_sysctl.c
+new file mode 100644
+index 0000000..31f3258
+--- /dev/null
++++ b/grsecurity/grsec_sysctl.c
+@@ -0,0 +1,499 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/sysctl.h>
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++int
++gr_handle_sysctl_mod(const char *dirname, const char *name, const int op)
++{
++#ifdef CONFIG_GRKERNSEC_SYSCTL
++      if (!strcmp(dirname, "grsecurity") && grsec_lock && (op & MAY_WRITE)) {
++              gr_log_str(GR_DONT_AUDIT, GR_SYSCTL_MSG, name);
++              return -EACCES;
++      }
++#endif
++      return 0;
++}
++
++#ifdef CONFIG_GRKERNSEC_ROFS
++static int __maybe_unused one = 1;
++#endif
++
++#if defined(CONFIG_GRKERNSEC_SYSCTL) || defined(CONFIG_GRKERNSEC_ROFS)
++ctl_table grsecurity_table[] = {
++#ifdef CONFIG_GRKERNSEC_SYSCTL
++#ifdef CONFIG_GRKERNSEC_SYSCTL_DISTRO
++#ifdef CONFIG_GRKERNSEC_IO
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "disable_priv_io",
++              .data           = &grsec_disable_privio,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#endif
++#ifdef CONFIG_GRKERNSEC_LINK
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "linking_restrictions",
++              .data           = &grsec_enable_link,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_BRUTE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "deter_bruteforce",
++              .data           = &grsec_enable_brute,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_FIFO
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "fifo_restrictions",
++              .data           = &grsec_enable_fifo,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_PTRACE_READEXEC
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "ptrace_readexec",
++              .data           = &grsec_enable_ptrace_readexec,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_SETXID
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "consistent_setxid",
++              .data           = &grsec_enable_setxid,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "ip_blackhole",
++              .data           = &grsec_enable_blackhole,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "lastack_retries",
++              .data           = &grsec_lastack_retries,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_EXECLOG
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "exec_logging",
++              .data           = &grsec_enable_execlog,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_RWXMAP_LOG
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "rwxmap_logging",
++              .data           = &grsec_enable_log_rwxmaps,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_SIGNAL
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "signal_logging",
++              .data           = &grsec_enable_signal,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_FORKFAIL
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "forkfail_logging",
++              .data           = &grsec_enable_forkfail,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_TIME
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "timechange_logging",
++              .data           = &grsec_enable_time,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_SHMAT
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_shmat",
++              .data           = &grsec_enable_chroot_shmat,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_UNIX
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_unix",
++              .data           = &grsec_enable_chroot_unix,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_MOUNT
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_mount",
++              .data           = &grsec_enable_chroot_mount,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_FCHDIR
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_fchdir",
++              .data           = &grsec_enable_chroot_fchdir,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_DOUBLE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_chroot",
++              .data           = &grsec_enable_chroot_double,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_PIVOT
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_pivot",
++              .data           = &grsec_enable_chroot_pivot,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_CHDIR
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_enforce_chdir",
++              .data           = &grsec_enable_chroot_chdir,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_CHMOD
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_chmod",
++              .data           = &grsec_enable_chroot_chmod,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_MKNOD
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_mknod",
++              .data           = &grsec_enable_chroot_mknod,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_NICE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_restrict_nice",
++              .data           = &grsec_enable_chroot_nice,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_EXECLOG
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_execlog",
++              .data           = &grsec_enable_chroot_execlog,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_CAPS
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_caps",
++              .data           = &grsec_enable_chroot_caps,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_SYSCTL
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_deny_sysctl",
++              .data           = &grsec_enable_chroot_sysctl,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_TPE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "tpe",
++              .data           = &grsec_enable_tpe,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "tpe_gid",
++              .data           = &grsec_tpe_gid,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_TPE_INVERT
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "tpe_invert",
++              .data           = &grsec_enable_tpe_invert,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_TPE_ALL
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "tpe_restrict_all",
++              .data           = &grsec_enable_tpe_all,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_SOCKET_ALL
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "socket_all",
++              .data           = &grsec_enable_socket_all,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "socket_all_gid",
++              .data           = &grsec_socket_all_gid,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_SOCKET_CLIENT
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "socket_client",
++              .data           = &grsec_enable_socket_client,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "socket_client_gid",
++              .data           = &grsec_socket_client_gid,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_SOCKET_SERVER
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "socket_server",
++              .data           = &grsec_enable_socket_server,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "socket_server_gid",
++              .data           = &grsec_socket_server_gid,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_GROUP
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "audit_group",
++              .data           = &grsec_enable_group,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "audit_gid",
++              .data           = &grsec_audit_gid,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_CHDIR
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "audit_chdir",
++              .data           = &grsec_enable_chdir,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_MOUNT
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "audit_mount",
++              .data           = &grsec_enable_mount,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_TEXTREL
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "audit_textrel",
++              .data           = &grsec_enable_audit_textrel,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_DMESG
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "dmesg",
++              .data           = &grsec_enable_dmesg,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_CHROOT_FINDTASK
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "chroot_findtask",
++              .data           = &grsec_enable_chroot_findtask,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_RESLOG
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "resource_logging",
++              .data           = &grsec_resource_logging,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_AUDIT_PTRACE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "audit_ptrace",
++              .data           = &grsec_enable_audit_ptrace,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_HARDEN_PTRACE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "harden_ptrace",
++              .data           = &grsec_enable_harden_ptrace,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "grsec_lock",
++              .data           = &grsec_lock,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++#endif
++#ifdef CONFIG_GRKERNSEC_ROFS
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "romount_protect",
++              .data           = &grsec_enable_rofs,
++              .maxlen         = sizeof(int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec_minmax,
++              .extra1         = &one,
++              .extra2         = &one,
++      },
++#endif
++      { .ctl_name = 0 }
++};
++#endif
+diff --git a/grsecurity/grsec_time.c b/grsecurity/grsec_time.c
+new file mode 100644
+index 0000000..0dc13c3
+--- /dev/null
++++ b/grsecurity/grsec_time.c
+@@ -0,0 +1,16 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/grinternal.h>
++#include <linux/module.h>
++
++void
++gr_log_timechange(void)
++{
++#ifdef CONFIG_GRKERNSEC_TIME
++      if (grsec_enable_time)
++              gr_log_noargs(GR_DONT_AUDIT_GOOD, GR_TIME_MSG);
++#endif
++      return;
++}
++
++EXPORT_SYMBOL(gr_log_timechange);
+diff --git a/grsecurity/grsec_tpe.c b/grsecurity/grsec_tpe.c
+new file mode 100644
+index 0000000..07e0dc0
+--- /dev/null
++++ b/grsecurity/grsec_tpe.c
+@@ -0,0 +1,73 @@
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/file.h>
++#include <linux/fs.h>
++#include <linux/grinternal.h>
++
++extern int gr_acl_tpe_check(void);
++
++int
++gr_tpe_allow(const struct file *file)
++{
++#ifdef CONFIG_GRKERNSEC
++      struct inode *inode = file->f_path.dentry->d_parent->d_inode;
++      const struct cred *cred = current_cred();
++      char *msg = NULL;
++      char *msg2 = NULL;
++
++      // never restrict root
++      if (!cred->uid)
++              return 1;
++
++      if (grsec_enable_tpe) {
++#ifdef CONFIG_GRKERNSEC_TPE_INVERT
++              if (grsec_enable_tpe_invert && !in_group_p(grsec_tpe_gid))
++                      msg = "not being in trusted group";
++              else if (!grsec_enable_tpe_invert && in_group_p(grsec_tpe_gid))
++                      msg = "being in untrusted group";
++#else
++              if (in_group_p(grsec_tpe_gid))
++                      msg = "being in untrusted group";
++#endif
++      }
++      if (!msg && gr_acl_tpe_check())
++              msg = "being in untrusted role";
++
++      // not in any affected group/role
++      if (!msg)
++              goto next_check;
++
++      if (inode->i_uid)
++              msg2 = "file in non-root-owned directory";
++      else if (inode->i_mode & S_IWOTH)
++              msg2 = "file in world-writable directory";
++      else if (inode->i_mode & S_IWGRP)
++              msg2 = "file in group-writable directory";
++
++      if (msg && msg2) {
++              char fullmsg[70] = {0};
++              snprintf(fullmsg, sizeof(fullmsg)-1, "%s and %s", msg, msg2);
++              gr_log_str_fs(GR_DONT_AUDIT, GR_EXEC_TPE_MSG, fullmsg, file->f_path.dentry, file->f_path.mnt);
++              return 0;
++      }
++      msg = NULL;
++next_check:
++#ifdef CONFIG_GRKERNSEC_TPE_ALL
++      if (!grsec_enable_tpe || !grsec_enable_tpe_all)
++              return 1;
++
++      if (inode->i_uid && (inode->i_uid != cred->uid))
++              msg = "directory not owned by user";
++      else if (inode->i_mode & S_IWOTH)
++              msg = "file in world-writable directory";
++      else if (inode->i_mode & S_IWGRP)
++              msg = "file in group-writable directory";
++
++      if (msg) {
++              gr_log_str_fs(GR_DONT_AUDIT, GR_EXEC_TPE_MSG, msg, file->f_path.dentry, file->f_path.mnt);
++              return 0;
++      }
++#endif
++#endif
++      return 1;
++}
+diff --git a/grsecurity/grsum.c b/grsecurity/grsum.c
+new file mode 100644
+index 0000000..9f7b1ac
+--- /dev/null
++++ b/grsecurity/grsum.c
+@@ -0,0 +1,61 @@
++#include <linux/err.h>
++#include <linux/kernel.h>
++#include <linux/sched.h>
++#include <linux/mm.h>
++#include <linux/scatterlist.h>
++#include <linux/crypto.h>
++#include <linux/gracl.h>
++
++
++#if !defined(CONFIG_CRYPTO) || defined(CONFIG_CRYPTO_MODULE) || !defined(CONFIG_CRYPTO_SHA256) || defined(CONFIG_CRYPTO_SHA256_MODULE)
++#error "crypto and sha256 must be built into the kernel"
++#endif
++
++int
++chkpw(struct gr_arg *entry, unsigned char *salt, unsigned char *sum)
++{
++      char *p;
++      struct crypto_hash *tfm;
++      struct hash_desc desc;
++      struct scatterlist sg;
++      unsigned char temp_sum[GR_SHA_LEN];
++      volatile int retval = 0;
++      volatile int dummy = 0;
++      unsigned int i;
++
++      sg_init_table(&sg, 1);
++
++      tfm = crypto_alloc_hash("sha256", 0, CRYPTO_ALG_ASYNC);
++      if (IS_ERR(tfm)) {
++              /* should never happen, since sha256 should be built in */
++              return 1;
++      }
++
++      desc.tfm = tfm;
++      desc.flags = 0;
++
++      crypto_hash_init(&desc);
++
++      p = salt;
++      sg_set_buf(&sg, p, GR_SALT_LEN);
++      crypto_hash_update(&desc, &sg, sg.length);
++
++      p = entry->pw;
++      sg_set_buf(&sg, p, strlen(p));
++      
++      crypto_hash_update(&desc, &sg, sg.length);
++
++      crypto_hash_final(&desc, temp_sum);
++
++      memset(entry->pw, 0, GR_PW_LEN);
++
++      for (i = 0; i < GR_SHA_LEN; i++)
++              if (sum[i] != temp_sum[i])
++                      retval = 1;
++              else
++                      dummy = 1;      // waste a cycle
++
++      crypto_free_hash(tfm);
++
++      return retval;
++}
+diff --git a/include/acpi/acpi_bus.h b/include/acpi/acpi_bus.h
+index 3cd9ccd..fe16d47 100644
+--- a/include/acpi/acpi_bus.h
++++ b/include/acpi/acpi_bus.h
+@@ -107,7 +107,7 @@ struct acpi_device_ops {
+       acpi_op_bind bind;
+       acpi_op_unbind unbind;
+       acpi_op_notify notify;
+-};
++} __no_const;
+ #define ACPI_DRIVER_ALL_NOTIFY_EVENTS 0x1     /* system AND device events */
+diff --git a/include/acpi/acpi_drivers.h b/include/acpi/acpi_drivers.h
+index f4906f6..71feb73 100644
+--- a/include/acpi/acpi_drivers.h
++++ b/include/acpi/acpi_drivers.h
+@@ -119,8 +119,8 @@ int acpi_processor_set_thermal_limit(acpi_handle handle, int type);
+                                   Dock Station
+   -------------------------------------------------------------------------- */
+ struct acpi_dock_ops {
+-      acpi_notify_handler handler;
+-      acpi_notify_handler uevent;
++      const acpi_notify_handler handler;
++      const acpi_notify_handler uevent;
+ };
+ #if defined(CONFIG_ACPI_DOCK) || defined(CONFIG_ACPI_DOCK_MODULE)
+@@ -128,7 +128,7 @@ extern int is_dock_device(acpi_handle handle);
+ extern int register_dock_notifier(struct notifier_block *nb);
+ extern void unregister_dock_notifier(struct notifier_block *nb);
+ extern int register_hotplug_dock_device(acpi_handle handle,
+-                                      struct acpi_dock_ops *ops,
++                                      const struct acpi_dock_ops *ops,
+                                       void *context);
+ extern void unregister_hotplug_dock_device(acpi_handle handle);
+ #else
+@@ -144,7 +144,7 @@ static inline void unregister_dock_notifier(struct notifier_block *nb)
+ {
+ }
+ static inline int register_hotplug_dock_device(acpi_handle handle,
+-                                             struct acpi_dock_ops *ops,
++                                             const struct acpi_dock_ops *ops,
+                                              void *context)
+ {
+       return -ENODEV;
+diff --git a/include/asm-generic/atomic-long.h b/include/asm-generic/atomic-long.h
+index b7babf0..a9ac9fc 100644
+--- a/include/asm-generic/atomic-long.h
++++ b/include/asm-generic/atomic-long.h
+@@ -22,6 +22,12 @@
+ typedef atomic64_t atomic_long_t;
++#ifdef CONFIG_PAX_REFCOUNT
++typedef atomic64_unchecked_t atomic_long_unchecked_t;
++#else
++typedef atomic64_t atomic_long_unchecked_t;
++#endif
++
+ #define ATOMIC_LONG_INIT(i)   ATOMIC64_INIT(i)
+ static inline long atomic_long_read(atomic_long_t *l)
+@@ -31,6 +37,15 @@ static inline long atomic_long_read(atomic_long_t *l)
+       return (long)atomic64_read(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline long atomic_long_read_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic64_unchecked_t *v = (atomic64_unchecked_t *)l;
++
++      return (long)atomic64_read_unchecked(v);
++}
++#endif
++
+ static inline void atomic_long_set(atomic_long_t *l, long i)
+ {
+       atomic64_t *v = (atomic64_t *)l;
+@@ -38,6 +53,15 @@ static inline void atomic_long_set(atomic_long_t *l, long i)
+       atomic64_set(v, i);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_set_unchecked(atomic_long_unchecked_t *l, long i)
++{
++      atomic64_unchecked_t *v = (atomic64_unchecked_t *)l;
++
++      atomic64_set_unchecked(v, i);
++}
++#endif
++
+ static inline void atomic_long_inc(atomic_long_t *l)
+ {
+       atomic64_t *v = (atomic64_t *)l;
+@@ -45,6 +69,15 @@ static inline void atomic_long_inc(atomic_long_t *l)
+       atomic64_inc(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_inc_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic64_unchecked_t *v = (atomic64_unchecked_t *)l;
++
++      atomic64_inc_unchecked(v);
++}
++#endif
++
+ static inline void atomic_long_dec(atomic_long_t *l)
+ {
+       atomic64_t *v = (atomic64_t *)l;
+@@ -52,6 +85,15 @@ static inline void atomic_long_dec(atomic_long_t *l)
+       atomic64_dec(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_dec_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic64_unchecked_t *v = (atomic64_unchecked_t *)l;
++
++      atomic64_dec_unchecked(v);
++}
++#endif
++
+ static inline void atomic_long_add(long i, atomic_long_t *l)
+ {
+       atomic64_t *v = (atomic64_t *)l;
+@@ -59,6 +101,15 @@ static inline void atomic_long_add(long i, atomic_long_t *l)
+       atomic64_add(i, v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_add_unchecked(long i, atomic_long_unchecked_t *l)
++{
++      atomic64_unchecked_t *v = (atomic64_unchecked_t *)l;
++
++      atomic64_add_unchecked(i, v);
++}
++#endif
++
+ static inline void atomic_long_sub(long i, atomic_long_t *l)
+ {
+       atomic64_t *v = (atomic64_t *)l;
+@@ -115,6 +166,15 @@ static inline long atomic_long_inc_return(atomic_long_t *l)
+       return (long)atomic64_inc_return(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline long atomic_long_inc_return_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic64_unchecked_t *v = (atomic64_unchecked_t *)l;
++
++      return (long)atomic64_inc_return_unchecked(v);
++}
++#endif
++
+ static inline long atomic_long_dec_return(atomic_long_t *l)
+ {
+       atomic64_t *v = (atomic64_t *)l;
+@@ -140,6 +200,12 @@ static inline long atomic_long_add_unless(atomic_long_t *l, long a, long u)
+ typedef atomic_t atomic_long_t;
++#ifdef CONFIG_PAX_REFCOUNT
++typedef atomic_unchecked_t atomic_long_unchecked_t;
++#else
++typedef atomic_t atomic_long_unchecked_t;
++#endif
++
+ #define ATOMIC_LONG_INIT(i)   ATOMIC_INIT(i)
+ static inline long atomic_long_read(atomic_long_t *l)
+ {
+@@ -148,6 +214,15 @@ static inline long atomic_long_read(atomic_long_t *l)
+       return (long)atomic_read(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline long atomic_long_read_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic_unchecked_t *v = (atomic_unchecked_t *)l;
++
++      return (long)atomic_read_unchecked(v);
++}
++#endif
++
+ static inline void atomic_long_set(atomic_long_t *l, long i)
+ {
+       atomic_t *v = (atomic_t *)l;
+@@ -155,6 +230,15 @@ static inline void atomic_long_set(atomic_long_t *l, long i)
+       atomic_set(v, i);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_set_unchecked(atomic_long_unchecked_t *l, long i)
++{
++      atomic_unchecked_t *v = (atomic_unchecked_t *)l;
++
++      atomic_set_unchecked(v, i);
++}
++#endif
++
+ static inline void atomic_long_inc(atomic_long_t *l)
+ {
+       atomic_t *v = (atomic_t *)l;
+@@ -162,6 +246,15 @@ static inline void atomic_long_inc(atomic_long_t *l)
+       atomic_inc(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_inc_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic_unchecked_t *v = (atomic_unchecked_t *)l;
++
++      atomic_inc_unchecked(v);
++}
++#endif
++
+ static inline void atomic_long_dec(atomic_long_t *l)
+ {
+       atomic_t *v = (atomic_t *)l;
+@@ -169,6 +262,15 @@ static inline void atomic_long_dec(atomic_long_t *l)
+       atomic_dec(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_dec_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic_unchecked_t *v = (atomic_unchecked_t *)l;
++
++      atomic_dec_unchecked(v);
++}
++#endif
++
+ static inline void atomic_long_add(long i, atomic_long_t *l)
+ {
+       atomic_t *v = (atomic_t *)l;
+@@ -176,6 +278,15 @@ static inline void atomic_long_add(long i, atomic_long_t *l)
+       atomic_add(i, v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void atomic_long_add_unchecked(long i, atomic_long_unchecked_t *l)
++{
++      atomic_unchecked_t *v = (atomic_unchecked_t *)l;
++
++      atomic_add_unchecked(i, v);
++}
++#endif
++
+ static inline void atomic_long_sub(long i, atomic_long_t *l)
+ {
+       atomic_t *v = (atomic_t *)l;
+@@ -232,6 +343,15 @@ static inline long atomic_long_inc_return(atomic_long_t *l)
+       return (long)atomic_inc_return(v);
+ }
++#ifdef CONFIG_PAX_REFCOUNT
++static inline long atomic_long_inc_return_unchecked(atomic_long_unchecked_t *l)
++{
++      atomic_unchecked_t *v = (atomic_unchecked_t *)l;
++
++      return (long)atomic_inc_return_unchecked(v);
++}
++#endif
++
+ static inline long atomic_long_dec_return(atomic_long_t *l)
+ {
+       atomic_t *v = (atomic_t *)l;
+@@ -255,4 +375,47 @@ static inline long atomic_long_add_unless(atomic_long_t *l, long a, long u)
+ #endif  /*  BITS_PER_LONG == 64  */
++#ifdef CONFIG_PAX_REFCOUNT
++static inline void pax_refcount_needs_these_functions(void)
++{
++      atomic_read_unchecked((atomic_unchecked_t *)NULL);
++      atomic_set_unchecked((atomic_unchecked_t *)NULL, 0);
++      atomic_add_unchecked(0, (atomic_unchecked_t *)NULL);
++      atomic_sub_unchecked(0, (atomic_unchecked_t *)NULL);
++      atomic_inc_unchecked((atomic_unchecked_t *)NULL);
++      (void)atomic_inc_and_test_unchecked((atomic_unchecked_t *)NULL);
++      atomic_inc_return_unchecked((atomic_unchecked_t *)NULL);
++      atomic_add_return_unchecked(0, (atomic_unchecked_t *)NULL);
++      atomic_dec_unchecked((atomic_unchecked_t *)NULL);
++      atomic_cmpxchg_unchecked((atomic_unchecked_t *)NULL, 0, 0);
++      (void)atomic_xchg_unchecked((atomic_unchecked_t *)NULL, 0);
++
++      atomic_long_read_unchecked((atomic_long_unchecked_t *)NULL);
++      atomic_long_set_unchecked((atomic_long_unchecked_t *)NULL, 0);
++      atomic_long_add_unchecked(0, (atomic_long_unchecked_t *)NULL);
++      atomic_long_inc_unchecked((atomic_long_unchecked_t *)NULL);
++      atomic_long_inc_return_unchecked((atomic_long_unchecked_t *)NULL);
++      atomic_long_dec_unchecked((atomic_long_unchecked_t *)NULL);
++}
++#else
++#define atomic_read_unchecked(v) atomic_read(v)
++#define atomic_set_unchecked(v, i) atomic_set((v), (i))
++#define atomic_add_unchecked(i, v) atomic_add((i), (v))
++#define atomic_sub_unchecked(i, v) atomic_sub((i), (v))
++#define atomic_inc_unchecked(v) atomic_inc(v)
++#define atomic_inc_and_test_unchecked(v) atomic_inc_and_test(v)
++#define atomic_inc_return_unchecked(v) atomic_inc_return(v)
++#define atomic_add_return_unchecked(i, v) atomic_add_return((i), (v))
++#define atomic_dec_unchecked(v) atomic_dec(v)
++#define atomic_cmpxchg_unchecked(v, o, n) atomic_cmpxchg((v), (o), (n))
++#define atomic_xchg_unchecked(v, i) atomic_xchg((v), (i))
++
++#define atomic_long_read_unchecked(v) atomic_long_read(v)
++#define atomic_long_set_unchecked(v, i) atomic_long_set((v), (i))
++#define atomic_long_add_unchecked(i, v) atomic_long_add((i), (v))
++#define atomic_long_inc_unchecked(v) atomic_long_inc(v)
++#define atomic_long_inc_return_unchecked(v) atomic_long_inc_return(v)
++#define atomic_long_dec_unchecked(v) atomic_long_dec(v)
++#endif
++
+ #endif  /*  _ASM_GENERIC_ATOMIC_LONG_H  */
+diff --git a/include/asm-generic/atomic64.h b/include/asm-generic/atomic64.h
+index b18ce4f..2ee2843 100644
+--- a/include/asm-generic/atomic64.h
++++ b/include/asm-generic/atomic64.h
+@@ -16,6 +16,8 @@ typedef struct {
+       long long counter;
+ } atomic64_t;
++typedef atomic64_t atomic64_unchecked_t;
++
+ #define ATOMIC64_INIT(i)      { (i) }
+ extern long long atomic64_read(const atomic64_t *v);
+@@ -39,4 +41,14 @@ extern int   atomic64_add_unless(atomic64_t *v, long long a, long long u);
+ #define atomic64_dec_and_test(v)      (atomic64_dec_return((v)) == 0)
+ #define atomic64_inc_not_zero(v)      atomic64_add_unless((v), 1LL, 0LL)
++#define atomic64_read_unchecked(v) atomic64_read(v)
++#define atomic64_set_unchecked(v, i) atomic64_set((v), (i))
++#define atomic64_add_unchecked(a, v) atomic64_add((a), (v))
++#define atomic64_add_return_unchecked(a, v) atomic64_add_return((a), (v))
++#define atomic64_sub_unchecked(a, v) atomic64_sub((a), (v))
++#define atomic64_inc_unchecked(v) atomic64_inc(v)
++#define atomic64_inc_return_unchecked(v) atomic64_inc_return(v)
++#define atomic64_dec_unchecked(v) atomic64_dec(v)
++#define atomic64_cmpxchg_unchecked(v, o, n) atomic64_cmpxchg((v), (o), (n))
++
+ #endif  /*  _ASM_GENERIC_ATOMIC64_H  */
+diff --git a/include/asm-generic/bug.h b/include/asm-generic/bug.h
+index d48ddf0..656a0ac 100644
+--- a/include/asm-generic/bug.h
++++ b/include/asm-generic/bug.h
+@@ -105,11 +105,11 @@ extern void warn_slowpath_null(const char *file, const int line);
+ #else /* !CONFIG_BUG */
+ #ifndef HAVE_ARCH_BUG
+-#define BUG() do {} while(0)
++#define BUG() do { for (;;) ; } while(0)
+ #endif
+ #ifndef HAVE_ARCH_BUG_ON
+-#define BUG_ON(condition) do { if (condition) ; } while(0)
++#define BUG_ON(condition) do { if (condition) for (;;) ; } while(0)
+ #endif
+ #ifndef HAVE_ARCH_WARN_ON
+diff --git a/include/asm-generic/cache.h b/include/asm-generic/cache.h
+index 1bfcfe5..e04c5c9 100644
+--- a/include/asm-generic/cache.h
++++ b/include/asm-generic/cache.h
+@@ -6,7 +6,7 @@
+  * cache lines need to provide their own cache.h.
+  */
+-#define L1_CACHE_SHIFT                5
+-#define L1_CACHE_BYTES                (1 << L1_CACHE_SHIFT)
++#define L1_CACHE_SHIFT                5UL
++#define L1_CACHE_BYTES                (1UL << L1_CACHE_SHIFT)
+ #endif /* __ASM_GENERIC_CACHE_H */
+diff --git a/include/asm-generic/dma-mapping-common.h b/include/asm-generic/dma-mapping-common.h
+index 6920695..41038bc 100644
+--- a/include/asm-generic/dma-mapping-common.h
++++ b/include/asm-generic/dma-mapping-common.h
+@@ -11,7 +11,7 @@ static inline dma_addr_t dma_map_single_attrs(struct device *dev, void *ptr,
+                                             enum dma_data_direction dir,
+                                             struct dma_attrs *attrs)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       dma_addr_t addr;
+       kmemcheck_mark_initialized(ptr, size);
+@@ -30,7 +30,7 @@ static inline void dma_unmap_single_attrs(struct device *dev, dma_addr_t addr,
+                                         enum dma_data_direction dir,
+                                         struct dma_attrs *attrs)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->unmap_page)
+@@ -42,7 +42,7 @@ static inline int dma_map_sg_attrs(struct device *dev, struct scatterlist *sg,
+                                  int nents, enum dma_data_direction dir,
+                                  struct dma_attrs *attrs)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       int i, ents;
+       struct scatterlist *s;
+@@ -59,7 +59,7 @@ static inline void dma_unmap_sg_attrs(struct device *dev, struct scatterlist *sg
+                                     int nents, enum dma_data_direction dir,
+                                     struct dma_attrs *attrs)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       debug_dma_unmap_sg(dev, sg, nents, dir);
+@@ -71,7 +71,7 @@ static inline dma_addr_t dma_map_page(struct device *dev, struct page *page,
+                                     size_t offset, size_t size,
+                                     enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       dma_addr_t addr;
+       kmemcheck_mark_initialized(page_address(page) + offset, size);
+@@ -85,7 +85,7 @@ static inline dma_addr_t dma_map_page(struct device *dev, struct page *page,
+ static inline void dma_unmap_page(struct device *dev, dma_addr_t addr,
+                                 size_t size, enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->unmap_page)
+@@ -97,7 +97,7 @@ static inline void dma_sync_single_for_cpu(struct device *dev, dma_addr_t addr,
+                                          size_t size,
+                                          enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->sync_single_for_cpu)
+@@ -109,7 +109,7 @@ static inline void dma_sync_single_for_device(struct device *dev,
+                                             dma_addr_t addr, size_t size,
+                                             enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->sync_single_for_device)
+@@ -123,7 +123,7 @@ static inline void dma_sync_single_range_for_cpu(struct device *dev,
+                                                size_t size,
+                                                enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->sync_single_range_for_cpu) {
+@@ -140,7 +140,7 @@ static inline void dma_sync_single_range_for_device(struct device *dev,
+                                                   size_t size,
+                                                   enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->sync_single_range_for_device) {
+@@ -155,7 +155,7 @@ static inline void
+ dma_sync_sg_for_cpu(struct device *dev, struct scatterlist *sg,
+                   int nelems, enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->sync_sg_for_cpu)
+@@ -167,7 +167,7 @@ static inline void
+ dma_sync_sg_for_device(struct device *dev, struct scatterlist *sg,
+                      int nelems, enum dma_data_direction dir)
+ {
+-      struct dma_map_ops *ops = get_dma_ops(dev);
++      const struct dma_map_ops *ops = get_dma_ops(dev);
+       BUG_ON(!valid_dma_direction(dir));
+       if (ops->sync_sg_for_device)
+diff --git a/include/asm-generic/emergency-restart.h b/include/asm-generic/emergency-restart.h
+index 0d68a1e..b74a761 100644
+--- a/include/asm-generic/emergency-restart.h
++++ b/include/asm-generic/emergency-restart.h
+@@ -1,7 +1,7 @@
+ #ifndef _ASM_GENERIC_EMERGENCY_RESTART_H
+ #define _ASM_GENERIC_EMERGENCY_RESTART_H
+-static inline void machine_emergency_restart(void)
++static inline __noreturn void machine_emergency_restart(void)
+ {
+       machine_restart(NULL);
+ }
+diff --git a/include/asm-generic/futex.h b/include/asm-generic/futex.h
+index 3c2344f..4590a7d 100644
+--- a/include/asm-generic/futex.h
++++ b/include/asm-generic/futex.h
+@@ -6,7 +6,7 @@
+ #include <asm/errno.h>
+ static inline int
+-futex_atomic_op_inuser (int encoded_op, int __user *uaddr)
++futex_atomic_op_inuser (int encoded_op, u32 __user *uaddr)
+ {
+       int op = (encoded_op >> 28) & 7;
+       int cmp = (encoded_op >> 24) & 15;
+@@ -48,7 +48,7 @@ futex_atomic_op_inuser (int encoded_op, int __user *uaddr)
+ }
+ static inline int
+-futex_atomic_cmpxchg_inatomic(int __user *uaddr, int oldval, int newval)
++futex_atomic_cmpxchg_inatomic(u32 __user *uaddr, int oldval, int newval)
+ {
+       return -ENOSYS;
+ }
+diff --git a/include/asm-generic/int-l64.h b/include/asm-generic/int-l64.h
+index 1ca3efc..e3dc852 100644
+--- a/include/asm-generic/int-l64.h
++++ b/include/asm-generic/int-l64.h
+@@ -46,6 +46,8 @@ typedef unsigned int u32;
+ typedef signed long s64;
+ typedef unsigned long u64;
++typedef unsigned int intoverflow_t __attribute__ ((mode(TI)));
++
+ #define S8_C(x)  x
+ #define U8_C(x)  x ## U
+ #define S16_C(x) x
+diff --git a/include/asm-generic/int-ll64.h b/include/asm-generic/int-ll64.h
+index f394147..b6152b9 100644
+--- a/include/asm-generic/int-ll64.h
++++ b/include/asm-generic/int-ll64.h
+@@ -51,6 +51,8 @@ typedef unsigned int u32;
+ typedef signed long long s64;
+ typedef unsigned long long u64;
++typedef unsigned long long intoverflow_t;
++
+ #define S8_C(x)  x
+ #define U8_C(x)  x ## U
+ #define S16_C(x) x
+diff --git a/include/asm-generic/kmap_types.h b/include/asm-generic/kmap_types.h
+index e5f234a..cdb16b3 100644
+--- a/include/asm-generic/kmap_types.h
++++ b/include/asm-generic/kmap_types.h
+@@ -28,7 +28,8 @@ KMAP_D(15)   KM_UML_USERCOPY,
+ KMAP_D(16)    KM_IRQ_PTE,
+ KMAP_D(17)    KM_NMI,
+ KMAP_D(18)    KM_NMI_PTE,
+-KMAP_D(19)    KM_TYPE_NR
++KMAP_D(19)    KM_CLEARPAGE,
++KMAP_D(20)    KM_TYPE_NR
+ };
+ #undef KMAP_D
+diff --git a/include/asm-generic/pgtable-nopmd.h b/include/asm-generic/pgtable-nopmd.h
+index 725612b..9cc513a 100644
+--- a/include/asm-generic/pgtable-nopmd.h
++++ b/include/asm-generic/pgtable-nopmd.h
+@@ -1,14 +1,19 @@
+ #ifndef _PGTABLE_NOPMD_H
+ #define _PGTABLE_NOPMD_H
+-#ifndef __ASSEMBLY__
+-
+ #include <asm-generic/pgtable-nopud.h>
+-struct mm_struct;
+-
+ #define __PAGETABLE_PMD_FOLDED
++#define PMD_SHIFT     PUD_SHIFT
++#define PTRS_PER_PMD  1
++#define PMD_SIZE      (_AC(1,UL) << PMD_SHIFT)
++#define PMD_MASK      (~(PMD_SIZE-1))
++
++#ifndef __ASSEMBLY__
++
++struct mm_struct;
++
+ /*
+  * Having the pmd type consist of a pud gets the size right, and allows
+  * us to conceptually access the pud entry that this pmd is folded into
+@@ -16,11 +21,6 @@ struct mm_struct;
+  */
+ typedef struct { pud_t pud; } pmd_t;
+-#define PMD_SHIFT     PUD_SHIFT
+-#define PTRS_PER_PMD  1
+-#define PMD_SIZE      (1UL << PMD_SHIFT)
+-#define PMD_MASK      (~(PMD_SIZE-1))
+-
+ /*
+  * The "pud_xxx()" functions here are trivial for a folded two-level
+  * setup: the pmd is never bad, and a pmd always exists (as it's folded
+diff --git a/include/asm-generic/pgtable-nopud.h b/include/asm-generic/pgtable-nopud.h
+index 810431d..ccc3638 100644
+--- a/include/asm-generic/pgtable-nopud.h
++++ b/include/asm-generic/pgtable-nopud.h
+@@ -1,10 +1,15 @@
+ #ifndef _PGTABLE_NOPUD_H
+ #define _PGTABLE_NOPUD_H
+-#ifndef __ASSEMBLY__
+-
+ #define __PAGETABLE_PUD_FOLDED
++#define PUD_SHIFT     PGDIR_SHIFT
++#define PTRS_PER_PUD  1
++#define PUD_SIZE      (_AC(1,UL) << PUD_SHIFT)
++#define PUD_MASK      (~(PUD_SIZE-1))
++
++#ifndef __ASSEMBLY__
++
+ /*
+  * Having the pud type consist of a pgd gets the size right, and allows
+  * us to conceptually access the pgd entry that this pud is folded into
+@@ -12,11 +17,6 @@
+  */
+ typedef struct { pgd_t pgd; } pud_t;
+-#define PUD_SHIFT     PGDIR_SHIFT
+-#define PTRS_PER_PUD  1
+-#define PUD_SIZE      (1UL << PUD_SHIFT)
+-#define PUD_MASK      (~(PUD_SIZE-1))
+-
+ /*
+  * The "pgd_xxx()" functions here are trivial for a folded two-level
+  * setup: the pud is never bad, and a pud always exists (as it's folded
+diff --git a/include/asm-generic/pgtable.h b/include/asm-generic/pgtable.h
+index e2bd73e..fea8ed3 100644
+--- a/include/asm-generic/pgtable.h
++++ b/include/asm-generic/pgtable.h
+@@ -344,6 +344,14 @@ extern void untrack_pfn_vma(struct vm_area_struct *vma, unsigned long pfn,
+                               unsigned long size);
+ #endif
++#ifndef __HAVE_ARCH_PAX_OPEN_KERNEL
++static inline unsigned long pax_open_kernel(void) { return 0; }
++#endif
++
++#ifndef __HAVE_ARCH_PAX_CLOSE_KERNEL
++static inline unsigned long pax_close_kernel(void) { return 0; }
++#endif
++
+ #endif /* !__ASSEMBLY__ */
+ #endif /* _ASM_GENERIC_PGTABLE_H */
+diff --git a/include/asm-generic/vmlinux.lds.h b/include/asm-generic/vmlinux.lds.h
+index b6e818f..21aa58a 100644
+--- a/include/asm-generic/vmlinux.lds.h
++++ b/include/asm-generic/vmlinux.lds.h
+@@ -199,6 +199,7 @@
+       .rodata           : AT(ADDR(.rodata) - LOAD_OFFSET) {           \
+               VMLINUX_SYMBOL(__start_rodata) = .;                     \
+               *(.rodata) *(.rodata.*)                                 \
++              *(.data.read_only)                                      \
+               *(__vermagic)           /* Kernel version magic */      \
+               *(__markers_strings)    /* Markers: strings */          \
+               *(__tracepoints_strings)/* Tracepoints: strings */      \
+@@ -656,22 +657,24 @@
+  * section in the linker script will go there too.  @phdr should have
+  * a leading colon.
+  *
+- * Note that this macros defines __per_cpu_load as an absolute symbol.
++ * Note that this macros defines per_cpu_load as an absolute symbol.
+  * If there is no need to put the percpu section at a predetermined
+  * address, use PERCPU().
+  */
+ #define PERCPU_VADDR(vaddr, phdr)                                     \
+-      VMLINUX_SYMBOL(__per_cpu_load) = .;                             \
+-      .data.percpu vaddr : AT(VMLINUX_SYMBOL(__per_cpu_load)          \
++      per_cpu_load = .;                                               \
++      .data.percpu vaddr : AT(VMLINUX_SYMBOL(per_cpu_load)            \
+                               - LOAD_OFFSET) {                        \
++              VMLINUX_SYMBOL(__per_cpu_load) = . + per_cpu_load;      \
+               VMLINUX_SYMBOL(__per_cpu_start) = .;                    \
+               *(.data.percpu.first)                                   \
+-              *(.data.percpu.page_aligned)                            \
+               *(.data.percpu)                                         \
++              . = ALIGN(PAGE_SIZE);                                   \
++              *(.data.percpu.page_aligned)                            \
+               *(.data.percpu.shared_aligned)                          \
+               VMLINUX_SYMBOL(__per_cpu_end) = .;                      \
+       } phdr                                                          \
+-      . = VMLINUX_SYMBOL(__per_cpu_load) + SIZEOF(.data.percpu);
++      . = VMLINUX_SYMBOL(per_cpu_load) + SIZEOF(.data.percpu);
+ /**
+  * PERCPU - define output section for percpu area, simple version
+diff --git a/include/drm/drmP.h b/include/drm/drmP.h
+index ebab6a6..351dba1 100644
+--- a/include/drm/drmP.h
++++ b/include/drm/drmP.h
+@@ -71,6 +71,7 @@
+ #include <linux/workqueue.h>
+ #include <linux/poll.h>
+ #include <asm/pgalloc.h>
++#include <asm/local.h>
+ #include "drm.h"
+ #include <linux/idr.h>
+@@ -814,7 +815,7 @@ struct drm_driver {
+       void (*vgaarb_irq)(struct drm_device *dev, bool state);
+       /* Driver private ops for this object */
+-      struct vm_operations_struct *gem_vm_ops;
++      const struct vm_operations_struct *gem_vm_ops;
+       int major;
+       int minor;
+@@ -917,7 +918,7 @@ struct drm_device {
+       /** \name Usage Counters */
+       /*@{ */
+-      int open_count;                 /**< Outstanding files open */
++      local_t open_count;             /**< Outstanding files open */
+       atomic_t ioctl_count;           /**< Outstanding IOCTLs pending */
+       atomic_t vma_count;             /**< Outstanding vma areas open */
+       int buf_use;                    /**< Buffers in use -- cannot alloc */
+@@ -928,7 +929,7 @@ struct drm_device {
+       /*@{ */
+       unsigned long counters;
+       enum drm_stat_type types[15];
+-      atomic_t counts[15];
++      atomic_unchecked_t counts[15];
+       /*@} */
+       struct list_head filelist;
+@@ -1016,7 +1017,7 @@ struct drm_device {
+       struct pci_controller *hose;
+ #endif
+       struct drm_sg_mem *sg;  /**< Scatter gather memory */
+-      unsigned int num_crtcs;                  /**< Number of CRTCs on this device */
++      unsigned int num_crtcs;         /**< Number of CRTCs on this device */
+       void *dev_private;              /**< device private data */
+       void *mm_private;
+       struct address_space *dev_mapping;
+@@ -1042,11 +1043,11 @@ struct drm_device {
+       spinlock_t object_name_lock;
+       struct idr object_name_idr;
+       atomic_t object_count;
+-      atomic_t object_memory;
++      atomic_unchecked_t object_memory;
+       atomic_t pin_count;
+-      atomic_t pin_memory;
++      atomic_unchecked_t pin_memory;
+       atomic_t gtt_count;
+-      atomic_t gtt_memory;
++      atomic_unchecked_t gtt_memory;
+       uint32_t gtt_total;
+       uint32_t invalidate_domains;    /* domains pending invalidation */
+       uint32_t flush_domains;         /* domains pending flush */
+diff --git a/include/drm/drm_crtc_helper.h b/include/drm/drm_crtc_helper.h
+index b29e201..3413cc9 100644
+--- a/include/drm/drm_crtc_helper.h
++++ b/include/drm/drm_crtc_helper.h
+@@ -64,7 +64,7 @@ struct drm_crtc_helper_funcs {
+       /* reload the current crtc LUT */
+       void (*load_lut)(struct drm_crtc *crtc);
+-};
++} __no_const;
+ struct drm_encoder_helper_funcs {
+       void (*dpms)(struct drm_encoder *encoder, int mode);
+@@ -85,7 +85,7 @@ struct drm_encoder_helper_funcs {
+                                           struct drm_connector *connector);
+       /* disable encoder when not in use - more explicit than dpms off */
+       void (*disable)(struct drm_encoder *encoder);
+-};
++} __no_const;
+ struct drm_connector_helper_funcs {
+       int (*get_modes)(struct drm_connector *connector);
+diff --git a/include/drm/ttm/ttm_memory.h b/include/drm/ttm/ttm_memory.h
+index b199170..6f9e64c 100644
+--- a/include/drm/ttm/ttm_memory.h
++++ b/include/drm/ttm/ttm_memory.h
+@@ -47,7 +47,7 @@
+ struct ttm_mem_shrink {
+       int (*do_shrink) (struct ttm_mem_shrink *);
+-};
++} __no_const;
+ /**
+  * struct ttm_mem_global - Global memory accounting structure.
+diff --git a/include/linux/a.out.h b/include/linux/a.out.h
+index e86dfca..40cc55f 100644
+--- a/include/linux/a.out.h
++++ b/include/linux/a.out.h
+@@ -39,6 +39,14 @@ enum machine_type {
+   M_MIPS2 = 152               /* MIPS R6000/R4000 binary */
+ };
++/* Constants for the N_FLAGS field */
++#define F_PAX_PAGEEXEC        1       /* Paging based non-executable pages */
++#define F_PAX_EMUTRAMP        2       /* Emulate trampolines */
++#define F_PAX_MPROTECT        4       /* Restrict mprotect() */
++#define F_PAX_RANDMMAP        8       /* Randomize mmap() base */
++/*#define F_PAX_RANDEXEC      16*/    /* Randomize ET_EXEC base */
++#define F_PAX_SEGMEXEC        32      /* Segmentation based non-executable pages */
++
+ #if !defined (N_MAGIC)
+ #define N_MAGIC(exec) ((exec).a_info & 0xffff)
+ #endif
+diff --git a/include/linux/atmdev.h b/include/linux/atmdev.h
+index 817b237..62c10bc 100644
+--- a/include/linux/atmdev.h
++++ b/include/linux/atmdev.h
+@@ -237,7 +237,7 @@ struct compat_atm_iobuf {
+ #endif
+ struct k_atm_aal_stats {
+-#define __HANDLE_ITEM(i) atomic_t i
++#define __HANDLE_ITEM(i) atomic_unchecked_t i
+       __AAL_STAT_ITEMS
+ #undef __HANDLE_ITEM
+ };
+diff --git a/include/linux/backlight.h b/include/linux/backlight.h
+index 0f5f578..8c4f884 100644
+--- a/include/linux/backlight.h
++++ b/include/linux/backlight.h
+@@ -36,18 +36,18 @@ struct backlight_device;
+ struct fb_info;
+ struct backlight_ops {
+-      unsigned int options;
++      const unsigned int options;
+ #define BL_CORE_SUSPENDRESUME (1 << 0)
+       /* Notify the backlight driver some property has changed */
+-      int (*update_status)(struct backlight_device *);
++      int (* const update_status)(struct backlight_device *);
+       /* Return the current backlight brightness (accounting for power,
+          fb_blank etc.) */
+-      int (*get_brightness)(struct backlight_device *);
++      int (* const get_brightness)(struct backlight_device *);
+       /* Check if given framebuffer device is the one bound to this backlight;
+          return 0 if not, !=0 if it is. If NULL, backlight always matches the fb. */
+-      int (*check_fb)(struct fb_info *);
++      int (* const check_fb)(struct fb_info *);
+ };
+ /* This structure defines all the properties of a backlight */
+@@ -86,7 +86,7 @@ struct backlight_device {
+          registered this device has been unloaded, and if class_get_devdata()
+          points to something in the body of that driver, it is also invalid. */
+       struct mutex ops_lock;
+-      struct backlight_ops *ops;
++      const struct backlight_ops *ops;
+       /* The framebuffer notifier block */
+       struct notifier_block fb_notif;
+@@ -103,7 +103,7 @@ static inline void backlight_update_status(struct backlight_device *bd)
+ }
+ extern struct backlight_device *backlight_device_register(const char *name,
+-      struct device *dev, void *devdata, struct backlight_ops *ops);
++      struct device *dev, void *devdata, const struct backlight_ops *ops);
+ extern void backlight_device_unregister(struct backlight_device *bd);
+ extern void backlight_force_update(struct backlight_device *bd,
+                                  enum backlight_update_reason reason);
+diff --git a/include/linux/binfmts.h b/include/linux/binfmts.h
+index a3d802e..482f69c 100644
+--- a/include/linux/binfmts.h
++++ b/include/linux/binfmts.h
+@@ -83,6 +83,7 @@ struct linux_binfmt {
+       int (*load_binary)(struct linux_binprm *, struct  pt_regs * regs);
+       int (*load_shlib)(struct file *);
+       int (*core_dump)(long signr, struct pt_regs *regs, struct file *file, unsigned long limit);
++      void (*handle_mprotect)(struct vm_area_struct *vma, unsigned long newflags);
+       unsigned long min_coredump;     /* minimal dump size */
+       int hasvdso;
+ };
+diff --git a/include/linux/blkdev.h b/include/linux/blkdev.h
+index 5eb6cb0..a2906d2 100644
+--- a/include/linux/blkdev.h
++++ b/include/linux/blkdev.h
+@@ -1281,7 +1281,7 @@ struct block_device_operations {
+       int (*revalidate_disk) (struct gendisk *);
+       int (*getgeo)(struct block_device *, struct hd_geometry *);
+       struct module *owner;
+-};
++} __do_const;
+ extern int __blkdev_driver_ioctl(struct block_device *, fmode_t, unsigned int,
+                                unsigned long);
+diff --git a/include/linux/blktrace_api.h b/include/linux/blktrace_api.h
+index 3b73b99..629d21b 100644
+--- a/include/linux/blktrace_api.h
++++ b/include/linux/blktrace_api.h
+@@ -160,7 +160,7 @@ struct blk_trace {
+       struct dentry *dir;
+       struct dentry *dropped_file;
+       struct dentry *msg_file;
+-      atomic_t dropped;
++      atomic_unchecked_t dropped;
+ };
+ extern int blk_trace_ioctl(struct block_device *, unsigned, char __user *);
+diff --git a/include/linux/byteorder/little_endian.h b/include/linux/byteorder/little_endian.h
+index 83195fb..0b0f77d 100644
+--- a/include/linux/byteorder/little_endian.h
++++ b/include/linux/byteorder/little_endian.h
+@@ -42,51 +42,51 @@
+ static inline __le64 __cpu_to_le64p(const __u64 *p)
+ {
+-      return (__force __le64)*p;
++      return (__force const __le64)*p;
+ }
+ static inline __u64 __le64_to_cpup(const __le64 *p)
+ {
+-      return (__force __u64)*p;
++      return (__force const __u64)*p;
+ }
+ static inline __le32 __cpu_to_le32p(const __u32 *p)
+ {
+-      return (__force __le32)*p;
++      return (__force const __le32)*p;
+ }
+ static inline __u32 __le32_to_cpup(const __le32 *p)
+ {
+-      return (__force __u32)*p;
++      return (__force const __u32)*p;
+ }
+ static inline __le16 __cpu_to_le16p(const __u16 *p)
+ {
+-      return (__force __le16)*p;
++      return (__force const __le16)*p;
+ }
+ static inline __u16 __le16_to_cpup(const __le16 *p)
+ {
+-      return (__force __u16)*p;
++      return (__force const __u16)*p;
+ }
+ static inline __be64 __cpu_to_be64p(const __u64 *p)
+ {
+-      return (__force __be64)__swab64p(p);
++      return (__force const __be64)__swab64p(p);
+ }
+ static inline __u64 __be64_to_cpup(const __be64 *p)
+ {
+-      return __swab64p((__u64 *)p);
++      return __swab64p((const __u64 *)p);
+ }
+ static inline __be32 __cpu_to_be32p(const __u32 *p)
+ {
+-      return (__force __be32)__swab32p(p);
++      return (__force const __be32)__swab32p(p);
+ }
+ static inline __u32 __be32_to_cpup(const __be32 *p)
+ {
+-      return __swab32p((__u32 *)p);
++      return __swab32p((const __u32 *)p);
+ }
+ static inline __be16 __cpu_to_be16p(const __u16 *p)
+ {
+-      return (__force __be16)__swab16p(p);
++      return (__force const __be16)__swab16p(p);
+ }
+ static inline __u16 __be16_to_cpup(const __be16 *p)
+ {
+-      return __swab16p((__u16 *)p);
++      return __swab16p((const __u16 *)p);
+ }
+ #define __cpu_to_le64s(x) do { (void)(x); } while (0)
+ #define __le64_to_cpus(x) do { (void)(x); } while (0)
+diff --git a/include/linux/cache.h b/include/linux/cache.h
+index 97e2488..e7576b9 100644
+--- a/include/linux/cache.h
++++ b/include/linux/cache.h
+@@ -16,6 +16,10 @@
+ #define __read_mostly
+ #endif
++#ifndef __read_only
++#define __read_only __read_mostly
++#endif
++
+ #ifndef ____cacheline_aligned
+ #define ____cacheline_aligned __attribute__((__aligned__(SMP_CACHE_BYTES)))
+ #endif
+diff --git a/include/linux/capability.h b/include/linux/capability.h
+index c8f2a5f7..1618a5c 100644
+--- a/include/linux/capability.h
++++ b/include/linux/capability.h
+@@ -563,6 +563,7 @@ extern const kernel_cap_t __cap_init_eff_set;
+       (security_real_capable_noaudit((t), (cap)) == 0)
+ extern int capable(int cap);
++int capable_nolog(int cap);
+ /* audit system wants to get cap info from files as well */
+ struct dentry;
+diff --git a/include/linux/compiler-gcc4.h b/include/linux/compiler-gcc4.h
+index 450fa59..86019fb 100644
+--- a/include/linux/compiler-gcc4.h
++++ b/include/linux/compiler-gcc4.h
+@@ -36,4 +36,16 @@
+    the kernel context */
+ #define __cold                        __attribute__((__cold__))
++#define __alloc_size(...)     __attribute((alloc_size(__VA_ARGS__)))
++#define __bos(ptr, arg)               __builtin_object_size((ptr), (arg))
++#define __bos0(ptr)           __bos((ptr), 0)
++#define __bos1(ptr)           __bos((ptr), 1)
++
++#if __GNUC_MINOR__ >= 5
++#ifdef CONSTIFY_PLUGIN
++#define __no_const __attribute__((no_const))
++#define __do_const __attribute__((do_const))
++#endif
++#endif
++
+ #endif
+diff --git a/include/linux/compiler.h b/include/linux/compiler.h
+index 04fb513..fd6477b 100644
+--- a/include/linux/compiler.h
++++ b/include/linux/compiler.h
+@@ -5,11 +5,14 @@
+ #ifdef __CHECKER__
+ # define __user               __attribute__((noderef, address_space(1)))
++# define __force_user __force __user
+ # define __kernel     /* default address space */
++# define __force_kernel       __force __kernel
+ # define __safe               __attribute__((safe))
+ # define __force      __attribute__((force))
+ # define __nocast     __attribute__((nocast))
+ # define __iomem      __attribute__((noderef, address_space(2)))
++# define __force_iomem        __force __iomem
+ # define __acquires(x)        __attribute__((context(x,0,1)))
+ # define __releases(x)        __attribute__((context(x,1,0)))
+ # define __acquire(x) __context__(x,1)
+@@ -17,13 +20,34 @@
+ # define __cond_lock(x,c)     ((c) ? ({ __acquire(x); 1; }) : 0)
+ extern void __chk_user_ptr(const volatile void __user *);
+ extern void __chk_io_ptr(const volatile void __iomem *);
++#elif defined(CHECKER_PLUGIN)
++//# define __user
++//# define __force_user
++//# define __kernel
++//# define __force_kernel
++# define __safe
++# define __force
++# define __nocast
++# define __iomem
++# define __force_iomem
++# define __chk_user_ptr(x) (void)0
++# define __chk_io_ptr(x) (void)0
++# define __builtin_warning(x, y...) (1)
++# define __acquires(x)
++# define __releases(x)
++# define __acquire(x) (void)0
++# define __release(x) (void)0
++# define __cond_lock(x,c) (c)
+ #else
+ # define __user
++# define __force_user
+ # define __kernel
++# define __force_kernel
+ # define __safe
+ # define __force
+ # define __nocast
+ # define __iomem
++# define __force_iomem
+ # define __chk_user_ptr(x) (void)0
+ # define __chk_io_ptr(x) (void)0
+ # define __builtin_warning(x, y...) (1)
+@@ -247,6 +271,14 @@ void ftrace_likely_update(struct ftrace_branch_data *f, int val, int expect);
+ # define __attribute_const__  /* unimplemented */
+ #endif
++#ifndef __no_const
++# define __no_const
++#endif
++
++#ifndef __do_const
++# define __do_const
++#endif
++
+ /*
+  * Tell gcc if a function is cold. The compiler will assume any path
+  * directly leading to the call is unlikely.
+@@ -256,6 +288,22 @@ void ftrace_likely_update(struct ftrace_branch_data *f, int val, int expect);
+ #define __cold
+ #endif
++#ifndef __alloc_size
++#define __alloc_size(...)
++#endif
++
++#ifndef __bos
++#define __bos(ptr, arg)
++#endif
++
++#ifndef __bos0
++#define __bos0(ptr)
++#endif
++
++#ifndef __bos1
++#define __bos1(ptr)
++#endif
++
+ /* Simple shorthand for a section definition */
+ #ifndef __section
+ # define __section(S) __attribute__ ((__section__(#S)))
+@@ -278,6 +326,7 @@ void ftrace_likely_update(struct ftrace_branch_data *f, int val, int expect);
+  * use is to mediate communication between process-level code and irq/NMI
+  * handlers, all running on the same CPU.
+  */
+-#define ACCESS_ONCE(x) (*(volatile typeof(x) *)&(x))
++#define ACCESS_ONCE(x) (*(volatile const typeof(x) *)&(x))
++#define ACCESS_ONCE_RW(x) (*(volatile typeof(x) *)&(x))
+ #endif /* __LINUX_COMPILER_H */
+diff --git a/include/linux/crypto.h b/include/linux/crypto.h
+index fd92988..a3164bd 100644
+--- a/include/linux/crypto.h
++++ b/include/linux/crypto.h
+@@ -394,7 +394,7 @@ struct cipher_tfm {
+                         const u8 *key, unsigned int keylen);
+       void (*cit_encrypt_one)(struct crypto_tfm *tfm, u8 *dst, const u8 *src);
+       void (*cit_decrypt_one)(struct crypto_tfm *tfm, u8 *dst, const u8 *src);
+-};
++} __no_const;
+ struct hash_tfm {
+       int (*init)(struct hash_desc *desc);
+@@ -415,13 +415,13 @@ struct compress_tfm {
+       int (*cot_decompress)(struct crypto_tfm *tfm,
+                             const u8 *src, unsigned int slen,
+                             u8 *dst, unsigned int *dlen);
+-};
++} __no_const;
+ struct rng_tfm {
+       int (*rng_gen_random)(struct crypto_rng *tfm, u8 *rdata,
+                             unsigned int dlen);
+       int (*rng_reset)(struct crypto_rng *tfm, u8 *seed, unsigned int slen);
+-};
++} __no_const;
+ #define crt_ablkcipher        crt_u.ablkcipher
+ #define crt_aead      crt_u.aead
+diff --git a/include/linux/dcache.h b/include/linux/dcache.h
+index 30b93b2..cd7a8db 100644
+--- a/include/linux/dcache.h
++++ b/include/linux/dcache.h
+@@ -119,6 +119,8 @@ struct dentry {
+       unsigned char d_iname[DNAME_INLINE_LEN_MIN];    /* small names */
+ };
++#define DNAME_INLINE_LEN (sizeof(struct dentry)-offsetof(struct dentry,d_iname))
++
+ /*
+  * dentry->d_lock spinlock nesting subclasses:
+  *
+diff --git a/include/linux/decompress/mm.h b/include/linux/decompress/mm.h
+index 3e9bd6a..f4e1aa0 100644
+--- a/include/linux/decompress/mm.h
++++ b/include/linux/decompress/mm.h
+@@ -78,7 +78,7 @@ static void free(void *where)
+  * warnings when not needed (indeed large_malloc / large_free are not
+  * needed by inflate */
+-#define malloc(a) kmalloc(a, GFP_KERNEL)
++#define malloc(a) kmalloc((a), GFP_KERNEL)
+ #define free(a) kfree(a)
+ #define large_malloc(a) vmalloc(a)
+diff --git a/include/linux/dma-mapping.h b/include/linux/dma-mapping.h
+index 91b7618..92a93d32 100644
+--- a/include/linux/dma-mapping.h
++++ b/include/linux/dma-mapping.h
+@@ -16,51 +16,51 @@ enum dma_data_direction {
+ };
+ struct dma_map_ops {
+-      void* (*alloc_coherent)(struct device *dev, size_t size,
++      void* (* const alloc_coherent)(struct device *dev, size_t size,
+                               dma_addr_t *dma_handle, gfp_t gfp);
+-      void (*free_coherent)(struct device *dev, size_t size,
++      void (* const free_coherent)(struct device *dev, size_t size,
+                             void *vaddr, dma_addr_t dma_handle);
+-      dma_addr_t (*map_page)(struct device *dev, struct page *page,
++      dma_addr_t (* const map_page)(struct device *dev, struct page *page,
+                              unsigned long offset, size_t size,
+                              enum dma_data_direction dir,
+                              struct dma_attrs *attrs);
+-      void (*unmap_page)(struct device *dev, dma_addr_t dma_handle,
++      void (* const unmap_page)(struct device *dev, dma_addr_t dma_handle,
+                          size_t size, enum dma_data_direction dir,
+                          struct dma_attrs *attrs);
+-      int (*map_sg)(struct device *dev, struct scatterlist *sg,
++      int (* const map_sg)(struct device *dev, struct scatterlist *sg,
+                     int nents, enum dma_data_direction dir,
+                     struct dma_attrs *attrs);
+-      void (*unmap_sg)(struct device *dev,
++      void (* const unmap_sg)(struct device *dev,
+                        struct scatterlist *sg, int nents,
+                        enum dma_data_direction dir,
+                        struct dma_attrs *attrs);
+-      void (*sync_single_for_cpu)(struct device *dev,
++      void (* const sync_single_for_cpu)(struct device *dev,
+                                   dma_addr_t dma_handle, size_t size,
+                                   enum dma_data_direction dir);
+-      void (*sync_single_for_device)(struct device *dev,
++      void (* const sync_single_for_device)(struct device *dev,
+                                      dma_addr_t dma_handle, size_t size,
+                                      enum dma_data_direction dir);
+-      void (*sync_single_range_for_cpu)(struct device *dev,
++      void (* const sync_single_range_for_cpu)(struct device *dev,
+                                         dma_addr_t dma_handle,
+                                         unsigned long offset,
+                                         size_t size,
+                                         enum dma_data_direction dir);
+-      void (*sync_single_range_for_device)(struct device *dev,
++      void (* const sync_single_range_for_device)(struct device *dev,
+                                            dma_addr_t dma_handle,
+                                            unsigned long offset,
+                                            size_t size,
+                                            enum dma_data_direction dir);
+-      void (*sync_sg_for_cpu)(struct device *dev,
++      void (* const sync_sg_for_cpu)(struct device *dev,
+                               struct scatterlist *sg, int nents,
+                               enum dma_data_direction dir);
+-      void (*sync_sg_for_device)(struct device *dev,
++      void (* const sync_sg_for_device)(struct device *dev,
+                                  struct scatterlist *sg, int nents,
+                                  enum dma_data_direction dir);
+-      int (*mapping_error)(struct device *dev, dma_addr_t dma_addr);
+-      int (*dma_supported)(struct device *dev, u64 mask);
++      int (* const mapping_error)(struct device *dev, dma_addr_t dma_addr);
++      int (* const dma_supported)(struct device *dev, u64 mask);
+       int (*set_dma_mask)(struct device *dev, u64 mask);
+       int is_phys;
+-};
++} __do_const;
+ #define DMA_BIT_MASK(n)       (((n) == 64) ? ~0ULL : ((1ULL<<(n))-1))
+diff --git a/include/linux/dst.h b/include/linux/dst.h
+index e26fed8..b976d9f 100644
+--- a/include/linux/dst.h
++++ b/include/linux/dst.h
+@@ -380,7 +380,7 @@ struct dst_node
+       struct thread_pool      *pool;
+       /* Transaction IDs live here */
+-      atomic_long_t           gen;
++      atomic_long_unchecked_t gen;
+       /*
+        * How frequently and how many times transaction
+diff --git a/include/linux/elf.h b/include/linux/elf.h
+index 90a4ed0..d652617 100644
+--- a/include/linux/elf.h
++++ b/include/linux/elf.h
+@@ -49,6 +49,17 @@ typedef __s64       Elf64_Sxword;
+ #define PT_GNU_EH_FRAME               0x6474e550
+ #define PT_GNU_STACK  (PT_LOOS + 0x474e551)
++#define PT_GNU_RELRO  (PT_LOOS + 0x474e552)
++
++#define PT_PAX_FLAGS  (PT_LOOS + 0x5041580)
++
++/* Constants for the e_flags field */
++#define EF_PAX_PAGEEXEC               1       /* Paging based non-executable pages */
++#define EF_PAX_EMUTRAMP               2       /* Emulate trampolines */
++#define EF_PAX_MPROTECT               4       /* Restrict mprotect() */
++#define EF_PAX_RANDMMAP               8       /* Randomize mmap() base */
++/*#define EF_PAX_RANDEXEC             16*/    /* Randomize ET_EXEC base */
++#define EF_PAX_SEGMEXEC               32      /* Segmentation based non-executable pages */
+ /* These constants define the different elf file types */
+ #define ET_NONE   0
+@@ -84,6 +95,8 @@ typedef __s64        Elf64_Sxword;
+ #define DT_DEBUG      21
+ #define DT_TEXTREL    22
+ #define DT_JMPREL     23
++#define DT_FLAGS      30
++  #define DF_TEXTREL  0x00000004
+ #define DT_ENCODING   32
+ #define OLD_DT_LOOS   0x60000000
+ #define DT_LOOS               0x6000000d
+@@ -230,6 +243,19 @@ typedef struct elf64_hdr {
+ #define PF_W          0x2
+ #define PF_X          0x1
++#define PF_PAGEEXEC   (1U << 4)       /* Enable  PAGEEXEC */
++#define PF_NOPAGEEXEC (1U << 5)       /* Disable PAGEEXEC */
++#define PF_SEGMEXEC   (1U << 6)       /* Enable  SEGMEXEC */
++#define PF_NOSEGMEXEC (1U << 7)       /* Disable SEGMEXEC */
++#define PF_MPROTECT   (1U << 8)       /* Enable  MPROTECT */
++#define PF_NOMPROTECT (1U << 9)       /* Disable MPROTECT */
++/*#define PF_RANDEXEC (1U << 10)*/    /* Enable  RANDEXEC */
++/*#define PF_NORANDEXEC       (1U << 11)*/    /* Disable RANDEXEC */
++#define PF_EMUTRAMP   (1U << 12)      /* Enable  EMUTRAMP */
++#define PF_NOEMUTRAMP (1U << 13)      /* Disable EMUTRAMP */
++#define PF_RANDMMAP   (1U << 14)      /* Enable  RANDMMAP */
++#define PF_NORANDMMAP (1U << 15)      /* Disable RANDMMAP */
++
+ typedef struct elf32_phdr{
+   Elf32_Word  p_type;
+   Elf32_Off   p_offset;
+@@ -322,6 +348,8 @@ typedef struct elf64_shdr {
+ #define       EI_OSABI        7
+ #define       EI_PAD          8
++#define       EI_PAX          14
++
+ #define       ELFMAG0         0x7f            /* EI_MAG */
+ #define       ELFMAG1         'E'
+ #define       ELFMAG2         'L'
+@@ -386,6 +414,7 @@ extern Elf32_Dyn _DYNAMIC [];
+ #define elf_phdr      elf32_phdr
+ #define elf_note      elf32_note
+ #define elf_addr_t    Elf32_Off
++#define elf_dyn               Elf32_Dyn
+ #else
+@@ -394,6 +423,7 @@ extern Elf64_Dyn _DYNAMIC [];
+ #define elf_phdr      elf64_phdr
+ #define elf_note      elf64_note
+ #define elf_addr_t    Elf64_Off
++#define elf_dyn               Elf64_Dyn
+ #endif
+diff --git a/include/linux/fs.h b/include/linux/fs.h
+index 1b9a47a..6fe2934 100644
+--- a/include/linux/fs.h
++++ b/include/linux/fs.h
+@@ -568,41 +568,41 @@ typedef int (*read_actor_t)(read_descriptor_t *, struct page *,
+               unsigned long, unsigned long);
+ struct address_space_operations {
+-      int (*writepage)(struct page *page, struct writeback_control *wbc);
+-      int (*readpage)(struct file *, struct page *);
+-      void (*sync_page)(struct page *);
++      int (* const writepage)(struct page *page, struct writeback_control *wbc);
++      int (* const readpage)(struct file *, struct page *);
++      void (* const sync_page)(struct page *);
+       /* Write back some dirty pages from this mapping. */
+-      int (*writepages)(struct address_space *, struct writeback_control *);
++      int (* const writepages)(struct address_space *, struct writeback_control *);
+       /* Set a page dirty.  Return true if this dirtied it */
+-      int (*set_page_dirty)(struct page *page);
++      int (* const set_page_dirty)(struct page *page);
+-      int (*readpages)(struct file *filp, struct address_space *mapping,
++      int (* const readpages)(struct file *filp, struct address_space *mapping,
+                       struct list_head *pages, unsigned nr_pages);
+-      int (*write_begin)(struct file *, struct address_space *mapping,
++      int (* const write_begin)(struct file *, struct address_space *mapping,
+                               loff_t pos, unsigned len, unsigned flags,
+                               struct page **pagep, void **fsdata);
+-      int (*write_end)(struct file *, struct address_space *mapping,
++      int (* const write_end)(struct file *, struct address_space *mapping,
+                               loff_t pos, unsigned len, unsigned copied,
+                               struct page *page, void *fsdata);
+       /* Unfortunately this kludge is needed for FIBMAP. Don't use it */
+-      sector_t (*bmap)(struct address_space *, sector_t);
+-      void (*invalidatepage) (struct page *, unsigned long);
+-      int (*releasepage) (struct page *, gfp_t);
+-      ssize_t (*direct_IO)(int, struct kiocb *, const struct iovec *iov,
++      sector_t (* const bmap)(struct address_space *, sector_t);
++      void (* const invalidatepage) (struct page *, unsigned long);
++      int (* const releasepage) (struct page *, gfp_t);
++      ssize_t (* const direct_IO)(int, struct kiocb *, const struct iovec *iov,
+                       loff_t offset, unsigned long nr_segs);
+-      int (*get_xip_mem)(struct address_space *, pgoff_t, int,
++      int (* const get_xip_mem)(struct address_space *, pgoff_t, int,
+                                               void **, unsigned long *);
+       /* migrate the contents of a page to the specified target */
+-      int (*migratepage) (struct address_space *,
++      int (* const migratepage) (struct address_space *,
+                       struct page *, struct page *);
+-      int (*launder_page) (struct page *);
+-      int (*is_partially_uptodate) (struct page *, read_descriptor_t *,
++      int (* const launder_page) (struct page *);
++      int (* const is_partially_uptodate) (struct page *, read_descriptor_t *,
+                                       unsigned long);
+-      int (*error_remove_page)(struct address_space *, struct page *);
++      int (* const error_remove_page)(struct address_space *, struct page *);
+ };
+ /*
+@@ -1031,19 +1031,19 @@ static inline int file_check_writeable(struct file *filp)
+ typedef struct files_struct *fl_owner_t;
+ struct file_lock_operations {
+-      void (*fl_copy_lock)(struct file_lock *, struct file_lock *);
+-      void (*fl_release_private)(struct file_lock *);
++      void (* const fl_copy_lock)(struct file_lock *, struct file_lock *);
++      void (* const fl_release_private)(struct file_lock *);
+ };
+ struct lock_manager_operations {
+-      int (*fl_compare_owner)(struct file_lock *, struct file_lock *);
+-      void (*fl_notify)(struct file_lock *);  /* unblock callback */
+-      int (*fl_grant)(struct file_lock *, struct file_lock *, int);
+-      void (*fl_copy_lock)(struct file_lock *, struct file_lock *);
+-      void (*fl_release_private)(struct file_lock *);
+-      void (*fl_break)(struct file_lock *);
+-      int (*fl_mylease)(struct file_lock *, struct file_lock *);
+-      int (*fl_change)(struct file_lock **, int);
++      int (* const fl_compare_owner)(struct file_lock *, struct file_lock *);
++      void (* const fl_notify)(struct file_lock *);   /* unblock callback */
++      int (* const fl_grant)(struct file_lock *, struct file_lock *, int);
++      void (* const fl_copy_lock)(struct file_lock *, struct file_lock *);
++      void (* const fl_release_private)(struct file_lock *);
++      void (* const fl_break)(struct file_lock *);
++      int (* const fl_mylease)(struct file_lock *, struct file_lock *);
++      int (* const fl_change)(struct file_lock **, int);
+ };
+ struct lock_manager {
+@@ -1442,7 +1442,7 @@ struct fiemap_extent_info {
+       unsigned int fi_flags;          /* Flags as passed from user */
+       unsigned int fi_extents_mapped; /* Number of mapped extents */
+       unsigned int fi_extents_max;    /* Size of fiemap_extent array */
+-      struct fiemap_extent *fi_extents_start; /* Start of fiemap_extent
++      struct fiemap_extent __user *fi_extents_start; /* Start of fiemap_extent
+                                                * array */
+ };
+ int fiemap_fill_next_extent(struct fiemap_extent_info *info, u64 logical,
+@@ -1512,7 +1512,8 @@ struct file_operations {
+       ssize_t (*splice_write)(struct pipe_inode_info *, struct file *, loff_t *, size_t, unsigned int);
+       ssize_t (*splice_read)(struct file *, loff_t *, struct pipe_inode_info *, size_t, unsigned int);
+       int (*setlease)(struct file *, long, struct file_lock **);
+-};
++} __do_const;
++typedef struct file_operations __no_const file_operations_no_const;
+ struct inode_operations {
+       int (*create) (struct inode *,struct dentry *,int, struct nameidata *);
+@@ -1559,30 +1560,30 @@ extern ssize_t vfs_writev(struct file *, const struct iovec __user *,
+               unsigned long, loff_t *);
+ struct super_operations {
+-      struct inode *(*alloc_inode)(struct super_block *sb);
+-      void (*destroy_inode)(struct inode *);
++      struct inode *(* const alloc_inode)(struct super_block *sb);
++      void (* const destroy_inode)(struct inode *);
+-      void (*dirty_inode) (struct inode *);
+-      int (*write_inode) (struct inode *, int);
+-      void (*drop_inode) (struct inode *);
+-      void (*delete_inode) (struct inode *);
+-      void (*put_super) (struct super_block *);
+-      void (*write_super) (struct super_block *);
+-      int (*sync_fs)(struct super_block *sb, int wait);
+-      int (*freeze_fs) (struct super_block *);
+-      int (*unfreeze_fs) (struct super_block *);
+-      int (*statfs) (struct dentry *, struct kstatfs *);
+-      int (*remount_fs) (struct super_block *, int *, char *);
+-      void (*clear_inode) (struct inode *);
+-      void (*umount_begin) (struct super_block *);
++      void (* const dirty_inode) (struct inode *);
++      int (* const write_inode) (struct inode *, int);
++      void (* const drop_inode) (struct inode *);
++      void (* const delete_inode) (struct inode *);
++      void (* const put_super) (struct super_block *);
++      void (* const write_super) (struct super_block *);
++      int (* const sync_fs)(struct super_block *sb, int wait);
++      int (* const freeze_fs) (struct super_block *);
++      int (* const unfreeze_fs) (struct super_block *);
++      int (* const statfs) (struct dentry *, struct kstatfs *);
++      int (* const remount_fs) (struct super_block *, int *, char *);
++      void (* const clear_inode) (struct inode *);
++      void (* const umount_begin) (struct super_block *);
+-      int (*show_options)(struct seq_file *, struct vfsmount *);
+-      int (*show_stats)(struct seq_file *, struct vfsmount *);
++      int (* const show_options)(struct seq_file *, struct vfsmount *);
++      int (* const show_stats)(struct seq_file *, struct vfsmount *);
+ #ifdef CONFIG_QUOTA
+-      ssize_t (*quota_read)(struct super_block *, int, char *, size_t, loff_t);
+-      ssize_t (*quota_write)(struct super_block *, int, const char *, size_t, loff_t);
++      ssize_t (* const quota_read)(struct super_block *, int, char *, size_t, loff_t);
++      ssize_t (* const quota_write)(struct super_block *, int, const char *, size_t, loff_t);
+ #endif
+-      int (*bdev_try_to_free_page)(struct super_block*, struct page*, gfp_t);
++      int (* const bdev_try_to_free_page)(struct super_block*, struct page*, gfp_t);
+ };
+ /*
+diff --git a/include/linux/fs_struct.h b/include/linux/fs_struct.h
+index 78a05bf..2a7d3e1 100644
+--- a/include/linux/fs_struct.h
++++ b/include/linux/fs_struct.h
+@@ -4,7 +4,7 @@
+ #include <linux/path.h>
+ struct fs_struct {
+-      int users;
++      atomic_t users;
+       rwlock_t lock;
+       int umask;
+       int in_exec;
+diff --git a/include/linux/fscache-cache.h b/include/linux/fscache-cache.h
+index 7be0c6f..2f63a2b 100644
+--- a/include/linux/fscache-cache.h
++++ b/include/linux/fscache-cache.h
+@@ -116,7 +116,7 @@ struct fscache_operation {
+ #endif
+ };
+-extern atomic_t fscache_op_debug_id;
++extern atomic_unchecked_t fscache_op_debug_id;
+ extern const struct slow_work_ops fscache_op_slow_work_ops;
+ extern void fscache_enqueue_operation(struct fscache_operation *);
+@@ -134,7 +134,7 @@ static inline void fscache_operation_init(struct fscache_operation *op,
+                                         fscache_operation_release_t release)
+ {
+       atomic_set(&op->usage, 1);
+-      op->debug_id = atomic_inc_return(&fscache_op_debug_id);
++      op->debug_id = atomic_inc_return_unchecked(&fscache_op_debug_id);
+       op->release = release;
+       INIT_LIST_HEAD(&op->pend_link);
+       fscache_set_op_state(op, "Init");
+diff --git a/include/linux/fsnotify_backend.h b/include/linux/fsnotify_backend.h
+index 4d6f47b..00bcedb 100644
+--- a/include/linux/fsnotify_backend.h
++++ b/include/linux/fsnotify_backend.h
+@@ -86,6 +86,7 @@ struct fsnotify_ops {
+       void (*freeing_mark)(struct fsnotify_mark_entry *entry, struct fsnotify_group *group);
+       void (*free_event_priv)(struct fsnotify_event_private_data *priv);
+ };
++typedef struct fsnotify_ops __no_const fsnotify_ops_no_const;
+ /*
+  * A group is a "thing" that wants to receive notification about filesystem
+diff --git a/include/linux/ftrace_event.h b/include/linux/ftrace_event.h
+index 4ec5e67..42f1eb9 100644
+--- a/include/linux/ftrace_event.h
++++ b/include/linux/ftrace_event.h
+@@ -163,7 +163,7 @@ extern int trace_define_field(struct ftrace_event_call *call,
+                             int filter_type);
+ extern int trace_define_common_fields(struct ftrace_event_call *call);
+-#define is_signed_type(type)  (((type)(-1)) < 0)
++#define is_signed_type(type)  (((type)(-1)) < (type)1)
+ int trace_set_clr_event(const char *system, const char *event, int set);
+diff --git a/include/linux/genhd.h b/include/linux/genhd.h
+index 297df45..b6a74ff 100644
+--- a/include/linux/genhd.h
++++ b/include/linux/genhd.h
+@@ -161,7 +161,7 @@ struct gendisk {
+       struct timer_rand_state *random;
+-      atomic_t sync_io;               /* RAID */
++      atomic_unchecked_t sync_io;     /* RAID */
+       struct work_struct async_notify;
+ #ifdef  CONFIG_BLK_DEV_INTEGRITY
+       struct blk_integrity *integrity;
+diff --git a/include/linux/gracl.h b/include/linux/gracl.h
+new file mode 100644
+index 0000000..0dc3943
+--- /dev/null
++++ b/include/linux/gracl.h
+@@ -0,0 +1,317 @@
++#ifndef GR_ACL_H
++#define GR_ACL_H
++
++#include <linux/grdefs.h>
++#include <linux/resource.h>
++#include <linux/capability.h>
++#include <linux/dcache.h>
++#include <asm/resource.h>
++
++/* Major status information */
++
++#define GR_VERSION  "grsecurity 2.2.2"
++#define GRSECURITY_VERSION 0x2202
++
++enum {
++      GR_SHUTDOWN = 0,
++      GR_ENABLE = 1,
++      GR_SPROLE = 2,
++      GR_RELOAD = 3,
++      GR_SEGVMOD = 4,
++      GR_STATUS = 5,
++      GR_UNSPROLE = 6,
++      GR_PASSSET = 7,
++      GR_SPROLEPAM = 8,
++};
++
++/* Password setup definitions
++ * kernel/grhash.c */
++enum {
++      GR_PW_LEN = 128,
++      GR_SALT_LEN = 16,
++      GR_SHA_LEN = 32,
++};
++
++enum {
++      GR_SPROLE_LEN = 64,
++};
++
++enum {
++      GR_NO_GLOB = 0,
++      GR_REG_GLOB,
++      GR_CREATE_GLOB
++};
++
++#define GR_NLIMITS 32
++
++/* Begin Data Structures */
++
++struct sprole_pw {
++      unsigned char *rolename;
++      unsigned char salt[GR_SALT_LEN];
++      unsigned char sum[GR_SHA_LEN];  /* 256-bit SHA hash of the password */
++};
++
++struct name_entry {
++      __u32 key;
++      ino_t inode;
++      dev_t device;
++      char *name;
++      __u16 len;
++      __u8 deleted;
++      struct name_entry *prev;
++      struct name_entry *next;
++};
++
++struct inodev_entry {
++      struct name_entry *nentry;
++      struct inodev_entry *prev;
++      struct inodev_entry *next;
++};
++
++struct acl_role_db {
++      struct acl_role_label **r_hash;
++      __u32 r_size;
++};
++
++struct inodev_db {
++      struct inodev_entry **i_hash;
++      __u32 i_size;
++};
++
++struct name_db {
++      struct name_entry **n_hash;
++      __u32 n_size;
++};
++
++struct crash_uid {
++      uid_t uid;
++      unsigned long expires;
++};
++
++struct gr_hash_struct {
++      void **table;
++      void **nametable;
++      void *first;
++      __u32 table_size;
++      __u32 used_size;
++      int type;
++};
++
++/* Userspace Grsecurity ACL data structures */
++
++struct acl_subject_label {
++      char *filename;
++      ino_t inode;
++      dev_t device;
++      __u32 mode;
++      kernel_cap_t cap_mask;
++      kernel_cap_t cap_lower;
++      kernel_cap_t cap_invert_audit;
++
++      struct rlimit res[GR_NLIMITS];
++      __u32 resmask;
++
++      __u8 user_trans_type;
++      __u8 group_trans_type;
++      uid_t *user_transitions;
++      gid_t *group_transitions;
++      __u16 user_trans_num;
++      __u16 group_trans_num;
++
++      __u32 sock_families[2];
++      __u32 ip_proto[8];
++      __u32 ip_type;
++      struct acl_ip_label **ips;
++      __u32 ip_num;
++      __u32 inaddr_any_override;
++
++      __u32 crashes;
++      unsigned long expires;
++
++      struct acl_subject_label *parent_subject;
++      struct gr_hash_struct *hash;
++      struct acl_subject_label *prev;
++      struct acl_subject_label *next;
++
++      struct acl_object_label **obj_hash;
++      __u32 obj_hash_size;
++      __u16 pax_flags;
++};
++
++struct role_allowed_ip {
++      __u32 addr;
++      __u32 netmask;
++
++      struct role_allowed_ip *prev;
++      struct role_allowed_ip *next;
++};
++
++struct role_transition {
++      char *rolename;
++
++      struct role_transition *prev;
++      struct role_transition *next;
++};
++
++struct acl_role_label {
++      char *rolename;
++      uid_t uidgid;
++      __u16 roletype;
++
++      __u16 auth_attempts;
++      unsigned long expires;
++
++      struct acl_subject_label *root_label;
++      struct gr_hash_struct *hash;
++
++      struct acl_role_label *prev;
++      struct acl_role_label *next;
++
++      struct role_transition *transitions;
++      struct role_allowed_ip *allowed_ips;
++      uid_t *domain_children;
++      __u16 domain_child_num;
++
++      struct acl_subject_label **subj_hash;
++      __u32 subj_hash_size;
++};
++
++struct user_acl_role_db {
++      struct acl_role_label **r_table;
++      __u32 num_pointers;             /* Number of allocations to track */
++      __u32 num_roles;                /* Number of roles */
++      __u32 num_domain_children;      /* Number of domain children */
++      __u32 num_subjects;             /* Number of subjects */
++      __u32 num_objects;              /* Number of objects */
++};
++
++struct acl_object_label {
++      char *filename;
++      ino_t inode;
++      dev_t device;
++      __u32 mode;
++
++      struct acl_subject_label *nested;
++      struct acl_object_label *globbed;
++
++      /* next two structures not used */
++
++      struct acl_object_label *prev;
++      struct acl_object_label *next;
++};
++
++struct acl_ip_label {
++      char *iface;
++      __u32 addr;
++      __u32 netmask;
++      __u16 low, high;
++      __u8 mode;
++      __u32 type;
++      __u32 proto[8];
++
++      /* next two structures not used */
++
++      struct acl_ip_label *prev;
++      struct acl_ip_label *next;
++};
++
++struct gr_arg {
++      struct user_acl_role_db role_db;
++      unsigned char pw[GR_PW_LEN];
++      unsigned char salt[GR_SALT_LEN];
++      unsigned char sum[GR_SHA_LEN];
++      unsigned char sp_role[GR_SPROLE_LEN];
++      struct sprole_pw *sprole_pws;
++      dev_t segv_device;
++      ino_t segv_inode;
++      uid_t segv_uid;
++      __u16 num_sprole_pws;
++      __u16 mode;
++};
++
++struct gr_arg_wrapper {
++      struct gr_arg *arg;
++      __u32 version;
++      __u32 size;
++};
++
++struct subject_map {
++      struct acl_subject_label *user;
++      struct acl_subject_label *kernel;
++      struct subject_map *prev;
++      struct subject_map *next;
++};
++
++struct acl_subj_map_db {
++      struct subject_map **s_hash;
++      __u32 s_size;
++};
++
++/* End Data Structures Section */
++
++/* Hash functions generated by empirical testing by Brad Spengler
++   Makes good use of the low bits of the inode.  Generally 0-1 times
++   in loop for successful match.  0-3 for unsuccessful match.
++   Shift/add algorithm with modulus of table size and an XOR*/
++
++static __inline__ unsigned int
++rhash(const uid_t uid, const __u16 type, const unsigned int sz)
++{
++      return ((((uid + type) << (16 + type)) ^ uid) % sz);
++}
++
++ static __inline__ unsigned int
++shash(const struct acl_subject_label *userp, const unsigned int sz)
++{
++      return ((const unsigned long)userp % sz);
++}
++
++static __inline__ unsigned int
++fhash(const ino_t ino, const dev_t dev, const unsigned int sz)
++{
++      return (((ino + dev) ^ ((ino << 13) + (ino << 23) + (dev << 9))) % sz);
++}
++
++static __inline__ unsigned int
++nhash(const char *name, const __u16 len, const unsigned int sz)
++{
++      return full_name_hash((const unsigned char *)name, len) % sz;
++}
++
++#define FOR_EACH_ROLE_START(role) \
++      role = role_list; \
++      while (role) {
++
++#define FOR_EACH_ROLE_END(role) \
++              role = role->prev; \
++      }
++
++#define FOR_EACH_SUBJECT_START(role,subj,iter) \
++      subj = NULL; \
++      iter = 0; \
++      while (iter < role->subj_hash_size) { \
++              if (subj == NULL) \
++                      subj = role->subj_hash[iter]; \
++              if (subj == NULL) { \
++                      iter++; \
++                      continue; \
++              }
++
++#define FOR_EACH_SUBJECT_END(subj,iter) \
++              subj = subj->next; \
++              if (subj == NULL) \
++                      iter++; \
++      }
++
++
++#define FOR_EACH_NESTED_SUBJECT_START(role,subj) \
++      subj = role->hash->first; \
++      while (subj != NULL) {
++
++#define FOR_EACH_NESTED_SUBJECT_END(subj) \
++              subj = subj->next; \
++      }
++
++#endif
++
+diff --git a/include/linux/gralloc.h b/include/linux/gralloc.h
+new file mode 100644
+index 0000000..323ecf2
+--- /dev/null
++++ b/include/linux/gralloc.h
+@@ -0,0 +1,9 @@
++#ifndef __GRALLOC_H
++#define __GRALLOC_H
++
++void acl_free_all(void);
++int acl_alloc_stack_init(unsigned long size);
++void *acl_alloc(unsigned long len);
++void *acl_alloc_num(unsigned long num, unsigned long len);
++
++#endif
+diff --git a/include/linux/grdefs.h b/include/linux/grdefs.h
+new file mode 100644
+index 0000000..70d6cd5
+--- /dev/null
++++ b/include/linux/grdefs.h
+@@ -0,0 +1,140 @@
++#ifndef GRDEFS_H
++#define GRDEFS_H
++
++/* Begin grsecurity status declarations */
++
++enum {
++      GR_READY = 0x01,
++      GR_STATUS_INIT = 0x00   // disabled state
++};
++
++/* Begin  ACL declarations */
++
++/* Role flags */
++
++enum {
++      GR_ROLE_USER = 0x0001,
++      GR_ROLE_GROUP = 0x0002,
++      GR_ROLE_DEFAULT = 0x0004,
++      GR_ROLE_SPECIAL = 0x0008,
++      GR_ROLE_AUTH = 0x0010,
++      GR_ROLE_NOPW = 0x0020,
++      GR_ROLE_GOD = 0x0040,
++      GR_ROLE_LEARN = 0x0080,
++      GR_ROLE_TPE = 0x0100,
++      GR_ROLE_DOMAIN = 0x0200,
++      GR_ROLE_PAM = 0x0400,
++      GR_ROLE_PERSIST = 0x800
++};
++
++/* ACL Subject and Object mode flags */
++enum {
++      GR_DELETED = 0x80000000
++};
++
++/* ACL Object-only mode flags */
++enum {
++      GR_READ         = 0x00000001,
++      GR_APPEND       = 0x00000002,
++      GR_WRITE        = 0x00000004,
++      GR_EXEC         = 0x00000008,
++      GR_FIND         = 0x00000010,
++      GR_INHERIT      = 0x00000020,
++      GR_SETID        = 0x00000040,
++      GR_CREATE       = 0x00000080,
++      GR_DELETE       = 0x00000100,
++      GR_LINK         = 0x00000200,
++      GR_AUDIT_READ   = 0x00000400,
++      GR_AUDIT_APPEND = 0x00000800,
++      GR_AUDIT_WRITE  = 0x00001000,
++      GR_AUDIT_EXEC   = 0x00002000,
++      GR_AUDIT_FIND   = 0x00004000,
++      GR_AUDIT_INHERIT= 0x00008000,
++      GR_AUDIT_SETID  = 0x00010000,
++      GR_AUDIT_CREATE = 0x00020000,
++      GR_AUDIT_DELETE = 0x00040000,
++      GR_AUDIT_LINK   = 0x00080000,
++      GR_PTRACERD     = 0x00100000,
++      GR_NOPTRACE     = 0x00200000,
++      GR_SUPPRESS     = 0x00400000,
++      GR_NOLEARN      = 0x00800000,
++      GR_INIT_TRANSFER= 0x01000000
++};
++
++#define GR_AUDITS (GR_AUDIT_READ | GR_AUDIT_WRITE | GR_AUDIT_APPEND | GR_AUDIT_EXEC | \
++                 GR_AUDIT_FIND | GR_AUDIT_INHERIT | GR_AUDIT_SETID | \
++                 GR_AUDIT_CREATE | GR_AUDIT_DELETE | GR_AUDIT_LINK)
++
++/* ACL subject-only mode flags */
++enum {
++      GR_KILL         = 0x00000001,
++      GR_VIEW         = 0x00000002,
++      GR_PROTECTED    = 0x00000004,
++      GR_LEARN        = 0x00000008,
++      GR_OVERRIDE     = 0x00000010,
++      /* just a placeholder, this mode is only used in userspace */
++      GR_DUMMY        = 0x00000020,
++      GR_PROTSHM      = 0x00000040,
++      GR_KILLPROC     = 0x00000080,
++      GR_KILLIPPROC   = 0x00000100,
++      /* just a placeholder, this mode is only used in userspace */
++      GR_NOTROJAN     = 0x00000200,
++      GR_PROTPROCFD   = 0x00000400,
++      GR_PROCACCT     = 0x00000800,
++      GR_RELAXPTRACE  = 0x00001000,
++      GR_NESTED       = 0x00002000,
++      GR_INHERITLEARN = 0x00004000,
++      GR_PROCFIND     = 0x00008000,
++      GR_POVERRIDE    = 0x00010000,
++      GR_KERNELAUTH   = 0x00020000,
++      GR_ATSECURE     = 0x00040000,
++      GR_SHMEXEC      = 0x00080000
++};
++
++enum {
++      GR_PAX_ENABLE_SEGMEXEC  = 0x0001,
++      GR_PAX_ENABLE_PAGEEXEC  = 0x0002,
++      GR_PAX_ENABLE_MPROTECT  = 0x0004,
++      GR_PAX_ENABLE_RANDMMAP  = 0x0008,
++      GR_PAX_ENABLE_EMUTRAMP  = 0x0010,
++      GR_PAX_DISABLE_SEGMEXEC = 0x0100,
++      GR_PAX_DISABLE_PAGEEXEC = 0x0200,
++      GR_PAX_DISABLE_MPROTECT = 0x0400,
++      GR_PAX_DISABLE_RANDMMAP = 0x0800,
++      GR_PAX_DISABLE_EMUTRAMP = 0x1000,
++};
++
++enum {
++      GR_ID_USER      = 0x01,
++      GR_ID_GROUP     = 0x02,
++};
++
++enum {
++      GR_ID_ALLOW     = 0x01,
++      GR_ID_DENY      = 0x02,
++};
++
++#define GR_CRASH_RES  31
++#define GR_UIDTABLE_MAX 500
++
++/* begin resource learning section */
++enum {
++      GR_RLIM_CPU_BUMP = 60,
++      GR_RLIM_FSIZE_BUMP = 50000,
++      GR_RLIM_DATA_BUMP = 10000,
++      GR_RLIM_STACK_BUMP = 1000,
++      GR_RLIM_CORE_BUMP = 10000,
++      GR_RLIM_RSS_BUMP = 500000,
++      GR_RLIM_NPROC_BUMP = 1,
++      GR_RLIM_NOFILE_BUMP = 5,
++      GR_RLIM_MEMLOCK_BUMP = 50000,
++      GR_RLIM_AS_BUMP = 500000,
++      GR_RLIM_LOCKS_BUMP = 2,
++      GR_RLIM_SIGPENDING_BUMP = 5,
++      GR_RLIM_MSGQUEUE_BUMP = 10000,
++      GR_RLIM_NICE_BUMP = 1,
++      GR_RLIM_RTPRIO_BUMP = 1,
++      GR_RLIM_RTTIME_BUMP = 1000000
++};
++
++#endif
+diff --git a/include/linux/grinternal.h b/include/linux/grinternal.h
+new file mode 100644
+index 0000000..3826b91
+--- /dev/null
++++ b/include/linux/grinternal.h
+@@ -0,0 +1,219 @@
++#ifndef __GRINTERNAL_H
++#define __GRINTERNAL_H
++
++#ifdef CONFIG_GRKERNSEC
++
++#include <linux/fs.h>
++#include <linux/mnt_namespace.h>
++#include <linux/nsproxy.h>
++#include <linux/gracl.h>
++#include <linux/grdefs.h>
++#include <linux/grmsg.h>
++
++void gr_add_learn_entry(const char *fmt, ...)
++      __attribute__ ((format (printf, 1, 2)));
++__u32 gr_search_file(const struct dentry *dentry, const __u32 mode,
++                          const struct vfsmount *mnt);
++__u32 gr_check_create(const struct dentry *new_dentry,
++                           const struct dentry *parent,
++                           const struct vfsmount *mnt, const __u32 mode);
++int gr_check_protected_task(const struct task_struct *task);
++__u32 to_gr_audit(const __u32 reqmode);
++int gr_set_acls(const int type);
++int gr_apply_subject_to_task(struct task_struct *task);
++int gr_acl_is_enabled(void);
++char gr_roletype_to_char(void);
++
++void gr_handle_alertkill(struct task_struct *task);
++char *gr_to_filename(const struct dentry *dentry,
++                          const struct vfsmount *mnt);
++char *gr_to_filename1(const struct dentry *dentry,
++                          const struct vfsmount *mnt);
++char *gr_to_filename2(const struct dentry *dentry,
++                          const struct vfsmount *mnt);
++char *gr_to_filename3(const struct dentry *dentry,
++                          const struct vfsmount *mnt);
++
++extern int grsec_enable_ptrace_readexec;
++extern int grsec_enable_harden_ptrace;
++extern int grsec_enable_link;
++extern int grsec_enable_fifo;
++extern int grsec_enable_shm;
++extern int grsec_enable_execlog;
++extern int grsec_enable_signal;
++extern int grsec_enable_audit_ptrace;
++extern int grsec_enable_forkfail;
++extern int grsec_enable_time;
++extern int grsec_enable_rofs;
++extern int grsec_enable_chroot_shmat;
++extern int grsec_enable_chroot_mount;
++extern int grsec_enable_chroot_double;
++extern int grsec_enable_chroot_pivot;
++extern int grsec_enable_chroot_chdir;
++extern int grsec_enable_chroot_chmod;
++extern int grsec_enable_chroot_mknod;
++extern int grsec_enable_chroot_fchdir;
++extern int grsec_enable_chroot_nice;
++extern int grsec_enable_chroot_execlog;
++extern int grsec_enable_chroot_caps;
++extern int grsec_enable_chroot_sysctl;
++extern int grsec_enable_chroot_unix;
++extern int grsec_enable_tpe;
++extern int grsec_tpe_gid;
++extern int grsec_enable_tpe_all;
++extern int grsec_enable_tpe_invert;
++extern int grsec_enable_socket_all;
++extern int grsec_socket_all_gid;
++extern int grsec_enable_socket_client;
++extern int grsec_socket_client_gid;
++extern int grsec_enable_socket_server;
++extern int grsec_socket_server_gid;
++extern int grsec_audit_gid;
++extern int grsec_enable_group;
++extern int grsec_enable_audit_textrel;
++extern int grsec_enable_log_rwxmaps;
++extern int grsec_enable_mount;
++extern int grsec_enable_chdir;
++extern int grsec_resource_logging;
++extern int grsec_enable_blackhole;
++extern int grsec_lastack_retries;
++extern int grsec_enable_brute;
++extern int grsec_lock;
++
++extern spinlock_t grsec_alert_lock;
++extern unsigned long grsec_alert_wtime;
++extern unsigned long grsec_alert_fyet;
++
++extern spinlock_t grsec_audit_lock;
++
++extern rwlock_t grsec_exec_file_lock;
++
++#define gr_task_fullpath(tsk) ((tsk)->exec_file ? \
++                      gr_to_filename2((tsk)->exec_file->f_path.dentry, \
++                      (tsk)->exec_file->f_vfsmnt) : "/")
++
++#define gr_parent_task_fullpath(tsk) ((tsk)->real_parent->exec_file ? \
++                      gr_to_filename3((tsk)->real_parent->exec_file->f_path.dentry, \
++                      (tsk)->real_parent->exec_file->f_vfsmnt) : "/")
++
++#define gr_task_fullpath0(tsk) ((tsk)->exec_file ? \
++                      gr_to_filename((tsk)->exec_file->f_path.dentry, \
++                      (tsk)->exec_file->f_vfsmnt) : "/")
++
++#define gr_parent_task_fullpath0(tsk) ((tsk)->real_parent->exec_file ? \
++                      gr_to_filename1((tsk)->real_parent->exec_file->f_path.dentry, \
++                      (tsk)->real_parent->exec_file->f_vfsmnt) : "/")
++
++#define proc_is_chrooted(tsk_a)  ((tsk_a)->gr_is_chrooted)
++
++#define have_same_root(tsk_a,tsk_b) ((tsk_a)->gr_chroot_dentry == (tsk_b)->gr_chroot_dentry)
++
++#define DEFAULTSECARGS(task, cred, pcred) gr_task_fullpath(task), (task)->comm, \
++                     (task)->pid, (cred)->uid, \
++                     (cred)->euid, (cred)->gid, (cred)->egid, \
++                     gr_parent_task_fullpath(task), \
++                     (task)->real_parent->comm, (task)->real_parent->pid, \
++                     (pcred)->uid, (pcred)->euid, \
++                     (pcred)->gid, (pcred)->egid
++
++#define GR_CHROOT_CAPS {{ \
++      CAP_TO_MASK(CAP_LINUX_IMMUTABLE) | CAP_TO_MASK(CAP_NET_ADMIN) | \
++      CAP_TO_MASK(CAP_SYS_MODULE) | CAP_TO_MASK(CAP_SYS_RAWIO) | \
++      CAP_TO_MASK(CAP_SYS_PACCT) | CAP_TO_MASK(CAP_SYS_ADMIN) | \
++      CAP_TO_MASK(CAP_SYS_BOOT) | CAP_TO_MASK(CAP_SYS_TIME) | \
++      CAP_TO_MASK(CAP_NET_RAW) | CAP_TO_MASK(CAP_SYS_TTY_CONFIG) | \
++      CAP_TO_MASK(CAP_IPC_OWNER) | CAP_TO_MASK(CAP_SETFCAP), \
++      CAP_TO_MASK(CAP_MAC_ADMIN) }}
++
++#define security_learn(normal_msg,args...) \
++({ \
++      read_lock(&grsec_exec_file_lock); \
++      gr_add_learn_entry(normal_msg "\n", ## args); \
++      read_unlock(&grsec_exec_file_lock); \
++})
++
++enum {
++      GR_DO_AUDIT,
++      GR_DONT_AUDIT,
++      GR_DONT_AUDIT_GOOD
++};
++
++enum {
++      GR_TTYSNIFF,
++      GR_RBAC,
++      GR_RBAC_STR,
++      GR_STR_RBAC,
++      GR_RBAC_MODE2,
++      GR_RBAC_MODE3,
++      GR_FILENAME,
++      GR_SYSCTL_HIDDEN,
++      GR_NOARGS,
++      GR_ONE_INT,
++      GR_ONE_INT_TWO_STR,
++      GR_ONE_STR,
++      GR_STR_INT,
++      GR_TWO_STR_INT,
++      GR_TWO_INT,
++      GR_TWO_U64,
++      GR_THREE_INT,
++      GR_FIVE_INT_TWO_STR,
++      GR_TWO_STR,
++      GR_THREE_STR,
++      GR_FOUR_STR,
++      GR_STR_FILENAME,
++      GR_FILENAME_STR,
++      GR_FILENAME_TWO_INT,
++      GR_FILENAME_TWO_INT_STR,
++      GR_TEXTREL,
++      GR_PTRACE,
++      GR_RESOURCE,
++      GR_CAP,
++      GR_SIG,
++      GR_SIG2,
++      GR_CRASH1,
++      GR_CRASH2,
++      GR_PSACCT,
++      GR_RWXMAP
++};
++
++#define gr_log_hidden_sysctl(audit, msg, str) gr_log_varargs(audit, msg, GR_SYSCTL_HIDDEN, str)
++#define gr_log_ttysniff(audit, msg, task) gr_log_varargs(audit, msg, GR_TTYSNIFF, task)
++#define gr_log_fs_rbac_generic(audit, msg, dentry, mnt) gr_log_varargs(audit, msg, GR_RBAC, dentry, mnt)
++#define gr_log_fs_rbac_str(audit, msg, dentry, mnt, str) gr_log_varargs(audit, msg, GR_RBAC_STR, dentry, mnt, str)
++#define gr_log_fs_str_rbac(audit, msg, str, dentry, mnt) gr_log_varargs(audit, msg, GR_STR_RBAC, str, dentry, mnt)
++#define gr_log_fs_rbac_mode2(audit, msg, dentry, mnt, str1, str2) gr_log_varargs(audit, msg, GR_RBAC_MODE2, dentry, mnt, str1, str2)
++#define gr_log_fs_rbac_mode3(audit, msg, dentry, mnt, str1, str2, str3) gr_log_varargs(audit, msg, GR_RBAC_MODE3, dentry, mnt, str1, str2, str3)
++#define gr_log_fs_generic(audit, msg, dentry, mnt) gr_log_varargs(audit, msg, GR_FILENAME, dentry, mnt)
++#define gr_log_noargs(audit, msg) gr_log_varargs(audit, msg, GR_NOARGS)
++#define gr_log_int(audit, msg, num) gr_log_varargs(audit, msg, GR_ONE_INT, num)
++#define gr_log_int_str2(audit, msg, num, str1, str2) gr_log_varargs(audit, msg, GR_ONE_INT_TWO_STR, num, str1, str2)
++#define gr_log_str(audit, msg, str) gr_log_varargs(audit, msg, GR_ONE_STR, str)
++#define gr_log_str_int(audit, msg, str, num) gr_log_varargs(audit, msg, GR_STR_INT, str, num)
++#define gr_log_int_int(audit, msg, num1, num2) gr_log_varargs(audit, msg, GR_TWO_INT, num1, num2)
++#define gr_log_two_u64(audit, msg, num1, num2) gr_log_varargs(audit, msg, GR_TWO_U64, num1, num2)
++#define gr_log_int3(audit, msg, num1, num2, num3) gr_log_varargs(audit, msg, GR_THREE_INT, num1, num2, num3)
++#define gr_log_int5_str2(audit, msg, num1, num2, str1, str2) gr_log_varargs(audit, msg, GR_FIVE_INT_TWO_STR, num1, num2, str1, str2)
++#define gr_log_str_str(audit, msg, str1, str2) gr_log_varargs(audit, msg, GR_TWO_STR, str1, str2)
++#define gr_log_str2_int(audit, msg, str1, str2, num) gr_log_varargs(audit, msg, GR_TWO_STR_INT, str1, str2, num)
++#define gr_log_str3(audit, msg, str1, str2, str3) gr_log_varargs(audit, msg, GR_THREE_STR, str1, str2, str3)
++#define gr_log_str4(audit, msg, str1, str2, str3, str4) gr_log_varargs(audit, msg, GR_FOUR_STR, str1, str2, str3, str4)
++#define gr_log_str_fs(audit, msg, str, dentry, mnt) gr_log_varargs(audit, msg, GR_STR_FILENAME, str, dentry, mnt)
++#define gr_log_fs_str(audit, msg, dentry, mnt, str) gr_log_varargs(audit, msg, GR_FILENAME_STR, dentry, mnt, str)
++#define gr_log_fs_int2(audit, msg, dentry, mnt, num1, num2) gr_log_varargs(audit, msg, GR_FILENAME_TWO_INT, dentry, mnt, num1, num2)
++#define gr_log_fs_int2_str(audit, msg, dentry, mnt, num1, num2, str) gr_log_varargs(audit, msg, GR_FILENAME_TWO_INT_STR, dentry, mnt, num1, num2, str)
++#define gr_log_textrel_ulong_ulong(audit, msg, file, ulong1, ulong2) gr_log_varargs(audit, msg, GR_TEXTREL, file, ulong1, ulong2)
++#define gr_log_ptrace(audit, msg, task) gr_log_varargs(audit, msg, GR_PTRACE, task)
++#define gr_log_res_ulong2_str(audit, msg, task, ulong1, str, ulong2) gr_log_varargs(audit, msg, GR_RESOURCE, task, ulong1, str, ulong2)
++#define gr_log_cap(audit, msg, task, str) gr_log_varargs(audit, msg, GR_CAP, task, str)
++#define gr_log_sig_addr(audit, msg, str, addr) gr_log_varargs(audit, msg, GR_SIG, str, addr)
++#define gr_log_sig_task(audit, msg, task, num) gr_log_varargs(audit, msg, GR_SIG2, task, num)
++#define gr_log_crash1(audit, msg, task, ulong) gr_log_varargs(audit, msg, GR_CRASH1, task, ulong)
++#define gr_log_crash2(audit, msg, task, ulong1) gr_log_varargs(audit, msg, GR_CRASH2, task, ulong1)
++#define gr_log_procacct(audit, msg, task, num1, num2, num3, num4, num5, num6, num7, num8, num9) gr_log_varargs(audit, msg, GR_PSACCT, task, num1, num2, num3, num4, num5, num6, num7, num8, num9)
++#define gr_log_rwxmap(audit, msg, str) gr_log_varargs(audit, msg, GR_RWXMAP, str)
++
++void gr_log_varargs(int audit, const char *msg, int argtypes, ...);
++
++#endif
++
++#endif
+diff --git a/include/linux/grmsg.h b/include/linux/grmsg.h
+new file mode 100644
+index 0000000..8b9ed56
+--- /dev/null
++++ b/include/linux/grmsg.h
+@@ -0,0 +1,110 @@
++#define DEFAULTSECMSG "%.256s[%.16s:%d] uid/euid:%u/%u gid/egid:%u/%u, parent %.256s[%.16s:%d] uid/euid:%u/%u gid/egid:%u/%u"
++#define GR_ACL_PROCACCT_MSG "%.256s[%.16s:%d] IP:%pI4 TTY:%.64s uid/euid:%u/%u gid/egid:%u/%u run time:[%ud %uh %um %us] cpu time:[%ud %uh %um %us] %s with exit code %ld, parent %.256s[%.16s:%d] IP:%pI4 TTY:%.64s uid/euid:%u/%u gid/egid:%u/%u"
++#define GR_PTRACE_ACL_MSG "denied ptrace of %.950s(%.16s:%d) by "
++#define GR_STOPMOD_MSG "denied modification of module state by "
++#define GR_ROFS_BLOCKWRITE_MSG "denied write to block device %.950s by "
++#define GR_ROFS_MOUNT_MSG "denied writable mount of %.950s by "
++#define GR_IOPERM_MSG "denied use of ioperm() by "
++#define GR_IOPL_MSG "denied use of iopl() by "
++#define GR_SHMAT_ACL_MSG "denied attach of shared memory of UID %u, PID %d, ID %u by "
++#define GR_UNIX_CHROOT_MSG "denied connect() to abstract AF_UNIX socket outside of chroot by "
++#define GR_SHMAT_CHROOT_MSG "denied attach of shared memory outside of chroot by "
++#define GR_MEM_READWRITE_MSG "denied access of range %Lx -> %Lx in /dev/mem by "
++#define GR_SYMLINK_MSG "not following symlink %.950s owned by %d.%d by "
++#define GR_LEARN_AUDIT_MSG "%s\t%u\t%u\t%u\t%.4095s\t%.4095s\t%lu\t%lu\t%.4095s\t%lu\t%pI4"
++#define GR_ID_LEARN_MSG "%s\t%u\t%u\t%u\t%.4095s\t%.4095s\t%c\t%d\t%d\t%d\t%pI4"
++#define GR_HIDDEN_ACL_MSG "%s access to hidden file %.950s by "
++#define GR_OPEN_ACL_MSG "%s open of %.950s for%s%s by "
++#define GR_CREATE_ACL_MSG "%s create of %.950s for%s%s by "
++#define GR_FIFO_MSG "denied writing FIFO %.950s of %d.%d by "
++#define GR_MKNOD_CHROOT_MSG "denied mknod of %.950s from chroot by "
++#define GR_MKNOD_ACL_MSG "%s mknod of %.950s by "
++#define GR_UNIXCONNECT_ACL_MSG "%s connect() to the unix domain socket %.950s by "
++#define GR_TTYSNIFF_ACL_MSG "terminal being sniffed by IP:%pI4 %.480s[%.16s:%d], parent %.480s[%.16s:%d] against "
++#define GR_MKDIR_ACL_MSG "%s mkdir of %.950s by "
++#define GR_RMDIR_ACL_MSG "%s rmdir of %.950s by "
++#define GR_UNLINK_ACL_MSG "%s unlink of %.950s by "
++#define GR_SYMLINK_ACL_MSG "%s symlink from %.480s to %.480s by "
++#define GR_HARDLINK_MSG "denied hardlink of %.930s (owned by %d.%d) to %.30s for "
++#define GR_LINK_ACL_MSG "%s link of %.480s to %.480s by "
++#define GR_INHERIT_ACL_MSG "successful inherit of %.480s's ACL for %.480s by "
++#define GR_RENAME_ACL_MSG "%s rename of %.480s to %.480s by "
++#define GR_UNSAFESHARE_EXEC_ACL_MSG "denied exec with cloned fs of %.950s by "
++#define GR_PTRACE_EXEC_ACL_MSG "denied ptrace of %.950s by "
++#define GR_EXEC_ACL_MSG "%s execution of %.950s by "
++#define GR_EXEC_TPE_MSG "denied untrusted exec (due to %.70s) of %.950s by "
++#define GR_SEGVSTART_ACL_MSG "possible exploit bruteforcing on " DEFAULTSECMSG " banning uid %u from login for %lu seconds"
++#define GR_SEGVNOSUID_ACL_MSG "possible exploit bruteforcing on " DEFAULTSECMSG " banning execution for %lu seconds"
++#define GR_MOUNT_CHROOT_MSG "denied mount of %.256s as %.930s from chroot by "
++#define GR_PIVOT_CHROOT_MSG "denied pivot_root from chroot by "
++#define GR_TRUNCATE_ACL_MSG "%s truncate of %.950s by "
++#define GR_ATIME_ACL_MSG "%s access time change of %.950s by "
++#define GR_ACCESS_ACL_MSG "%s access of %.950s for%s%s%s by "
++#define GR_CHROOT_CHROOT_MSG "denied double chroot to %.950s by "
++#define GR_FCHMOD_ACL_MSG "%s fchmod of %.950s by "
++#define GR_CHMOD_CHROOT_MSG "denied chmod +s of %.950s by "
++#define GR_CHMOD_ACL_MSG "%s chmod of %.950s by "
++#define GR_CHROOT_FCHDIR_MSG "denied fchdir outside of chroot to %.950s by "
++#define GR_CHOWN_ACL_MSG "%s chown of %.950s by "
++#define GR_SETXATTR_ACL_MSG "%s setting extended attributes of %.950s by "
++#define GR_WRITLIB_ACL_MSG "denied load of writable library %.950s by "
++#define GR_INITF_ACL_MSG "init_variables() failed %s by "
++#define GR_DISABLED_ACL_MSG "Error loading %s, trying to run kernel with acls disabled. To disable acls at startup use <kernel image name> gracl=off from your boot loader"
++#define GR_DEV_ACL_MSG "/dev/grsec: %d bytes sent %d required, being fed garbaged by "
++#define GR_SHUTS_ACL_MSG "shutdown auth success for "
++#define GR_SHUTF_ACL_MSG "shutdown auth failure for "
++#define GR_SHUTI_ACL_MSG "ignoring shutdown for disabled RBAC system for "
++#define GR_SEGVMODS_ACL_MSG "segvmod auth success for "
++#define GR_SEGVMODF_ACL_MSG "segvmod auth failure for "
++#define GR_SEGVMODI_ACL_MSG "ignoring segvmod for disabled RBAC system for "
++#define GR_ENABLE_ACL_MSG "%s RBAC system loaded by "
++#define GR_ENABLEF_ACL_MSG "unable to load %s for "
++#define GR_RELOADI_ACL_MSG "ignoring reload request for disabled RBAC system"
++#define GR_RELOAD_ACL_MSG "%s RBAC system reloaded by "
++#define GR_RELOADF_ACL_MSG "failed reload of %s for "
++#define GR_SPROLEI_ACL_MSG "ignoring change to special role for disabled RBAC system for "
++#define GR_SPROLES_ACL_MSG "successful change to special role %s (id %d) by "
++#define GR_SPROLEL_ACL_MSG "special role %s (id %d) exited by "
++#define GR_SPROLEF_ACL_MSG "special role %s failure for "
++#define GR_UNSPROLEI_ACL_MSG "ignoring unauth of special role for disabled RBAC system for "
++#define GR_UNSPROLES_ACL_MSG "successful unauth of special role %s (id %d) by "
++#define GR_INVMODE_ACL_MSG "invalid mode %d by "
++#define GR_PRIORITY_CHROOT_MSG "denied priority change of process (%.16s:%d) by "
++#define GR_FAILFORK_MSG "failed fork with errno %s by "
++#define GR_NICE_CHROOT_MSG "denied priority change by "
++#define GR_UNISIGLOG_MSG "%.32s occurred at %p in "
++#define GR_DUALSIGLOG_MSG "signal %d sent to " DEFAULTSECMSG " by "
++#define GR_SIG_ACL_MSG "denied send of signal %d to protected task " DEFAULTSECMSG " by "
++#define GR_SYSCTL_MSG "denied modification of grsecurity sysctl value : %.32s by "
++#define GR_SYSCTL_ACL_MSG "%s sysctl of %.950s for%s%s by "
++#define GR_TIME_MSG "time set by "
++#define GR_DEFACL_MSG "fatal: unable to find subject for (%.16s:%d), loaded by "
++#define GR_MMAP_ACL_MSG "%s executable mmap of %.950s by "
++#define GR_MPROTECT_ACL_MSG "%s executable mprotect of %.950s by "
++#define GR_SOCK_MSG "denied socket(%.16s,%.16s,%.16s) by "
++#define GR_SOCK_NOINET_MSG "denied socket(%.16s,%.16s,%d) by "
++#define GR_BIND_MSG "denied bind() by "
++#define GR_CONNECT_MSG "denied connect() by "
++#define GR_BIND_ACL_MSG "denied bind() to %pI4 port %u sock type %.16s protocol %.16s by "
++#define GR_CONNECT_ACL_MSG "denied connect() to %pI4 port %u sock type %.16s protocol %.16s by "
++#define GR_IP_LEARN_MSG "%s\t%u\t%u\t%u\t%.4095s\t%.4095s\t%pI4\t%u\t%u\t%u\t%u\t%pI4"
++#define GR_EXEC_CHROOT_MSG "exec of %.980s within chroot by process "
++#define GR_CAP_ACL_MSG "use of %s denied for "
++#define GR_CAP_CHROOT_MSG "use of %s in chroot denied for "
++#define GR_CAP_ACL_MSG2 "use of %s permitted for "
++#define GR_USRCHANGE_ACL_MSG "change to uid %u denied for "
++#define GR_GRPCHANGE_ACL_MSG "change to gid %u denied for "
++#define GR_REMOUNT_AUDIT_MSG "remount of %.256s by "
++#define GR_UNMOUNT_AUDIT_MSG "unmount of %.256s by "
++#define GR_MOUNT_AUDIT_MSG "mount of %.256s to %.256s by "
++#define GR_CHDIR_AUDIT_MSG "chdir to %.980s by "
++#define GR_EXEC_AUDIT_MSG "exec of %.930s (%.128s) by "
++#define GR_RESOURCE_MSG "denied resource overstep by requesting %lu for %.16s against limit %lu for "
++#define GR_RWXMMAP_MSG "denied RWX mmap of %.950s by "
++#define GR_RWXMPROTECT_MSG "denied RWX mprotect of %.950s by "
++#define GR_TEXTREL_AUDIT_MSG "text relocation in %s, VMA:0x%08lx 0x%08lx by "
++#define GR_VM86_MSG "denied use of vm86 by "
++#define GR_PTRACE_AUDIT_MSG "process %.950s(%.16s:%d) attached to via ptrace by "
++#define GR_PTRACE_READEXEC_MSG "denied ptrace of unreadable binary %.950s by "
++#define GR_INIT_TRANSFER_MSG "persistent special role transferred privilege to init by "
++#define GR_BADPROCPID_MSG "denied read of sensitive /proc/pid/%s entry via fd passed across exec by "
+diff --git a/include/linux/grsecurity.h b/include/linux/grsecurity.h
+new file mode 100644
+index 0000000..bb1e366
+--- /dev/null
++++ b/include/linux/grsecurity.h
+@@ -0,0 +1,219 @@
++#ifndef GR_SECURITY_H
++#define GR_SECURITY_H
++#include <linux/fs.h>
++#include <linux/fs_struct.h>
++#include <linux/binfmts.h>
++#include <linux/gracl.h>
++#include <linux/compat.h>
++
++/* notify of brain-dead configs */
++#if defined(CONFIG_GRKERNSEC_PROC_USER) && defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++#error "CONFIG_GRKERNSEC_PROC_USER and CONFIG_GRKERNSEC_PROC_USERGROUP cannot both be enabled."
++#endif
++#if defined(CONFIG_PAX_NOEXEC) && !defined(CONFIG_PAX_PAGEEXEC) && !defined(CONFIG_PAX_SEGMEXEC) && !defined(CONFIG_PAX_KERNEXEC)
++#error "CONFIG_PAX_NOEXEC enabled, but PAGEEXEC, SEGMEXEC, and KERNEXEC are disabled."
++#endif
++#if defined(CONFIG_PAX_ASLR) && !defined(CONFIG_PAX_RANDKSTACK) && !defined(CONFIG_PAX_RANDUSTACK) && !defined(CONFIG_PAX_RANDMMAP)
++#error "CONFIG_PAX_ASLR enabled, but RANDKSTACK, RANDUSTACK, and RANDMMAP are disabled."
++#endif
++#if defined(CONFIG_PAX) && !defined(CONFIG_PAX_NOEXEC) && !defined(CONFIG_PAX_ASLR)
++#error "CONFIG_PAX enabled, but no PaX options are enabled."
++#endif
++
++void gr_handle_brute_attach(struct task_struct *p, unsigned long mm_flags);
++void gr_handle_brute_check(void);
++void gr_handle_kernel_exploit(void);
++int gr_process_user_ban(void);
++
++char gr_roletype_to_char(void);
++
++int gr_acl_enable_at_secure(void);
++
++int gr_check_user_change(int real, int effective, int fs);
++int gr_check_group_change(int real, int effective, int fs);
++
++void gr_del_task_from_ip_table(struct task_struct *p);
++
++int gr_pid_is_chrooted(struct task_struct *p);
++int gr_handle_chroot_fowner(struct pid *pid, enum pid_type type);
++int gr_handle_chroot_nice(void);
++int gr_handle_chroot_sysctl(const int op);
++int gr_handle_chroot_setpriority(struct task_struct *p,
++                                      const int niceval);
++int gr_chroot_fchdir(struct dentry *u_dentry, struct vfsmount *u_mnt);
++int gr_handle_chroot_chroot(const struct dentry *dentry,
++                                 const struct vfsmount *mnt);
++void gr_handle_chroot_chdir(struct path *path);
++int gr_handle_chroot_chmod(const struct dentry *dentry,
++                                const struct vfsmount *mnt, const int mode);
++int gr_handle_chroot_mknod(const struct dentry *dentry,
++                                const struct vfsmount *mnt, const int mode);
++int gr_handle_chroot_mount(const struct dentry *dentry,
++                                const struct vfsmount *mnt,
++                                const char *dev_name);
++int gr_handle_chroot_pivot(void);
++int gr_handle_chroot_unix(const pid_t pid);
++
++int gr_handle_rawio(const struct inode *inode);
++
++void gr_handle_ioperm(void);
++void gr_handle_iopl(void);
++
++int gr_tpe_allow(const struct file *file);
++
++void gr_set_chroot_entries(struct task_struct *task, struct path *path);
++void gr_clear_chroot_entries(struct task_struct *task);
++
++void gr_log_forkfail(const int retval);
++void gr_log_timechange(void);
++void gr_log_signal(const int sig, const void *addr, const struct task_struct *t);
++void gr_log_chdir(const struct dentry *dentry,
++                       const struct vfsmount *mnt);
++void gr_log_chroot_exec(const struct dentry *dentry,
++                             const struct vfsmount *mnt);
++void gr_handle_exec_args(struct linux_binprm *bprm, const char __user *const __user *argv);
++#ifdef CONFIG_COMPAT
++void gr_handle_exec_args_compat(struct linux_binprm *bprm, compat_uptr_t __user *argv);
++#endif
++void gr_log_remount(const char *devname, const int retval);
++void gr_log_unmount(const char *devname, const int retval);
++void gr_log_mount(const char *from, const char *to, const int retval);
++void gr_log_textrel(struct vm_area_struct *vma);
++void gr_log_rwxmmap(struct file *file);
++void gr_log_rwxmprotect(struct file *file);
++
++int gr_handle_follow_link(const struct inode *parent,
++                               const struct inode *inode,
++                               const struct dentry *dentry,
++                               const struct vfsmount *mnt);
++int gr_handle_fifo(const struct dentry *dentry,
++                        const struct vfsmount *mnt,
++                        const struct dentry *dir, const int flag,
++                        const int acc_mode);
++int gr_handle_hardlink(const struct dentry *dentry,
++                            const struct vfsmount *mnt,
++                            struct inode *inode,
++                            const int mode, const char *to);
++
++int gr_is_capable(const int cap);
++int gr_is_capable_nolog(const int cap);
++void gr_learn_resource(const struct task_struct *task, const int limit,
++                            const unsigned long wanted, const int gt);
++void gr_copy_label(struct task_struct *tsk);
++void gr_handle_crash(struct task_struct *task, const int sig);
++int gr_handle_signal(const struct task_struct *p, const int sig);
++int gr_check_crash_uid(const uid_t uid);
++int gr_check_protected_task(const struct task_struct *task);
++int gr_check_protected_task_fowner(struct pid *pid, enum pid_type type);
++int gr_acl_handle_mmap(const struct file *file,
++                            const unsigned long prot);
++int gr_acl_handle_mprotect(const struct file *file,
++                                const unsigned long prot);
++int gr_check_hidden_task(const struct task_struct *tsk);
++__u32 gr_acl_handle_truncate(const struct dentry *dentry,
++                                  const struct vfsmount *mnt);
++__u32 gr_acl_handle_utime(const struct dentry *dentry,
++                               const struct vfsmount *mnt);
++__u32 gr_acl_handle_access(const struct dentry *dentry,
++                                const struct vfsmount *mnt, const int fmode);
++__u32 gr_acl_handle_fchmod(const struct dentry *dentry,
++                                const struct vfsmount *mnt, mode_t mode);
++__u32 gr_acl_handle_chmod(const struct dentry *dentry,
++                               const struct vfsmount *mnt, mode_t mode);
++__u32 gr_acl_handle_chown(const struct dentry *dentry,
++                               const struct vfsmount *mnt);
++__u32 gr_acl_handle_setxattr(const struct dentry *dentry,
++                               const struct vfsmount *mnt);
++int gr_handle_ptrace(struct task_struct *task, const long request);
++int gr_handle_proc_ptrace(struct task_struct *task);
++__u32 gr_acl_handle_execve(const struct dentry *dentry,
++                                const struct vfsmount *mnt);
++int gr_check_crash_exec(const struct file *filp);
++int gr_acl_is_enabled(void);
++void gr_set_kernel_label(struct task_struct *task);
++void gr_set_role_label(struct task_struct *task, const uid_t uid,
++                            const gid_t gid);
++int gr_set_proc_label(const struct dentry *dentry,
++                      const struct vfsmount *mnt,
++                      const int unsafe_flags);
++__u32 gr_acl_handle_hidden_file(const struct dentry *dentry,
++                              const struct vfsmount *mnt);
++__u32 gr_acl_handle_open(const struct dentry *dentry,
++                              const struct vfsmount *mnt, int acc_mode);
++__u32 gr_acl_handle_creat(const struct dentry *dentry,
++                               const struct dentry *p_dentry,
++                               const struct vfsmount *p_mnt,
++                               int open_flags, int acc_mode, const int imode);
++void gr_handle_create(const struct dentry *dentry,
++                           const struct vfsmount *mnt);
++void gr_handle_proc_create(const struct dentry *dentry,
++                         const struct inode *inode);
++__u32 gr_acl_handle_mknod(const struct dentry *new_dentry,
++                               const struct dentry *parent_dentry,
++                               const struct vfsmount *parent_mnt,
++                               const int mode);
++__u32 gr_acl_handle_mkdir(const struct dentry *new_dentry,
++                               const struct dentry *parent_dentry,
++                               const struct vfsmount *parent_mnt);
++__u32 gr_acl_handle_rmdir(const struct dentry *dentry,
++                               const struct vfsmount *mnt);
++void gr_handle_delete(const ino_t ino, const dev_t dev);
++__u32 gr_acl_handle_unlink(const struct dentry *dentry,
++                                const struct vfsmount *mnt);
++__u32 gr_acl_handle_symlink(const struct dentry *new_dentry,
++                                 const struct dentry *parent_dentry,
++                                 const struct vfsmount *parent_mnt,
++                                 const char *from);
++__u32 gr_acl_handle_link(const struct dentry *new_dentry,
++                              const struct dentry *parent_dentry,
++                              const struct vfsmount *parent_mnt,
++                              const struct dentry *old_dentry,
++                              const struct vfsmount *old_mnt, const char *to);
++int gr_acl_handle_rename(struct dentry *new_dentry,
++                              struct dentry *parent_dentry,
++                              const struct vfsmount *parent_mnt,
++                              struct dentry *old_dentry,
++                              struct inode *old_parent_inode,
++                              struct vfsmount *old_mnt, const char *newname);
++void gr_handle_rename(struct inode *old_dir, struct inode *new_dir,
++                              struct dentry *old_dentry,
++                              struct dentry *new_dentry,
++                              struct vfsmount *mnt, const __u8 replace);
++__u32 gr_check_link(const struct dentry *new_dentry,
++                         const struct dentry *parent_dentry,
++                         const struct vfsmount *parent_mnt,
++                         const struct dentry *old_dentry,
++                         const struct vfsmount *old_mnt);
++int gr_acl_handle_filldir(const struct file *file, const char *name,
++                               const unsigned int namelen, const ino_t ino);
++
++__u32 gr_acl_handle_unix(const struct dentry *dentry,
++                              const struct vfsmount *mnt);
++void gr_acl_handle_exit(void);
++void gr_acl_handle_psacct(struct task_struct *task, const long code);
++int gr_acl_handle_procpidmem(const struct task_struct *task);
++int gr_handle_rofs_mount(struct dentry *dentry, struct vfsmount *mnt, int mnt_flags);
++int gr_handle_rofs_blockwrite(struct dentry *dentry, struct vfsmount *mnt, int acc_mode);
++void gr_audit_ptrace(struct task_struct *task);
++dev_t gr_get_dev_from_dentry(struct dentry *dentry);
++
++int gr_ptrace_readexec(struct file *file, int unsafe_flags);
++
++#ifdef CONFIG_GRKERNSEC
++void task_grsec_rbac(struct seq_file *m, struct task_struct *p);
++void gr_handle_vm86(void);
++void gr_handle_mem_readwrite(u64 from, u64 to);
++
++void gr_log_badprocpid(const char *entry);
++
++extern int grsec_enable_dmesg;
++extern int grsec_disable_privio;
++#ifdef CONFIG_GRKERNSEC_CHROOT_FINDTASK
++extern int grsec_enable_chroot_findtask;
++#endif
++#ifdef CONFIG_GRKERNSEC_SETXID
++extern int grsec_enable_setxid;
++#endif
++#endif
++
++#endif
+diff --git a/include/linux/hdpu_features.h b/include/linux/hdpu_features.h
+index 6a87154..a3ce57b 100644
+--- a/include/linux/hdpu_features.h
++++ b/include/linux/hdpu_features.h
+@@ -3,7 +3,7 @@
+ struct cpustate_t {
+       spinlock_t lock;
+       int excl;
+-        int open_count;
++      atomic_t open_count;
+       unsigned char cached_val;
+       int inited;
+       unsigned long *set_addr;
+diff --git a/include/linux/highmem.h b/include/linux/highmem.h
+index 211ff44..00ab6d7 100644
+--- a/include/linux/highmem.h
++++ b/include/linux/highmem.h
+@@ -137,6 +137,18 @@ static inline void clear_highpage(struct page *page)
+       kunmap_atomic(kaddr, KM_USER0);
+ }
++static inline void sanitize_highpage(struct page *page)
++{
++      void *kaddr;
++      unsigned long flags;
++
++      local_irq_save(flags);
++      kaddr = kmap_atomic(page, KM_CLEARPAGE);
++      clear_page(kaddr);
++      kunmap_atomic(kaddr, KM_CLEARPAGE);
++      local_irq_restore(flags);
++}
++
+ static inline void zero_user_segments(struct page *page,
+       unsigned start1, unsigned end1,
+       unsigned start2, unsigned end2)
+diff --git a/include/linux/i2c.h b/include/linux/i2c.h
+index 7b40cda..24eb44e 100644
+--- a/include/linux/i2c.h
++++ b/include/linux/i2c.h
+@@ -325,6 +325,7 @@ struct i2c_algorithm {
+       /* To determine what the adapter supports */
+       u32 (*functionality) (struct i2c_adapter *);
+ };
++typedef struct i2c_algorithm __no_const i2c_algorithm_no_const;
+ /*
+  * i2c_adapter is the structure used to identify a physical i2c bus along
+diff --git a/include/linux/i2o.h b/include/linux/i2o.h
+index 4c4e57d..f3c5303 100644
+--- a/include/linux/i2o.h
++++ b/include/linux/i2o.h
+@@ -564,7 +564,7 @@ struct i2o_controller {
+       struct i2o_device *exec;        /* Executive */
+ #if BITS_PER_LONG == 64
+       spinlock_t context_list_lock;   /* lock for context_list */
+-      atomic_t context_list_counter;  /* needed for unique contexts */
++      atomic_unchecked_t context_list_counter;        /* needed for unique contexts */
+       struct list_head context_list;  /* list of context id's
+                                          and pointers */
+ #endif
+diff --git a/include/linux/init_task.h b/include/linux/init_task.h
+index 21a6f5d..dc42eab 100644
+--- a/include/linux/init_task.h
++++ b/include/linux/init_task.h
+@@ -83,6 +83,12 @@ extern struct group_info init_groups;
+ #define INIT_IDS
+ #endif
++#ifdef CONFIG_X86
++#define INIT_TASK_THREAD_INFO .tinfo = INIT_THREAD_INFO,
++#else
++#define INIT_TASK_THREAD_INFO
++#endif
++
+ #ifdef CONFIG_SECURITY_FILE_CAPABILITIES
+ /*
+  * Because of the reduced scope of CAP_SETPCAP when filesystem
+@@ -156,6 +162,7 @@ extern struct cred init_cred;
+                __MUTEX_INITIALIZER(tsk.cred_guard_mutex),             \
+       .comm           = "swapper",                                    \
+       .thread         = INIT_THREAD,                                  \
++      INIT_TASK_THREAD_INFO                                           \
+       .fs             = &init_fs,                                     \
+       .files          = &init_files,                                  \
+       .signal         = &init_signals,                                \
+diff --git a/include/linux/intel-iommu.h b/include/linux/intel-iommu.h
+index 4f0a72a..a849599 100644
+--- a/include/linux/intel-iommu.h
++++ b/include/linux/intel-iommu.h
+@@ -296,7 +296,7 @@ struct iommu_flush {
+                             u8 fm, u64 type);
+       void (*flush_iotlb)(struct intel_iommu *iommu, u16 did, u64 addr,
+                           unsigned int size_order, u64 type);
+-};
++} __no_const;
+ enum {
+       SR_DMAR_FECTL_REG,
+diff --git a/include/linux/interrupt.h b/include/linux/interrupt.h
+index c739150..be577b5 100644
+--- a/include/linux/interrupt.h
++++ b/include/linux/interrupt.h
+@@ -369,7 +369,7 @@ enum
+ /* map softirq index to softirq name. update 'softirq_to_name' in
+  * kernel/softirq.c when adding a new softirq.
+  */
+-extern char *softirq_to_name[NR_SOFTIRQS];
++extern const char * const softirq_to_name[NR_SOFTIRQS];
+ /* softirq mask and active fields moved to irq_cpustat_t in
+  * asm/hardirq.h to get better cache usage.  KAO
+@@ -377,12 +377,12 @@ extern char *softirq_to_name[NR_SOFTIRQS];
+ struct softirq_action
+ {
+-      void    (*action)(struct softirq_action *);
++      void    (*action)(void);
+ };
+ asmlinkage void do_softirq(void);
+ asmlinkage void __do_softirq(void);
+-extern void open_softirq(int nr, void (*action)(struct softirq_action *));
++extern void open_softirq(int nr, void (*action)(void));
+ extern void softirq_init(void);
+ #define __raise_softirq_irqoff(nr) do { or_softirq_pending(1UL << (nr)); } while (0)
+ extern void raise_softirq_irqoff(unsigned int nr);
+diff --git a/include/linux/irq.h b/include/linux/irq.h
+index 9e5f45a..025865b 100644
+--- a/include/linux/irq.h
++++ b/include/linux/irq.h
+@@ -438,12 +438,12 @@ extern int set_irq_msi(unsigned int irq, struct msi_desc *entry);
+ static inline bool alloc_desc_masks(struct irq_desc *desc, int node,
+                                                       bool boot)
+ {
++#ifdef CONFIG_CPUMASK_OFFSTACK
+       gfp_t gfp = GFP_ATOMIC;
+       if (boot)
+               gfp = GFP_NOWAIT;
+-#ifdef CONFIG_CPUMASK_OFFSTACK
+       if (!alloc_cpumask_var_node(&desc->affinity, gfp, node))
+               return false;
+diff --git a/include/linux/kallsyms.h b/include/linux/kallsyms.h
+index 7922742..27306a2 100644
+--- a/include/linux/kallsyms.h
++++ b/include/linux/kallsyms.h
+@@ -15,7 +15,8 @@
+ struct module;
+-#ifdef CONFIG_KALLSYMS
++#if !defined(__INCLUDED_BY_HIDESYM) || !defined(CONFIG_KALLSYMS)
++#if defined(CONFIG_KALLSYMS) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+ /* Lookup the address for a symbol. Returns 0 if not found. */
+ unsigned long kallsyms_lookup_name(const char *name);
+@@ -92,6 +93,15 @@ static inline int lookup_symbol_attrs(unsigned long addr, unsigned long *size, u
+ /* Stupid that this does nothing, but I didn't create this mess. */
+ #define __print_symbol(fmt, addr)
+ #endif /*CONFIG_KALLSYMS*/
++#else /* when included by kallsyms.c, vsnprintf.c, or
++      arch/x86/kernel/dumpstack.c, with HIDESYM enabled */
++extern void __print_symbol(const char *fmt, unsigned long address);
++extern int sprint_symbol(char *buffer, unsigned long address);
++const char *kallsyms_lookup(unsigned long addr,
++                          unsigned long *symbolsize,
++                          unsigned long *offset,
++                          char **modname, char *namebuf);
++#endif
+ /* This macro allows us to keep printk typechecking */
+ static void __check_printsym_format(const char *fmt, ...)
+diff --git a/include/linux/kgdb.h b/include/linux/kgdb.h
+index 6adcc29..13369e8 100644
+--- a/include/linux/kgdb.h
++++ b/include/linux/kgdb.h
+@@ -74,8 +74,8 @@ void kgdb_breakpoint(void);
+ extern int kgdb_connected;
+-extern atomic_t                       kgdb_setting_breakpoint;
+-extern atomic_t                       kgdb_cpu_doing_single_step;
++extern atomic_unchecked_t     kgdb_setting_breakpoint;
++extern atomic_unchecked_t     kgdb_cpu_doing_single_step;
+ extern struct task_struct     *kgdb_usethread;
+ extern struct task_struct     *kgdb_contthread;
+@@ -235,7 +235,7 @@ struct kgdb_arch {
+       int     (*remove_hw_breakpoint)(unsigned long, int, enum kgdb_bptype);
+       void    (*remove_all_hw_break)(void);
+       void    (*correct_hw_break)(void);
+-};
++} __do_const;
+ /**
+  * struct kgdb_io - Describe the interface for an I/O driver to talk with KGDB.
+@@ -257,14 +257,14 @@ struct kgdb_io {
+       int                     (*init) (void);
+       void                    (*pre_exception) (void);
+       void                    (*post_exception) (void);
+-};
++} __do_const;
+-extern struct kgdb_arch               arch_kgdb_ops;
++extern const struct kgdb_arch arch_kgdb_ops;
+ extern unsigned long __weak kgdb_arch_pc(int exception, struct pt_regs *regs);
+-extern int kgdb_register_io_module(struct kgdb_io *local_kgdb_io_ops);
+-extern void kgdb_unregister_io_module(struct kgdb_io *local_kgdb_io_ops);
++extern int kgdb_register_io_module(const struct kgdb_io *local_kgdb_io_ops);
++extern void kgdb_unregister_io_module(const struct kgdb_io *local_kgdb_io_ops);
+ extern int kgdb_hex2long(char **ptr, unsigned long *long_val);
+ extern int kgdb_mem2hex(char *mem, char *buf, int count);
+diff --git a/include/linux/kmod.h b/include/linux/kmod.h
+index 384ca8b..83dd97d 100644
+--- a/include/linux/kmod.h
++++ b/include/linux/kmod.h
+@@ -31,6 +31,8 @@
+  * usually useless though. */
+ extern int __request_module(bool wait, const char *name, ...) \
+       __attribute__((format(printf, 2, 3)));
++extern int ___request_module(bool wait, char *param_name, const char *name, ...) \
++      __attribute__((format(printf, 3, 4)));
+ #define request_module(mod...) __request_module(true, mod)
+ #define request_module_nowait(mod...) __request_module(false, mod)
+ #define try_then_request_module(x, mod...) \
+diff --git a/include/linux/kobject.h b/include/linux/kobject.h
+index 58ae8e0..3950d3c 100644
+--- a/include/linux/kobject.h
++++ b/include/linux/kobject.h
+@@ -106,7 +106,7 @@ extern char *kobject_get_path(struct kobject *kobj, gfp_t flag);
+ struct kobj_type {
+       void (*release)(struct kobject *kobj);
+-      struct sysfs_ops *sysfs_ops;
++      const struct sysfs_ops *sysfs_ops;
+       struct attribute **default_attrs;
+ };
+@@ -118,9 +118,9 @@ struct kobj_uevent_env {
+ };
+ struct kset_uevent_ops {
+-      int (*filter)(struct kset *kset, struct kobject *kobj);
+-      const char *(*name)(struct kset *kset, struct kobject *kobj);
+-      int (*uevent)(struct kset *kset, struct kobject *kobj,
++      int (* const filter)(struct kset *kset, struct kobject *kobj);
++      const char *(* const name)(struct kset *kset, struct kobject *kobj);
++      int (* const uevent)(struct kset *kset, struct kobject *kobj,
+                     struct kobj_uevent_env *env);
+ };
+@@ -132,7 +132,7 @@ struct kobj_attribute {
+                        const char *buf, size_t count);
+ };
+-extern struct sysfs_ops kobj_sysfs_ops;
++extern const struct sysfs_ops kobj_sysfs_ops;
+ /**
+  * struct kset - a set of kobjects of a specific type, belonging to a specific subsystem.
+@@ -155,14 +155,14 @@ struct kset {
+       struct list_head list;
+       spinlock_t list_lock;
+       struct kobject kobj;
+-      struct kset_uevent_ops *uevent_ops;
++      const struct kset_uevent_ops *uevent_ops;
+ };
+ extern void kset_init(struct kset *kset);
+ extern int __must_check kset_register(struct kset *kset);
+ extern void kset_unregister(struct kset *kset);
+ extern struct kset * __must_check kset_create_and_add(const char *name,
+-                                              struct kset_uevent_ops *u,
++                                              const struct kset_uevent_ops *u,
+                                               struct kobject *parent_kobj);
+ static inline struct kset *to_kset(struct kobject *kobj)
+diff --git a/include/linux/kvm_host.h b/include/linux/kvm_host.h
+index c728a50..752d821 100644
+--- a/include/linux/kvm_host.h
++++ b/include/linux/kvm_host.h
+@@ -210,7 +210,7 @@ void kvm_vcpu_uninit(struct kvm_vcpu *vcpu);
+ void vcpu_load(struct kvm_vcpu *vcpu);
+ void vcpu_put(struct kvm_vcpu *vcpu);
+-int kvm_init(void *opaque, unsigned int vcpu_size,
++int kvm_init(const void *opaque, unsigned int vcpu_size,
+                 struct module *module);
+ void kvm_exit(void);
+@@ -316,7 +316,7 @@ int kvm_arch_vcpu_ioctl_set_guest_debug(struct kvm_vcpu *vcpu,
+                                       struct kvm_guest_debug *dbg);
+ int kvm_arch_vcpu_ioctl_run(struct kvm_vcpu *vcpu, struct kvm_run *kvm_run);
+-int kvm_arch_init(void *opaque);
++int kvm_arch_init(const void *opaque);
+ void kvm_arch_exit(void);
+ int kvm_arch_vcpu_init(struct kvm_vcpu *vcpu);
+diff --git a/include/linux/libata.h b/include/linux/libata.h
+index a069916..223edde 100644
+--- a/include/linux/libata.h
++++ b/include/linux/libata.h
+@@ -525,11 +525,11 @@ struct ata_ioports {
+ struct ata_host {
+       spinlock_t              lock;
+-      struct device           *dev;
++      struct device           *dev;
+       void __iomem * const    *iomap;
+       unsigned int            n_ports;
+       void                    *private_data;
+-      struct ata_port_operations *ops;
++      const struct ata_port_operations *ops;
+       unsigned long           flags;
+ #ifdef CONFIG_ATA_ACPI
+       acpi_handle             acpi_handle;
+@@ -710,7 +710,7 @@ struct ata_link {
+ struct ata_port {
+       struct Scsi_Host        *scsi_host; /* our co-allocated scsi host */
+-      struct ata_port_operations *ops;
++      const struct ata_port_operations *ops;
+       spinlock_t              *lock;
+       /* Flags owned by the EH context. Only EH should touch these once the
+          port is active */
+@@ -884,7 +884,7 @@ struct ata_port_operations {
+        * fields must be pointers.
+        */
+       const struct ata_port_operations        *inherits;
+-};
++} __do_const;
+ struct ata_port_info {
+       unsigned long           flags;
+@@ -892,7 +892,7 @@ struct ata_port_info {
+       unsigned long           pio_mask;
+       unsigned long           mwdma_mask;
+       unsigned long           udma_mask;
+-      struct ata_port_operations *port_ops;
++      const struct ata_port_operations *port_ops;
+       void                    *private_data;
+ };
+@@ -916,7 +916,7 @@ extern const unsigned long sata_deb_timing_normal[];
+ extern const unsigned long sata_deb_timing_hotplug[];
+ extern const unsigned long sata_deb_timing_long[];
+-extern struct ata_port_operations ata_dummy_port_ops;
++extern const struct ata_port_operations ata_dummy_port_ops;
+ extern const struct ata_port_info ata_dummy_port_info;
+ static inline const unsigned long *
+@@ -962,7 +962,7 @@ extern int ata_host_activate(struct ata_host *host, int irq,
+                            struct scsi_host_template *sht);
+ extern void ata_host_detach(struct ata_host *host);
+ extern void ata_host_init(struct ata_host *, struct device *,
+-                        unsigned long, struct ata_port_operations *);
++                        unsigned long, const struct ata_port_operations *);
+ extern int ata_scsi_detect(struct scsi_host_template *sht);
+ extern int ata_scsi_ioctl(struct scsi_device *dev, int cmd, void __user *arg);
+ extern int ata_scsi_queuecmd(struct scsi_cmnd *cmd, void (*done)(struct scsi_cmnd *));
+diff --git a/include/linux/lockd/bind.h b/include/linux/lockd/bind.h
+index fbc48f8..0886e57 100644
+--- a/include/linux/lockd/bind.h
++++ b/include/linux/lockd/bind.h
+@@ -23,13 +23,13 @@ struct svc_rqst;
+  * This is the set of functions for lockd->nfsd communication
+  */
+ struct nlmsvc_binding {
+-      __be32                  (*fopen)(struct svc_rqst *,
++      __be32                  (* const fopen)(struct svc_rqst *,
+                                               struct nfs_fh *,
+                                               struct file **);
+-      void                    (*fclose)(struct file *);
++      void                    (* const fclose)(struct file *);
+ };
+-extern struct nlmsvc_binding *        nlmsvc_ops;
++extern const struct nlmsvc_binding *  nlmsvc_ops;
+ /*
+  * Similar to nfs_client_initdata, but without the NFS-specific
+diff --git a/include/linux/mca.h b/include/linux/mca.h
+index 3797270..7765ede 100644
+--- a/include/linux/mca.h
++++ b/include/linux/mca.h
+@@ -80,7 +80,7 @@ struct mca_bus_accessor_functions {
+                                                 int region);
+       void *          (*mca_transform_memory)(struct mca_device *,
+                                               void *memory);
+-};
++} __no_const;
+ struct mca_bus {
+       u64                     default_dma_mask;
+diff --git a/include/linux/memory.h b/include/linux/memory.h
+index 37fa19b..b597c85 100644
+--- a/include/linux/memory.h
++++ b/include/linux/memory.h
+@@ -108,7 +108,7 @@ struct memory_accessor {
+                       size_t count);
+       ssize_t (*write)(struct memory_accessor *, const char *buf,
+                        off_t offset, size_t count);
+-};
++} __no_const;
+ /*
+  * Kernel text modification mutex, used for code patching. Users of this lock
+diff --git a/include/linux/mm.h b/include/linux/mm.h
+index 11e5be6..1ff2423 100644
+--- a/include/linux/mm.h
++++ b/include/linux/mm.h
+@@ -106,7 +106,14 @@ extern unsigned int kobjsize(const void *objp);
+ #define VM_CAN_NONLINEAR 0x08000000   /* Has ->fault & does nonlinear pages */
+ #define VM_MIXEDMAP   0x10000000      /* Can contain "struct page" and pure PFN pages */
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_X86_32)
++#define VM_SAO                0x00000000      /* Strong Access Ordering (powerpc) */
++#define VM_PAGEEXEC   0x20000000      /* vma->vm_page_prot needs special handling */
++#else
+ #define VM_SAO                0x20000000      /* Strong Access Ordering (powerpc) */
++#endif
++
+ #define VM_PFN_AT_MMAP        0x40000000      /* PFNMAP vma that is fully mapped at mmap time */
+ #define VM_MERGEABLE  0x80000000      /* KSM may merge identical pages */
+@@ -841,12 +848,6 @@ int set_page_dirty(struct page *page);
+ int set_page_dirty_lock(struct page *page);
+ int clear_page_dirty_for_io(struct page *page);
+-/* Is the vma a continuation of the stack vma above it? */
+-static inline int vma_stack_continue(struct vm_area_struct *vma, unsigned long addr)
+-{
+-      return vma && (vma->vm_end == addr) && (vma->vm_flags & VM_GROWSDOWN);
+-}
+-
+ extern unsigned long move_page_tables(struct vm_area_struct *vma,
+               unsigned long old_addr, struct vm_area_struct *new_vma,
+               unsigned long new_addr, unsigned long len);
+@@ -890,6 +891,8 @@ struct shrinker {
+ extern void register_shrinker(struct shrinker *);
+ extern void unregister_shrinker(struct shrinker *);
++pgprot_t vm_get_page_prot(unsigned long vm_flags);
++
+ int vma_wants_writenotify(struct vm_area_struct *vma);
+ extern pte_t *get_locked_pte(struct mm_struct *mm, unsigned long addr, spinlock_t **ptl);
+@@ -1162,6 +1165,7 @@ out:
+ }
+ extern int do_munmap(struct mm_struct *, unsigned long, size_t);
++extern int __do_munmap(struct mm_struct *, unsigned long, size_t);
+ extern unsigned long do_brk(unsigned long, unsigned long);
+@@ -1218,6 +1222,10 @@ extern struct vm_area_struct * find_vma(struct mm_struct * mm, unsigned long add
+ extern struct vm_area_struct * find_vma_prev(struct mm_struct * mm, unsigned long addr,
+                                            struct vm_area_struct **pprev);
++extern struct vm_area_struct *pax_find_mirror_vma(struct vm_area_struct *vma);
++extern void pax_mirror_vma(struct vm_area_struct *vma_m, struct vm_area_struct *vma);
++extern void pax_mirror_file_pte(struct vm_area_struct *vma, unsigned long address, struct page *page_m, spinlock_t *ptl);
++
+ /* Look up the first VMA which intersects the interval start_addr..end_addr-1,
+    NULL if none.  Assume start_addr < end_addr. */
+ static inline struct vm_area_struct * find_vma_intersection(struct mm_struct * mm, unsigned long start_addr, unsigned long end_addr)
+@@ -1234,7 +1242,6 @@ static inline unsigned long vma_pages(struct vm_area_struct *vma)
+       return (vma->vm_end - vma->vm_start) >> PAGE_SHIFT;
+ }
+-pgprot_t vm_get_page_prot(unsigned long vm_flags);
+ struct vm_area_struct *find_extend_vma(struct mm_struct *, unsigned long addr);
+ int remap_pfn_range(struct vm_area_struct *, unsigned long addr,
+                       unsigned long pfn, unsigned long size, pgprot_t);
+@@ -1332,7 +1339,13 @@ extern void memory_failure(unsigned long pfn, int trapno);
+ extern int __memory_failure(unsigned long pfn, int trapno, int ref);
+ extern int sysctl_memory_failure_early_kill;
+ extern int sysctl_memory_failure_recovery;
+-extern atomic_long_t mce_bad_pages;
++extern atomic_long_unchecked_t mce_bad_pages;
++
++#ifdef CONFIG_ARCH_TRACK_EXEC_LIMIT
++extern void track_exec_limit(struct mm_struct *mm, unsigned long start, unsigned long end, unsigned long prot);
++#else
++static inline void track_exec_limit(struct mm_struct *mm, unsigned long start, unsigned long end, unsigned long prot) {}
++#endif
+ #endif /* __KERNEL__ */
+ #endif /* _LINUX_MM_H */
+diff --git a/include/linux/mm_types.h b/include/linux/mm_types.h
+index 9d12ed5..6d9707a 100644
+--- a/include/linux/mm_types.h
++++ b/include/linux/mm_types.h
+@@ -186,6 +186,8 @@ struct vm_area_struct {
+ #ifdef CONFIG_NUMA
+       struct mempolicy *vm_policy;    /* NUMA policy for the VMA */
+ #endif
++
++      struct vm_area_struct *vm_mirror;/* PaX: mirror vma or NULL */
+ };
+ struct core_thread {
+@@ -287,6 +289,24 @@ struct mm_struct {
+ #ifdef CONFIG_MMU_NOTIFIER
+       struct mmu_notifier_mm *mmu_notifier_mm;
+ #endif
++
++#if defined(CONFIG_PAX_NOEXEC) || defined(CONFIG_PAX_ASLR)
++      unsigned long pax_flags;
++#endif
++
++#ifdef CONFIG_PAX_DLRESOLVE
++      unsigned long call_dl_resolve;
++#endif
++
++#if defined(CONFIG_PPC32) && defined(CONFIG_PAX_EMUSIGRT)
++      unsigned long call_syscall;
++#endif
++
++#ifdef CONFIG_PAX_ASLR
++      unsigned long delta_mmap;               /* randomized offset */
++      unsigned long delta_stack;              /* randomized offset */
++#endif
++
+ };
+ /* Future-safe accessor for struct mm_struct's cpu_vm_mask. */
+diff --git a/include/linux/mmu_notifier.h b/include/linux/mmu_notifier.h
+index 4e02ee2..afb159e 100644
+--- a/include/linux/mmu_notifier.h
++++ b/include/linux/mmu_notifier.h
+@@ -235,12 +235,12 @@ static inline void mmu_notifier_mm_destroy(struct mm_struct *mm)
+  */
+ #define ptep_clear_flush_notify(__vma, __address, __ptep)             \
+ ({                                                                    \
+-      pte_t __pte;                                                    \
++      pte_t ___pte;                                                   \
+       struct vm_area_struct *___vma = __vma;                          \
+       unsigned long ___address = __address;                           \
+-      __pte = ptep_clear_flush(___vma, ___address, __ptep);           \
++      ___pte = ptep_clear_flush(___vma, ___address, __ptep);          \
+       mmu_notifier_invalidate_page(___vma->vm_mm, ___address);        \
+-      __pte;                                                          \
++      ___pte;                                                         \
+ })
+ #define ptep_clear_flush_young_notify(__vma, __address, __ptep)               \
+diff --git a/include/linux/mmzone.h b/include/linux/mmzone.h
+index 6c31a2a..4b0e930 100644
+--- a/include/linux/mmzone.h
++++ b/include/linux/mmzone.h
+@@ -350,7 +350,7 @@ struct zone {
+       unsigned long           flags;             /* zone flags, see below */
+       /* Zone statistics */
+-      atomic_long_t           vm_stat[NR_VM_ZONE_STAT_ITEMS];
++      atomic_long_unchecked_t         vm_stat[NR_VM_ZONE_STAT_ITEMS];
+       /*
+        * prev_priority holds the scanning priority for this zone.  It is
+diff --git a/include/linux/mod_devicetable.h b/include/linux/mod_devicetable.h
+index f58e9d8..3503935 100644
+--- a/include/linux/mod_devicetable.h
++++ b/include/linux/mod_devicetable.h
+@@ -12,7 +12,7 @@
+ typedef unsigned long kernel_ulong_t;
+ #endif
+-#define PCI_ANY_ID (~0)
++#define PCI_ANY_ID ((__u16)~0)
+ struct pci_device_id {
+       __u32 vendor, device;           /* Vendor and device ID or PCI_ANY_ID*/
+@@ -131,7 +131,7 @@ struct usb_device_id {
+ #define USB_DEVICE_ID_MATCH_INT_SUBCLASS      0x0100
+ #define USB_DEVICE_ID_MATCH_INT_PROTOCOL      0x0200
+-#define HID_ANY_ID                            (~0)
++#define HID_ANY_ID                            (~0U)
+ struct hid_device_id {
+       __u16 bus;
+diff --git a/include/linux/module.h b/include/linux/module.h
+index 482efc8..642032b 100644
+--- a/include/linux/module.h
++++ b/include/linux/module.h
+@@ -16,6 +16,7 @@
+ #include <linux/kobject.h>
+ #include <linux/moduleparam.h>
+ #include <linux/tracepoint.h>
++#include <linux/fs.h>
+ #include <asm/local.h>
+ #include <asm/module.h>
+@@ -287,16 +288,16 @@ struct module
+       int (*init)(void);
+       /* If this is non-NULL, vfree after init() returns */
+-      void *module_init;
++      void *module_init_rx, *module_init_rw;
+       /* Here is the actual code + data, vfree'd on unload. */
+-      void *module_core;
++      void *module_core_rx, *module_core_rw;
+       /* Here are the sizes of the init and core sections */
+-      unsigned int init_size, core_size;
++      unsigned int init_size_rw, core_size_rw;
+       /* The size of the executable code in each section.  */
+-      unsigned int init_text_size, core_text_size;
++      unsigned int init_size_rx, core_size_rx;
+       /* Arch-specific module values */
+       struct mod_arch_specific arch;
+@@ -345,6 +346,10 @@ struct module
+ #ifdef CONFIG_EVENT_TRACING
+       struct ftrace_event_call *trace_events;
+       unsigned int num_trace_events;
++      struct file_operations trace_id;
++      struct file_operations trace_enable;
++      struct file_operations trace_format;
++      struct file_operations trace_filter;
+ #endif
+ #ifdef CONFIG_FTRACE_MCOUNT_RECORD
+       unsigned long *ftrace_callsites;
+@@ -393,16 +398,46 @@ struct module *__module_address(unsigned long addr);
+ bool is_module_address(unsigned long addr);
+ bool is_module_text_address(unsigned long addr);
++static inline int within_module_range(unsigned long addr, void *start, unsigned long size)
++{
++
++#ifdef CONFIG_PAX_KERNEXEC
++      if (ktla_ktva(addr) >= (unsigned long)start &&
++          ktla_ktva(addr) < (unsigned long)start + size)
++              return 1;
++#endif
++
++      return ((void *)addr >= start && (void *)addr < start + size);
++}
++
++static inline int within_module_core_rx(unsigned long addr, struct module *mod)
++{
++      return within_module_range(addr, mod->module_core_rx, mod->core_size_rx);
++}
++
++static inline int within_module_core_rw(unsigned long addr, struct module *mod)
++{
++      return within_module_range(addr, mod->module_core_rw, mod->core_size_rw);
++}
++
++static inline int within_module_init_rx(unsigned long addr, struct module *mod)
++{
++      return within_module_range(addr, mod->module_init_rx, mod->init_size_rx);
++}
++
++static inline int within_module_init_rw(unsigned long addr, struct module *mod)
++{
++      return within_module_range(addr, mod->module_init_rw, mod->init_size_rw);
++}
++
+ static inline int within_module_core(unsigned long addr, struct module *mod)
+ {
+-      return (unsigned long)mod->module_core <= addr &&
+-             addr < (unsigned long)mod->module_core + mod->core_size;
++      return within_module_core_rx(addr, mod) || within_module_core_rw(addr, mod);
+ }
+ static inline int within_module_init(unsigned long addr, struct module *mod)
+ {
+-      return (unsigned long)mod->module_init <= addr &&
+-             addr < (unsigned long)mod->module_init + mod->init_size;
++      return within_module_init_rx(addr, mod) || within_module_init_rw(addr, mod);
+ }
+ /* Search for module by name: must hold module_mutex. */
+diff --git a/include/linux/moduleloader.h b/include/linux/moduleloader.h
+index c1f40c2..682ca53 100644
+--- a/include/linux/moduleloader.h
++++ b/include/linux/moduleloader.h
+@@ -20,9 +20,21 @@ unsigned int arch_mod_section_prepend(struct module *mod, unsigned int section);
+    sections.  Returns NULL on failure. */
+ void *module_alloc(unsigned long size);
++#ifdef CONFIG_PAX_KERNEXEC
++void *module_alloc_exec(unsigned long size);
++#else
++#define module_alloc_exec(x) module_alloc(x)
++#endif
++
+ /* Free memory returned from module_alloc. */
+ void module_free(struct module *mod, void *module_region);
++#ifdef CONFIG_PAX_KERNEXEC
++void module_free_exec(struct module *mod, void *module_region);
++#else
++#define module_free_exec(x, y) module_free((x), (y))
++#endif
++
+ /* Apply the given relocation to the (simplified) ELF.  Return -error
+    or 0. */
+ int apply_relocate(Elf_Shdr *sechdrs,
+diff --git a/include/linux/moduleparam.h b/include/linux/moduleparam.h
+index 82a9124..8a5f622 100644
+--- a/include/linux/moduleparam.h
++++ b/include/linux/moduleparam.h
+@@ -132,7 +132,7 @@ struct kparam_array
+ /* Actually copy string: maxlen param is usually sizeof(string). */
+ #define module_param_string(name, string, len, perm)                  \
+-      static const struct kparam_string __param_string_##name         \
++      static const struct kparam_string __param_string_##name __used  \
+               = { len, string };                                      \
+       __module_param_call(MODULE_PARAM_PREFIX, name,                  \
+                           param_set_copystring, param_get_string,     \
+@@ -211,7 +211,7 @@ extern int param_get_invbool(char *buffer, struct kernel_param *kp);
+ /* Comma-separated array: *nump is set to number they actually specified. */
+ #define module_param_array_named(name, array, type, nump, perm)               \
+-      static const struct kparam_array __param_arr_##name             \
++      static const struct kparam_array __param_arr_##name __used      \
+       = { ARRAY_SIZE(array), nump, param_set_##type, param_get_##type,\
+           sizeof(array[0]), array };                                  \
+       __module_param_call(MODULE_PARAM_PREFIX, name,                  \
+diff --git a/include/linux/mutex.h b/include/linux/mutex.h
+index 878cab4..c92cb3e 100644
+--- a/include/linux/mutex.h
++++ b/include/linux/mutex.h
+@@ -51,7 +51,7 @@ struct mutex {
+       spinlock_t              wait_lock;
+       struct list_head        wait_list;
+ #if defined(CONFIG_DEBUG_MUTEXES) || defined(CONFIG_SMP)
+-      struct thread_info      *owner;
++      struct task_struct      *owner;
+ #endif
+ #ifdef CONFIG_DEBUG_MUTEXES
+       const char              *name;
+diff --git a/include/linux/namei.h b/include/linux/namei.h
+index ec0f607..d19e675 100644
+--- a/include/linux/namei.h
++++ b/include/linux/namei.h
+@@ -22,7 +22,7 @@ struct nameidata {
+       unsigned int    flags;
+       int             last_type;
+       unsigned        depth;
+-      char *saved_names[MAX_NESTED_LINKS + 1];
++      const char *saved_names[MAX_NESTED_LINKS + 1];
+       /* Intent data */
+       union {
+@@ -84,12 +84,12 @@ extern int follow_up(struct path *);
+ extern struct dentry *lock_rename(struct dentry *, struct dentry *);
+ extern void unlock_rename(struct dentry *, struct dentry *);
+-static inline void nd_set_link(struct nameidata *nd, char *path)
++static inline void nd_set_link(struct nameidata *nd, const char *path)
+ {
+       nd->saved_names[nd->depth] = path;
+ }
+-static inline char *nd_get_link(struct nameidata *nd)
++static inline const char *nd_get_link(const struct nameidata *nd)
+ {
+       return nd->saved_names[nd->depth];
+ }
+diff --git a/include/linux/netdevice.h b/include/linux/netdevice.h
+index 9d7e8f7..04428c5 100644
+--- a/include/linux/netdevice.h
++++ b/include/linux/netdevice.h
+@@ -637,6 +637,7 @@ struct net_device_ops {
+                                                    u16 xid);
+ #endif
+ };
++typedef struct net_device_ops __no_const net_device_ops_no_const;
+ /*
+  *    The DEVICE structure.
+diff --git a/include/linux/netfilter/xt_gradm.h b/include/linux/netfilter/xt_gradm.h
+new file mode 100644
+index 0000000..33f4af8
+--- /dev/null
++++ b/include/linux/netfilter/xt_gradm.h
+@@ -0,0 +1,9 @@
++#ifndef _LINUX_NETFILTER_XT_GRADM_H
++#define _LINUX_NETFILTER_XT_GRADM_H 1
++
++struct xt_gradm_mtinfo {
++      __u16 flags;
++      __u16 invflags;
++};
++
++#endif
+diff --git a/include/linux/nodemask.h b/include/linux/nodemask.h
+index b359c4a..c08b334 100644
+--- a/include/linux/nodemask.h
++++ b/include/linux/nodemask.h
+@@ -464,11 +464,11 @@ static inline int num_node_state(enum node_states state)
+ #define any_online_node(mask)                 \
+ ({                                            \
+-      int node;                               \
+-      for_each_node_mask(node, (mask))        \
+-              if (node_online(node))          \
++      int __node;                             \
++      for_each_node_mask(__node, (mask))      \
++              if (node_online(__node))        \
+                       break;                  \
+-      node;                                   \
++      __node;                                 \
+ })
+ #define num_online_nodes()    num_node_state(N_ONLINE)
+diff --git a/include/linux/oprofile.h b/include/linux/oprofile.h
+index 5171639..7cf4235 100644
+--- a/include/linux/oprofile.h
++++ b/include/linux/oprofile.h
+@@ -129,9 +129,9 @@ int oprofilefs_create_ulong(struct super_block * sb, struct dentry * root,
+ int oprofilefs_create_ro_ulong(struct super_block * sb, struct dentry * root,
+       char const * name, ulong * val);
+  
+-/** Create a file for read-only access to an atomic_t. */
++/** Create a file for read-only access to an atomic_unchecked_t. */
+ int oprofilefs_create_ro_atomic(struct super_block * sb, struct dentry * root,
+-      char const * name, atomic_t * val);
++      char const * name, atomic_unchecked_t * val);
+  
+ /** create a directory */
+ struct dentry * oprofilefs_mkdir(struct super_block * sb, struct dentry * root,
+diff --git a/include/linux/pagemap.h b/include/linux/pagemap.h
+index 3c62ed4..8924c7c 100644
+--- a/include/linux/pagemap.h
++++ b/include/linux/pagemap.h
+@@ -425,7 +425,9 @@ static inline int fault_in_pages_readable(const char __user *uaddr, int size)
+               if (((unsigned long)uaddr & PAGE_MASK) !=
+                               ((unsigned long)end & PAGE_MASK))
+                       ret = __get_user(c, end);
++                      (void)c;
+       }
++      (void)c;
+       return ret;
+ }
+diff --git a/include/linux/perf_event.h b/include/linux/perf_event.h
+index 81c9689..a567a55 100644
+--- a/include/linux/perf_event.h
++++ b/include/linux/perf_event.h
+@@ -476,7 +476,7 @@ struct hw_perf_event {
+                       struct hrtimer  hrtimer;
+               };
+       };
+-      atomic64_t                      prev_count;
++      atomic64_unchecked_t            prev_count;
+       u64                             sample_period;
+       u64                             last_period;
+       atomic64_t                      period_left;
+@@ -557,7 +557,7 @@ struct perf_event {
+       const struct pmu                *pmu;
+       enum perf_event_active_state    state;
+-      atomic64_t                      count;
++      atomic64_unchecked_t            count;
+       /*
+        * These are the total time in nanoseconds that the event
+@@ -595,8 +595,8 @@ struct perf_event {
+        * These accumulate total time (in nanoseconds) that children
+        * events have been enabled and running, respectively.
+        */
+-      atomic64_t                      child_total_time_enabled;
+-      atomic64_t                      child_total_time_running;
++      atomic64_unchecked_t            child_total_time_enabled;
++      atomic64_unchecked_t            child_total_time_running;
+       /*
+        * Protect attach/detach and child_list:
+diff --git a/include/linux/pipe_fs_i.h b/include/linux/pipe_fs_i.h
+index b43a9e0..b77d869 100644
+--- a/include/linux/pipe_fs_i.h
++++ b/include/linux/pipe_fs_i.h
+@@ -46,9 +46,9 @@ struct pipe_inode_info {
+       wait_queue_head_t wait;
+       unsigned int nrbufs, curbuf;
+       struct page *tmp_page;
+-      unsigned int readers;
+-      unsigned int writers;
+-      unsigned int waiting_writers;
++      atomic_t readers;
++      atomic_t writers;
++      atomic_t waiting_writers;
+       unsigned int r_counter;
+       unsigned int w_counter;
+       struct fasync_struct *fasync_readers;
+diff --git a/include/linux/poison.h b/include/linux/poison.h
+index 34066ff..e95d744 100644
+--- a/include/linux/poison.h
++++ b/include/linux/poison.h
+@@ -19,8 +19,8 @@
+  * under normal circumstances, used to verify that nobody uses
+  * non-initialized list entries.
+  */
+-#define LIST_POISON1  ((void *) 0x00100100 + POISON_POINTER_DELTA)
+-#define LIST_POISON2  ((void *) 0x00200200 + POISON_POINTER_DELTA)
++#define LIST_POISON1  ((void *) (long)0xFFFFFF01)
++#define LIST_POISON2  ((void *) (long)0xFFFFFF02)
+ /********** include/linux/timer.h **********/
+ /*
+diff --git a/include/linux/posix-timers.h b/include/linux/posix-timers.h
+index 4f71bf4..77ffa64 100644
+--- a/include/linux/posix-timers.h
++++ b/include/linux/posix-timers.h
+@@ -67,7 +67,7 @@ struct k_itimer {
+ };
+ struct k_clock {
+-      int res;                /* in nanoseconds */
++      const int res;          /* in nanoseconds */
+       int (*clock_getres) (const clockid_t which_clock, struct timespec *tp);
+       int (*clock_set) (const clockid_t which_clock, struct timespec * tp);
+       int (*clock_get) (const clockid_t which_clock, struct timespec * tp);
+diff --git a/include/linux/preempt.h b/include/linux/preempt.h
+index 72b1a10..13303a9 100644
+--- a/include/linux/preempt.h
++++ b/include/linux/preempt.h
+@@ -110,7 +110,7 @@ struct preempt_ops {
+       void (*sched_in)(struct preempt_notifier *notifier, int cpu);
+       void (*sched_out)(struct preempt_notifier *notifier,
+                         struct task_struct *next);
+-};
++} __no_const;
+ /**
+  * preempt_notifier - key for installing preemption notifiers
+diff --git a/include/linux/proc_fs.h b/include/linux/proc_fs.h
+index 379eaed..1bf73e3 100644
+--- a/include/linux/proc_fs.h
++++ b/include/linux/proc_fs.h
+@@ -155,6 +155,19 @@ static inline struct proc_dir_entry *proc_create(const char *name, mode_t mode,
+       return proc_create_data(name, mode, parent, proc_fops, NULL);
+ }
++static inline struct proc_dir_entry *proc_create_grsec(const char *name, mode_t mode,
++      struct proc_dir_entry *parent, const struct file_operations *proc_fops)
++{
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++      return proc_create_data(name, S_IRUSR, parent, proc_fops, NULL);
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      return proc_create_data(name, S_IRUSR | S_IRGRP, parent, proc_fops, NULL);
++#else
++      return proc_create_data(name, mode, parent, proc_fops, NULL);
++#endif
++}
++      
++
+ static inline struct proc_dir_entry *create_proc_read_entry(const char *name,
+       mode_t mode, struct proc_dir_entry *base, 
+       read_proc_t *read_proc, void * data)
+@@ -256,7 +269,7 @@ union proc_op {
+       int (*proc_show)(struct seq_file *m,
+               struct pid_namespace *ns, struct pid *pid,
+               struct task_struct *task);
+-};
++} __no_const;
+ struct ctl_table_header;
+ struct ctl_table;
+diff --git a/include/linux/ptrace.h b/include/linux/ptrace.h
+index 7456d7d..6c1cfc9 100644
+--- a/include/linux/ptrace.h
++++ b/include/linux/ptrace.h
+@@ -96,10 +96,10 @@ extern void __ptrace_unlink(struct task_struct *child);
+ extern void exit_ptrace(struct task_struct *tracer);
+ #define PTRACE_MODE_READ   1
+ #define PTRACE_MODE_ATTACH 2
+-/* Returns 0 on success, -errno on denial. */
+-extern int __ptrace_may_access(struct task_struct *task, unsigned int mode);
+ /* Returns true on success, false on denial. */
+ extern bool ptrace_may_access(struct task_struct *task, unsigned int mode);
++/* Returns true on success, false on denial. */
++extern bool ptrace_may_access_log(struct task_struct *task, unsigned int mode);
+ static inline int ptrace_reparented(struct task_struct *child)
+ {
+diff --git a/include/linux/random.h b/include/linux/random.h
+index 2948046..3262567 100644
+--- a/include/linux/random.h
++++ b/include/linux/random.h
+@@ -63,6 +63,11 @@ unsigned long randomize_range(unsigned long start, unsigned long end, unsigned l
+ u32 random32(void);
+ void srandom32(u32 seed);
++static inline unsigned long pax_get_random_long(void)
++{
++      return random32() + (sizeof(long) > 4 ? (unsigned long)random32() << 32 : 0);
++}
++
+ #endif /* __KERNEL___ */
+ #endif /* _LINUX_RANDOM_H */
+diff --git a/include/linux/reboot.h b/include/linux/reboot.h
+index 988e55f..17cb4ef 100644
+--- a/include/linux/reboot.h
++++ b/include/linux/reboot.h
+@@ -47,9 +47,9 @@ extern int unregister_reboot_notifier(struct notifier_block *);
+  * Architecture-specific implementations of sys_reboot commands.
+  */
+-extern void machine_restart(char *cmd);
+-extern void machine_halt(void);
+-extern void machine_power_off(void);
++extern void machine_restart(char *cmd) __noreturn;
++extern void machine_halt(void) __noreturn;
++extern void machine_power_off(void) __noreturn;
+ extern void machine_shutdown(void);
+ struct pt_regs;
+@@ -60,9 +60,9 @@ extern void machine_crash_shutdown(struct pt_regs *);
+  */
+ extern void kernel_restart_prepare(char *cmd);
+-extern void kernel_restart(char *cmd);
+-extern void kernel_halt(void);
+-extern void kernel_power_off(void);
++extern void kernel_restart(char *cmd) __noreturn;
++extern void kernel_halt(void) __noreturn;
++extern void kernel_power_off(void) __noreturn;
+ void ctrl_alt_del(void);
+@@ -75,7 +75,7 @@ extern int orderly_poweroff(bool force);
+  * Emergency restart, callable from an interrupt handler.
+  */
+-extern void emergency_restart(void);
++extern void emergency_restart(void) __noreturn;
+ #include <asm/emergency-restart.h>
+ #endif
+diff --git a/include/linux/reiserfs_fs.h b/include/linux/reiserfs_fs.h
+index dd31e7b..5b03c5c 100644
+--- a/include/linux/reiserfs_fs.h
++++ b/include/linux/reiserfs_fs.h
+@@ -1326,7 +1326,7 @@ static inline loff_t max_reiserfs_offset(struct inode *inode)
+ #define REISERFS_USER_MEM             1       /* reiserfs user memory mode            */
+ #define fs_generation(s) (REISERFS_SB(s)->s_generation_counter)
+-#define get_generation(s) atomic_read (&fs_generation(s))
++#define get_generation(s) atomic_read_unchecked (&fs_generation(s))
+ #define FILESYSTEM_CHANGED_TB(tb)  (get_generation((tb)->tb_sb) != (tb)->fs_gen)
+ #define __fs_changed(gen,s) (gen != get_generation (s))
+ #define fs_changed(gen,s) ({cond_resched(); __fs_changed(gen, s);})
+@@ -1534,24 +1534,24 @@ static inline struct super_block *sb_from_bi(struct buffer_info *bi)
+ */
+ struct item_operations {
+-      int (*bytes_number) (struct item_head * ih, int block_size);
+-      void (*decrement_key) (struct cpu_key *);
+-      int (*is_left_mergeable) (struct reiserfs_key * ih,
++      int (* const bytes_number) (struct item_head * ih, int block_size);
++      void (* const decrement_key) (struct cpu_key *);
++      int (* const is_left_mergeable) (struct reiserfs_key * ih,
+                                 unsigned long bsize);
+-      void (*print_item) (struct item_head *, char *item);
+-      void (*check_item) (struct item_head *, char *item);
++      void (* const print_item) (struct item_head *, char *item);
++      void (* const check_item) (struct item_head *, char *item);
+-      int (*create_vi) (struct virtual_node * vn, struct virtual_item * vi,
++      int (* const create_vi) (struct virtual_node * vn, struct virtual_item * vi,
+                         int is_affected, int insert_size);
+-      int (*check_left) (struct virtual_item * vi, int free,
++      int (* const check_left) (struct virtual_item * vi, int free,
+                          int start_skip, int end_skip);
+-      int (*check_right) (struct virtual_item * vi, int free);
+-      int (*part_size) (struct virtual_item * vi, int from, int to);
+-      int (*unit_num) (struct virtual_item * vi);
+-      void (*print_vi) (struct virtual_item * vi);
++      int (* const check_right) (struct virtual_item * vi, int free);
++      int (* const part_size) (struct virtual_item * vi, int from, int to);
++      int (* const unit_num) (struct virtual_item * vi);
++      void (* const print_vi) (struct virtual_item * vi);
+ };
+-extern struct item_operations *item_ops[TYPE_ANY + 1];
++extern const struct item_operations * const item_ops[TYPE_ANY + 1];
+ #define op_bytes_number(ih,bsize)                    item_ops[le_ih_k_type (ih)]->bytes_number (ih, bsize)
+ #define op_is_left_mergeable(key,bsize)              item_ops[le_key_k_type (le_key_version (key), key)]->is_left_mergeable (key, bsize)
+diff --git a/include/linux/reiserfs_fs_sb.h b/include/linux/reiserfs_fs_sb.h
+index dab68bb..0688727 100644
+--- a/include/linux/reiserfs_fs_sb.h
++++ b/include/linux/reiserfs_fs_sb.h
+@@ -377,7 +377,7 @@ struct reiserfs_sb_info {
+       /* Comment? -Hans */
+       wait_queue_head_t s_wait;
+       /* To be obsoleted soon by per buffer seals.. -Hans */
+-      atomic_t s_generation_counter;  // increased by one every time the
++      atomic_unchecked_t s_generation_counter;        // increased by one every time the
+       // tree gets re-balanced
+       unsigned long s_properties;     /* File system properties. Currently holds
+                                          on-disk FS format */
+diff --git a/include/linux/relay.h b/include/linux/relay.h
+index 14a86bc..17d0700 100644
+--- a/include/linux/relay.h
++++ b/include/linux/relay.h
+@@ -159,7 +159,7 @@ struct rchan_callbacks
+        * The callback should return 0 if successful, negative if not.
+        */
+       int (*remove_buf_file)(struct dentry *dentry);
+-};
++} __no_const;
+ /*
+  * CONFIG_RELAY kernel API, kernel/relay.c
+diff --git a/include/linux/rfkill.h b/include/linux/rfkill.h
+index 3392c59..a746428 100644
+--- a/include/linux/rfkill.h
++++ b/include/linux/rfkill.h
+@@ -144,6 +144,7 @@ struct rfkill_ops {
+       void    (*query)(struct rfkill *rfkill, void *data);
+       int     (*set_block)(void *data, bool blocked);
+ };
++typedef struct rfkill_ops __no_const rfkill_ops_no_const;
+ #if defined(CONFIG_RFKILL) || defined(CONFIG_RFKILL_MODULE)
+ /**
+diff --git a/include/linux/sched.h b/include/linux/sched.h
+index 71849bf..03ceae8 100644
+--- a/include/linux/sched.h
++++ b/include/linux/sched.h
+@@ -101,6 +101,7 @@ struct bio;
+ struct fs_struct;
+ struct bts_context;
+ struct perf_event_context;
++struct linux_binprm;
+ /*
+  * List of flags we want to share for kernel threads,
+@@ -350,7 +351,7 @@ extern signed long schedule_timeout_killable(signed long timeout);
+ extern signed long schedule_timeout_uninterruptible(signed long timeout);
+ asmlinkage void __schedule(void);
+ asmlinkage void schedule(void);
+-extern int mutex_spin_on_owner(struct mutex *lock, struct thread_info *owner);
++extern int mutex_spin_on_owner(struct mutex *lock, struct task_struct *owner);
+ struct nsproxy;
+ struct user_namespace;
+@@ -371,9 +372,12 @@ struct user_namespace;
+ #define DEFAULT_MAX_MAP_COUNT (USHORT_MAX - MAPCOUNT_ELF_CORE_MARGIN)
+ extern int sysctl_max_map_count;
++extern unsigned long sysctl_heap_stack_gap;
+ #include <linux/aio.h>
++extern bool check_heap_stack_gap(const struct vm_area_struct *vma, unsigned long addr, unsigned long len);
++extern unsigned long skip_heap_stack_gap(const struct vm_area_struct *vma, unsigned long len);
+ extern unsigned long
+ arch_get_unmapped_area(struct file *, unsigned long, unsigned long,
+                      unsigned long, unsigned long);
+@@ -666,6 +670,16 @@ struct signal_struct {
+       struct tty_audit_buf *tty_audit_buf;
+ #endif
++#ifdef CONFIG_GRKERNSEC
++      u32 curr_ip;
++      u32 saved_ip;
++      u32 gr_saddr;
++      u32 gr_daddr;
++      u16 gr_sport;
++      u16 gr_dport;
++      u8 used_accept:1;
++#endif
++
+       int oom_adj;    /* OOM kill score adjustment (bit shift) */
+ };
+@@ -723,6 +737,11 @@ struct user_struct {
+       struct key *session_keyring;    /* UID's default session keyring */
+ #endif
++#if defined(CONFIG_GRKERNSEC_KERN_LOCKOUT) || defined(CONFIG_GRKERNSEC_BRUTE)
++      unsigned int banned;
++      unsigned long ban_expires;
++#endif
++
+       /* Hash table maintenance information */
+       struct hlist_node uidhash_node;
+       uid_t uid;
+@@ -1328,8 +1347,8 @@ struct task_struct {
+       struct list_head thread_group;
+       struct completion *vfork_done;          /* for vfork() */
+-      int __user *set_child_tid;              /* CLONE_CHILD_SETTID */
+-      int __user *clear_child_tid;            /* CLONE_CHILD_CLEARTID */
++      pid_t __user *set_child_tid;            /* CLONE_CHILD_SETTID */
++      pid_t __user *clear_child_tid;          /* CLONE_CHILD_CLEARTID */
+       cputime_t utime, stime, utimescaled, stimescaled;
+       cputime_t gtime;
+@@ -1343,16 +1362,6 @@ struct task_struct {
+       struct task_cputime cputime_expires;
+       struct list_head cpu_timers[3];
+-/* process credentials */
+-      const struct cred *real_cred;   /* objective and real subjective task
+-                                       * credentials (COW) */
+-      const struct cred *cred;        /* effective (overridable) subjective task
+-                                       * credentials (COW) */
+-      struct mutex cred_guard_mutex;  /* guard against foreign influences on
+-                                       * credential calculations
+-                                       * (notably. ptrace) */
+-      struct cred *replacement_session_keyring; /* for KEYCTL_SESSION_TO_PARENT */
+-
+       char comm[TASK_COMM_LEN]; /* executable name excluding path
+                                    - access with [gs]et_task_comm (which lock
+                                      it with task_lock())
+@@ -1369,6 +1378,10 @@ struct task_struct {
+ #endif
+ /* CPU-specific state of this task */
+       struct thread_struct thread;
++/* thread_info moved to task_struct */
++#ifdef CONFIG_X86
++      struct thread_info tinfo;
++#endif
+ /* filesystem information */
+       struct fs_struct *fs;
+ /* open file information */
+@@ -1436,6 +1449,15 @@ struct task_struct {
+       int hardirq_context;
+       int softirq_context;
+ #endif
++
++/* process credentials */
++      const struct cred *real_cred;   /* objective and real subjective task
++                                       * credentials (COW) */
++      struct mutex cred_guard_mutex;  /* guard against foreign influences on
++                                       * credential calculations
++                                       * (notably. ptrace) */
++      struct cred *replacement_session_keyring; /* for KEYCTL_SESSION_TO_PARENT */
++
+ #ifdef CONFIG_LOCKDEP
+ # define MAX_LOCK_DEPTH 48UL
+       u64 curr_chain_key;
+@@ -1456,6 +1478,9 @@ struct task_struct {
+       struct backing_dev_info *backing_dev_info;
++      const struct cred *cred;        /* effective (overridable) subjective task
++                                       * credentials (COW) */
++
+       struct io_context *io_context;
+       unsigned long ptrace_message;
+@@ -1519,6 +1544,27 @@ struct task_struct {
+       unsigned long default_timer_slack_ns;
+       struct list_head        *scm_work_list;
++
++#ifdef CONFIG_GRKERNSEC
++      /* grsecurity */
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      long long exec_id;
++#endif
++#ifdef CONFIG_GRKERNSEC_SETXID
++      const struct cred *delayed_cred;
++#endif
++      struct dentry *gr_chroot_dentry;
++      struct acl_subject_label *acl;
++      struct acl_role_label *role;
++      struct file *exec_file;
++      u16 acl_role_id;
++      /* is this the task that authenticated to the special role */
++      u8 acl_sp_role;
++      u8 is_writable;
++      u8 brute;
++      u8 gr_is_chrooted;
++#endif
++
+ #ifdef CONFIG_FUNCTION_GRAPH_TRACER
+       /* Index of current stored adress in ret_stack */
+       int curr_ret_stack;
+@@ -1542,6 +1588,57 @@ struct task_struct {
+ #endif /* CONFIG_TRACING */
+ };
++#define MF_PAX_PAGEEXEC               0x01000000      /* Paging based non-executable pages */
++#define MF_PAX_EMUTRAMP               0x02000000      /* Emulate trampolines */
++#define MF_PAX_MPROTECT               0x04000000      /* Restrict mprotect() */
++#define MF_PAX_RANDMMAP               0x08000000      /* Randomize mmap() base */
++/*#define MF_PAX_RANDEXEC             0x10000000*/    /* Randomize ET_EXEC base */
++#define MF_PAX_SEGMEXEC               0x20000000      /* Segmentation based non-executable pages */
++
++#ifdef CONFIG_PAX_SOFTMODE
++extern int pax_softmode;
++#endif
++
++extern int pax_check_flags(unsigned long *);
++
++/* if tsk != current then task_lock must be held on it */
++#if defined(CONFIG_PAX_NOEXEC) || defined(CONFIG_PAX_ASLR)
++static inline unsigned long pax_get_flags(struct task_struct *tsk)
++{
++      if (likely(tsk->mm))
++              return tsk->mm->pax_flags;
++      else
++              return 0UL;
++}
++
++/* if tsk != current then task_lock must be held on it */
++static inline long pax_set_flags(struct task_struct *tsk, unsigned long flags)
++{
++      if (likely(tsk->mm)) {
++              tsk->mm->pax_flags = flags;
++              return 0;
++      }
++      return -EINVAL;
++}
++#endif
++
++#ifdef CONFIG_PAX_HAVE_ACL_FLAGS
++extern void pax_set_initial_flags(struct linux_binprm *bprm);
++#elif defined(CONFIG_PAX_HOOK_ACL_FLAGS)
++extern void (*pax_set_initial_flags_func)(struct linux_binprm *bprm);
++#endif
++
++extern void pax_report_fault(struct pt_regs *regs, void *pc, void *sp);
++extern void pax_report_insns(struct pt_regs *regs, void *pc, void *sp);
++extern void pax_report_refcount_overflow(struct pt_regs *regs);
++extern NORET_TYPE void pax_report_usercopy(const void *ptr, unsigned long len, bool to, const char *type) ATTRIB_NORET;
++
++#ifdef CONFIG_PAX_MEMORY_STACKLEAK
++extern void pax_track_stack(void);
++#else
++static inline void pax_track_stack(void) {}
++#endif
++
+ /* Future-safe accessor for struct task_struct's cpus_allowed. */
+ #define tsk_cpumask(tsk) (&(tsk)->cpus_allowed)
+@@ -1740,7 +1837,7 @@ extern void thread_group_times(struct task_struct *p, cputime_t *ut, cputime_t *
+ #define PF_DUMPCORE   0x00000200      /* dumped core */
+ #define PF_SIGNALED   0x00000400      /* killed by a signal */
+ #define PF_MEMALLOC   0x00000800      /* Allocating memory */
+-#define PF_FLUSHER    0x00001000      /* responsible for disk writeback */
++#define PF_NPROC_EXCEEDED 0x00001000  /* set_user noticed that RLIMIT_NPROC was exceeded */
+ #define PF_USED_MATH  0x00002000      /* if unset the fpu must be initialized before use */
+ #define PF_FREEZING   0x00004000      /* freeze in progress. do not account to load */
+ #define PF_NOFREEZE   0x00008000      /* this thread should not be frozen */
+@@ -1978,7 +2075,9 @@ void yield(void);
+ extern struct exec_domain     default_exec_domain;
+ union thread_union {
++#ifndef CONFIG_X86
+       struct thread_info thread_info;
++#endif
+       unsigned long stack[THREAD_SIZE/sizeof(long)];
+ };
+@@ -2011,6 +2110,7 @@ extern struct pid_namespace init_pid_ns;
+  */
+ extern struct task_struct *find_task_by_vpid(pid_t nr);
++extern struct task_struct *find_task_by_vpid_unrestricted(pid_t nr);
+ extern struct task_struct *find_task_by_pid_ns(pid_t nr,
+               struct pid_namespace *ns);
+@@ -2155,7 +2255,7 @@ extern void __cleanup_sighand(struct sighand_struct *);
+ extern void exit_itimers(struct signal_struct *);
+ extern void flush_itimer_signals(void);
+-extern NORET_TYPE void do_group_exit(int);
++extern NORET_TYPE void do_group_exit(int) ATTRIB_NORET;
+ extern void daemonize(const char *, ...);
+ extern int allow_signal(int);
+@@ -2284,13 +2384,17 @@ static inline unsigned long *end_of_stack(struct task_struct *p)
+ #endif
+-static inline int object_is_on_stack(void *obj)
++static inline int object_starts_on_stack(void *obj)
+ {
+-      void *stack = task_stack_page(current);
++      const void *stack = task_stack_page(current);
+       return (obj >= stack) && (obj < (stack + THREAD_SIZE));
+ }
++#ifdef CONFIG_PAX_USERCOPY
++extern int object_is_on_stack(const void *obj, unsigned long len);
++#endif
++
+ extern void thread_info_cache_init(void);
+ #ifdef CONFIG_DEBUG_STACK_USAGE
+diff --git a/include/linux/screen_info.h b/include/linux/screen_info.h
+index 1ee2c05..81b7ec4 100644
+--- a/include/linux/screen_info.h
++++ b/include/linux/screen_info.h
+@@ -42,7 +42,8 @@ struct screen_info {
+       __u16 pages;            /* 0x32 */
+       __u16 vesa_attributes;  /* 0x34 */
+       __u32 capabilities;     /* 0x36 */
+-      __u8  _reserved[6];     /* 0x3a */
++      __u16 vesapm_size;      /* 0x3a */
++      __u8  _reserved[4];     /* 0x3c */
+ } __attribute__((packed));
+ #define VIDEO_TYPE_MDA                0x10    /* Monochrome Text Display      */
+diff --git a/include/linux/security.h b/include/linux/security.h
+index d40d23f..d739b08 100644
+--- a/include/linux/security.h
++++ b/include/linux/security.h
+@@ -34,6 +34,7 @@
+ #include <linux/key.h>
+ #include <linux/xfrm.h>
+ #include <linux/gfp.h>
++#include <linux/grsecurity.h>
+ #include <net/flow.h>
+ /* Maximum number of letters for an LSM name string */
+@@ -76,7 +77,7 @@ extern int cap_task_prctl(int option, unsigned long arg2, unsigned long arg3,
+ extern int cap_task_setscheduler(struct task_struct *p, int policy, struct sched_param *lp);
+ extern int cap_task_setioprio(struct task_struct *p, int ioprio);
+ extern int cap_task_setnice(struct task_struct *p, int nice);
+-extern int cap_syslog(int type);
++extern int cap_syslog(int type, bool from_file);
+ extern int cap_vm_enough_memory(struct mm_struct *mm, long pages);
+ struct msghdr;
+@@ -1331,6 +1332,7 @@ static inline void security_free_mnt_opts(struct security_mnt_opts *opts)
+  *    logging to the console.
+  *    See the syslog(2) manual page for an explanation of the @type values.
+  *    @type contains the type of action.
++ *    @from_file indicates the context of action (if it came from /proc).
+  *    Return 0 if permission is granted.
+  * @settime:
+  *    Check permission to change the system time.
+@@ -1445,7 +1447,7 @@ struct security_operations {
+       int (*sysctl) (struct ctl_table *table, int op);
+       int (*quotactl) (int cmds, int type, int id, struct super_block *sb);
+       int (*quota_on) (struct dentry *dentry);
+-      int (*syslog) (int type);
++      int (*syslog) (int type, bool from_file);
+       int (*settime) (struct timespec *ts, struct timezone *tz);
+       int (*vm_enough_memory) (struct mm_struct *mm, long pages);
+@@ -1740,7 +1742,7 @@ int security_acct(struct file *file);
+ int security_sysctl(struct ctl_table *table, int op);
+ int security_quotactl(int cmds, int type, int id, struct super_block *sb);
+ int security_quota_on(struct dentry *dentry);
+-int security_syslog(int type);
++int security_syslog(int type, bool from_file);
+ int security_settime(struct timespec *ts, struct timezone *tz);
+ int security_vm_enough_memory(long pages);
+ int security_vm_enough_memory_mm(struct mm_struct *mm, long pages);
+@@ -1986,9 +1988,9 @@ static inline int security_quota_on(struct dentry *dentry)
+       return 0;
+ }
+-static inline int security_syslog(int type)
++static inline int security_syslog(int type, bool from_file)
+ {
+-      return cap_syslog(type);
++      return cap_syslog(type, from_file);
+ }
+ static inline int security_settime(struct timespec *ts, struct timezone *tz)
+diff --git a/include/linux/seq_file.h b/include/linux/seq_file.h
+index 8366d8f..898f3c6 100644
+--- a/include/linux/seq_file.h
++++ b/include/linux/seq_file.h
+@@ -23,6 +23,9 @@ struct seq_file {
+       u64 version;
+       struct mutex lock;
+       const struct seq_operations *op;
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      long long exec_id;
++#endif
+       void *private;
+ };
+@@ -32,6 +35,7 @@ struct seq_operations {
+       void * (*next) (struct seq_file *m, void *v, loff_t *pos);
+       int (*show) (struct seq_file *m, void *v);
+ };
++typedef struct seq_operations __no_const seq_operations_no_const;
+ #define SEQ_SKIP 1
+diff --git a/include/linux/shm.h b/include/linux/shm.h
+index eca6235..c7417ed 100644
+--- a/include/linux/shm.h
++++ b/include/linux/shm.h
+@@ -95,6 +95,10 @@ struct shmid_kernel /* private to the kernel */
+       pid_t                   shm_cprid;
+       pid_t                   shm_lprid;
+       struct user_struct      *mlock_user;
++#ifdef CONFIG_GRKERNSEC
++      time_t                  shm_createtime;
++      pid_t                   shm_lapid;
++#endif
+ };
+ /* shm_mode upper byte flags */
+diff --git a/include/linux/skbuff.h b/include/linux/skbuff.h
+index bcdd660..6e12e11 100644
+--- a/include/linux/skbuff.h
++++ b/include/linux/skbuff.h
+@@ -14,6 +14,7 @@
+ #ifndef _LINUX_SKBUFF_H
+ #define _LINUX_SKBUFF_H
++#include <linux/const.h>
+ #include <linux/kernel.h>
+ #include <linux/kmemcheck.h>
+ #include <linux/compiler.h>
+@@ -544,7 +545,7 @@ static inline union skb_shared_tx *skb_tx(struct sk_buff *skb)
+  */
+ static inline int skb_queue_empty(const struct sk_buff_head *list)
+ {
+-      return list->next == (struct sk_buff *)list;
++      return list->next == (const struct sk_buff *)list;
+ }
+ /**
+@@ -557,7 +558,7 @@ static inline int skb_queue_empty(const struct sk_buff_head *list)
+ static inline bool skb_queue_is_last(const struct sk_buff_head *list,
+                                    const struct sk_buff *skb)
+ {
+-      return (skb->next == (struct sk_buff *) list);
++      return (skb->next == (const struct sk_buff *) list);
+ }
+ /**
+@@ -570,7 +571,7 @@ static inline bool skb_queue_is_last(const struct sk_buff_head *list,
+ static inline bool skb_queue_is_first(const struct sk_buff_head *list,
+                                     const struct sk_buff *skb)
+ {
+-      return (skb->prev == (struct sk_buff *) list);
++      return (skb->prev == (const struct sk_buff *) list);
+ }
+ /**
+@@ -1367,7 +1368,7 @@ static inline int skb_network_offset(const struct sk_buff *skb)
+  * headroom, you should not reduce this.
+  */
+ #ifndef NET_SKB_PAD
+-#define NET_SKB_PAD   32
++#define NET_SKB_PAD   (_AC(32,UL))
+ #endif
+ extern int ___pskb_trim(struct sk_buff *skb, unsigned int len);
+diff --git a/include/linux/slab.h b/include/linux/slab.h
+index 2da8372..a3be824 100644
+--- a/include/linux/slab.h
++++ b/include/linux/slab.h
+@@ -11,12 +11,20 @@
+ #include <linux/gfp.h>
+ #include <linux/types.h>
++#include <linux/err.h>
+ /*
+  * Flags to pass to kmem_cache_create().
+  * The ones marked DEBUG are only valid if CONFIG_SLAB_DEBUG is set.
+  */
+ #define SLAB_DEBUG_FREE               0x00000100UL    /* DEBUG: Perform (expensive) checks on free */
++
++#ifdef CONFIG_PAX_USERCOPY
++#define SLAB_USERCOPY         0x00000200UL    /* PaX: Allow copying objs to/from userland */
++#else
++#define SLAB_USERCOPY         0x00000000UL
++#endif
++
+ #define SLAB_RED_ZONE         0x00000400UL    /* DEBUG: Red zone objs in a cache */
+ #define SLAB_POISON           0x00000800UL    /* DEBUG: Poison objects */
+ #define SLAB_HWCACHE_ALIGN    0x00002000UL    /* Align objs on cache lines */
+@@ -82,10 +90,13 @@
+  * ZERO_SIZE_PTR can be passed to kfree though in the same way that NULL can.
+  * Both make kfree a no-op.
+  */
+-#define ZERO_SIZE_PTR ((void *)16)
++#define ZERO_SIZE_PTR                         \
++({                                            \
++      BUILD_BUG_ON(!(MAX_ERRNO & ~PAGE_MASK));\
++      (void *)(-MAX_ERRNO-1L);                \
++})
+-#define ZERO_OR_NULL_PTR(x) ((unsigned long)(x) <= \
+-                              (unsigned long)ZERO_SIZE_PTR)
++#define ZERO_OR_NULL_PTR(x) ((unsigned long)(x) - 1 >= (unsigned long)ZERO_SIZE_PTR - 1)
+ /*
+  * struct kmem_cache related prototypes
+@@ -138,6 +149,7 @@ void * __must_check krealloc(const void *, size_t, gfp_t);
+ void kfree(const void *);
+ void kzfree(const void *);
+ size_t ksize(const void *);
++void check_object_size(const void *ptr, unsigned long n, bool to);
+ /*
+  * Allocator specific definitions. These are mainly used to establish optimized
+@@ -328,4 +340,37 @@ static inline void *kzalloc_node(size_t size, gfp_t flags, int node)
+ void __init kmem_cache_init_late(void);
++#define kmalloc(x, y)                                 \
++({                                                    \
++      void *___retval;                                \
++      intoverflow_t ___x = (intoverflow_t)x;          \
++      if (WARN(___x > ULONG_MAX, "kmalloc size overflow\n"))\
++              ___retval = NULL;                       \
++      else                                            \
++              ___retval = kmalloc((size_t)___x, (y)); \
++      ___retval;                                      \
++})
++
++#define kmalloc_node(x, y, z)                                 \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "kmalloc_node size overflow\n"))\
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = kmalloc_node((size_t)___x, (y), (z));\
++      ___retval;                                              \
++})
++
++#define kzalloc(x, y)                                 \
++({                                                    \
++      void *___retval;                                \
++      intoverflow_t ___x = (intoverflow_t)x;          \
++      if (WARN(___x > ULONG_MAX, "kzalloc size overflow\n"))\
++              ___retval = NULL;                       \
++      else                                            \
++              ___retval = kzalloc((size_t)___x, (y)); \
++      ___retval;                                      \
++})
++
+ #endif        /* _LINUX_SLAB_H */
+diff --git a/include/linux/slab_def.h b/include/linux/slab_def.h
+index 850d057..d9dfe3c 100644
+--- a/include/linux/slab_def.h
++++ b/include/linux/slab_def.h
+@@ -69,10 +69,10 @@ struct kmem_cache {
+       unsigned long node_allocs;
+       unsigned long node_frees;
+       unsigned long node_overflow;
+-      atomic_t allochit;
+-      atomic_t allocmiss;
+-      atomic_t freehit;
+-      atomic_t freemiss;
++      atomic_unchecked_t allochit;
++      atomic_unchecked_t allocmiss;
++      atomic_unchecked_t freehit;
++      atomic_unchecked_t freemiss;
+       /*
+        * If debugging is enabled, then the allocator can add additional
+diff --git a/include/linux/slub_def.h b/include/linux/slub_def.h
+index 5ad70a6..57f9f65 100644
+--- a/include/linux/slub_def.h
++++ b/include/linux/slub_def.h
+@@ -86,7 +86,7 @@ struct kmem_cache {
+       struct kmem_cache_order_objects max;
+       struct kmem_cache_order_objects min;
+       gfp_t allocflags;       /* gfp flags to use on each alloc */
+-      int refcount;           /* Refcount for slab cache destroy */
++      atomic_t refcount;      /* Refcount for slab cache destroy */
+       void (*ctor)(void *);
+       int inuse;              /* Offset to metadata */
+       int align;              /* Alignment */
+@@ -215,7 +215,7 @@ static __always_inline struct kmem_cache *kmalloc_slab(size_t size)
+ #endif
+ void *kmem_cache_alloc(struct kmem_cache *, gfp_t);
+-void *__kmalloc(size_t size, gfp_t flags);
++void *__kmalloc(size_t size, gfp_t flags) __alloc_size(1);
+ #ifdef CONFIG_KMEMTRACE
+ extern void *kmem_cache_alloc_notrace(struct kmem_cache *s, gfp_t gfpflags);
+diff --git a/include/linux/sonet.h b/include/linux/sonet.h
+index 67ad11f..0bbd8af 100644
+--- a/include/linux/sonet.h
++++ b/include/linux/sonet.h
+@@ -61,7 +61,7 @@ struct sonet_stats {
+ #include <asm/atomic.h>
+ struct k_sonet_stats {
+-#define __HANDLE_ITEM(i) atomic_t i
++#define __HANDLE_ITEM(i) atomic_unchecked_t i
+       __SONET_ITEMS
+ #undef __HANDLE_ITEM
+ };
+diff --git a/include/linux/sunrpc/cache.h b/include/linux/sunrpc/cache.h
+index 6f52b4d..5500323 100644
+--- a/include/linux/sunrpc/cache.h
++++ b/include/linux/sunrpc/cache.h
+@@ -125,7 +125,7 @@ struct cache_detail {
+  */
+ struct cache_req {
+       struct cache_deferred_req *(*defer)(struct cache_req *req);
+-};
++} __no_const;
+ /* this must be embedded in a deferred_request that is being
+  * delayed awaiting cache-fill
+  */
+diff --git a/include/linux/sunrpc/clnt.h b/include/linux/sunrpc/clnt.h
+index 8ed9642..101ceab 100644
+--- a/include/linux/sunrpc/clnt.h
++++ b/include/linux/sunrpc/clnt.h
+@@ -167,9 +167,9 @@ static inline unsigned short rpc_get_port(const struct sockaddr *sap)
+ {
+       switch (sap->sa_family) {
+       case AF_INET:
+-              return ntohs(((struct sockaddr_in *)sap)->sin_port);
++              return ntohs(((const struct sockaddr_in *)sap)->sin_port);
+       case AF_INET6:
+-              return ntohs(((struct sockaddr_in6 *)sap)->sin6_port);
++              return ntohs(((const struct sockaddr_in6 *)sap)->sin6_port);
+       }
+       return 0;
+ }
+@@ -202,7 +202,7 @@ static inline bool __rpc_cmp_addr4(const struct sockaddr *sap1,
+ static inline bool __rpc_copy_addr4(struct sockaddr *dst,
+                                   const struct sockaddr *src)
+ {
+-      const struct sockaddr_in *ssin = (struct sockaddr_in *) src;
++      const struct sockaddr_in *ssin = (const struct sockaddr_in *) src;
+       struct sockaddr_in *dsin = (struct sockaddr_in *) dst;
+       dsin->sin_family = ssin->sin_family;
+@@ -299,7 +299,7 @@ static inline u32 rpc_get_scope_id(const struct sockaddr *sa)
+       if (sa->sa_family != AF_INET6)
+               return 0;
+-      return ((struct sockaddr_in6 *) sa)->sin6_scope_id;
++      return ((const struct sockaddr_in6 *) sa)->sin6_scope_id;
+ }
+ #endif /* __KERNEL__ */
+diff --git a/include/linux/sunrpc/svc_rdma.h b/include/linux/sunrpc/svc_rdma.h
+index c14fe86..393245e 100644
+--- a/include/linux/sunrpc/svc_rdma.h
++++ b/include/linux/sunrpc/svc_rdma.h
+@@ -53,15 +53,15 @@ extern unsigned int svcrdma_ord;
+ extern unsigned int svcrdma_max_requests;
+ extern unsigned int svcrdma_max_req_size;
+-extern atomic_t rdma_stat_recv;
+-extern atomic_t rdma_stat_read;
+-extern atomic_t rdma_stat_write;
+-extern atomic_t rdma_stat_sq_starve;
+-extern atomic_t rdma_stat_rq_starve;
+-extern atomic_t rdma_stat_rq_poll;
+-extern atomic_t rdma_stat_rq_prod;
+-extern atomic_t rdma_stat_sq_poll;
+-extern atomic_t rdma_stat_sq_prod;
++extern atomic_unchecked_t rdma_stat_recv;
++extern atomic_unchecked_t rdma_stat_read;
++extern atomic_unchecked_t rdma_stat_write;
++extern atomic_unchecked_t rdma_stat_sq_starve;
++extern atomic_unchecked_t rdma_stat_rq_starve;
++extern atomic_unchecked_t rdma_stat_rq_poll;
++extern atomic_unchecked_t rdma_stat_rq_prod;
++extern atomic_unchecked_t rdma_stat_sq_poll;
++extern atomic_unchecked_t rdma_stat_sq_prod;
+ #define RPCRDMA_VERSION 1
+diff --git a/include/linux/suspend.h b/include/linux/suspend.h
+index 5e781d8..1e62818 100644
+--- a/include/linux/suspend.h
++++ b/include/linux/suspend.h
+@@ -104,15 +104,15 @@ typedef int __bitwise suspend_state_t;
+  *    which require special recovery actions in that situation.
+  */
+ struct platform_suspend_ops {
+-      int (*valid)(suspend_state_t state);
+-      int (*begin)(suspend_state_t state);
+-      int (*prepare)(void);
+-      int (*prepare_late)(void);
+-      int (*enter)(suspend_state_t state);
+-      void (*wake)(void);
+-      void (*finish)(void);
+-      void (*end)(void);
+-      void (*recover)(void);
++      int (* const valid)(suspend_state_t state);
++      int (* const begin)(suspend_state_t state);
++      int (* const prepare)(void);
++      int (* const prepare_late)(void);
++      int (* const enter)(suspend_state_t state);
++      void (* const wake)(void);
++      void (* const finish)(void);
++      void (* const end)(void);
++      void (* const recover)(void);
+ };
+ #ifdef CONFIG_SUSPEND
+@@ -120,7 +120,7 @@ struct platform_suspend_ops {
+  * suspend_set_ops - set platform dependent suspend operations
+  * @ops: The new suspend operations to set.
+  */
+-extern void suspend_set_ops(struct platform_suspend_ops *ops);
++extern void suspend_set_ops(const struct platform_suspend_ops *ops);
+ extern int suspend_valid_only_mem(suspend_state_t state);
+ /**
+@@ -145,7 +145,7 @@ extern int pm_suspend(suspend_state_t state);
+ #else /* !CONFIG_SUSPEND */
+ #define suspend_valid_only_mem        NULL
+-static inline void suspend_set_ops(struct platform_suspend_ops *ops) {}
++static inline void suspend_set_ops(const struct platform_suspend_ops *ops) {}
+ static inline int pm_suspend(suspend_state_t state) { return -ENOSYS; }
+ #endif /* !CONFIG_SUSPEND */
+@@ -215,16 +215,16 @@ extern void mark_free_pages(struct zone *zone);
+  *    platforms which require special recovery actions in that situation.
+  */
+ struct platform_hibernation_ops {
+-      int (*begin)(void);
+-      void (*end)(void);
+-      int (*pre_snapshot)(void);
+-      void (*finish)(void);
+-      int (*prepare)(void);
+-      int (*enter)(void);
+-      void (*leave)(void);
+-      int (*pre_restore)(void);
+-      void (*restore_cleanup)(void);
+-      void (*recover)(void);
++      int (* const begin)(void);
++      void (* const end)(void);
++      int (* const pre_snapshot)(void);
++      void (* const finish)(void);
++      int (* const prepare)(void);
++      int (* const enter)(void);
++      void (* const leave)(void);
++      int (* const pre_restore)(void);
++      void (* const restore_cleanup)(void);
++      void (* const recover)(void);
+ };
+ #ifdef CONFIG_HIBERNATION
+@@ -243,7 +243,7 @@ extern void swsusp_set_page_free(struct page *);
+ extern void swsusp_unset_page_free(struct page *);
+ extern unsigned long get_safe_page(gfp_t gfp_mask);
+-extern void hibernation_set_ops(struct platform_hibernation_ops *ops);
++extern void hibernation_set_ops(const struct platform_hibernation_ops *ops);
+ extern int hibernate(void);
+ extern bool system_entering_hibernation(void);
+ #else /* CONFIG_HIBERNATION */
+@@ -251,7 +251,7 @@ static inline int swsusp_page_is_forbidden(struct page *p) { return 0; }
+ static inline void swsusp_set_page_free(struct page *p) {}
+ static inline void swsusp_unset_page_free(struct page *p) {}
+-static inline void hibernation_set_ops(struct platform_hibernation_ops *ops) {}
++static inline void hibernation_set_ops(const struct platform_hibernation_ops *ops) {}
+ static inline int hibernate(void) { return -ENOSYS; }
+ static inline bool system_entering_hibernation(void) { return false; }
+ #endif /* CONFIG_HIBERNATION */
+diff --git a/include/linux/sysctl.h b/include/linux/sysctl.h
+index 0eb6942..a805cb6 100644
+--- a/include/linux/sysctl.h
++++ b/include/linux/sysctl.h
+@@ -164,7 +164,11 @@ enum
+       KERN_PANIC_ON_NMI=76, /* int: whether we will panic on an unrecovered */
+ };
+-
++#ifdef CONFIG_PAX_SOFTMODE
++enum {
++      PAX_SOFTMODE=1          /* PaX: disable/enable soft mode */
++};
++#endif
+ /* CTL_VM names: */
+ enum
+@@ -982,6 +986,8 @@ typedef int proc_handler (struct ctl_table *ctl, int write,
+ extern int proc_dostring(struct ctl_table *, int,
+                        void __user *, size_t *, loff_t *);
++extern int proc_dostring_modpriv(struct ctl_table *, int,
++                       void __user *, size_t *, loff_t *);
+ extern int proc_dointvec(struct ctl_table *, int,
+                        void __user *, size_t *, loff_t *);
+ extern int proc_dointvec_minmax(struct ctl_table *, int,
+@@ -1003,6 +1009,7 @@ extern int do_sysctl (int __user *name, int nlen,
+ extern ctl_handler sysctl_data;
+ extern ctl_handler sysctl_string;
++extern ctl_handler sysctl_string_modpriv;
+ extern ctl_handler sysctl_intvec;
+ extern ctl_handler sysctl_jiffies;
+ extern ctl_handler sysctl_ms_jiffies;
+diff --git a/include/linux/sysfs.h b/include/linux/sysfs.h
+index 9d68fed..71f02cc 100644
+--- a/include/linux/sysfs.h
++++ b/include/linux/sysfs.h
+@@ -75,8 +75,8 @@ struct bin_attribute {
+ };
+ struct sysfs_ops {
+-      ssize_t (*show)(struct kobject *, struct attribute *,char *);
+-      ssize_t (*store)(struct kobject *,struct attribute *,const char *, size_t);
++      ssize_t (* const show)(struct kobject *, struct attribute *,char *);
++      ssize_t (* const store)(struct kobject *,struct attribute *,const char *, size_t);
+ };
+ struct sysfs_dirent;
+diff --git a/include/linux/syslog.h b/include/linux/syslog.h
+new file mode 100644
+index 0000000..3891139
+--- /dev/null
++++ b/include/linux/syslog.h
+@@ -0,0 +1,52 @@
++/*  Syslog internals
++ *
++ *  Copyright 2010 Canonical, Ltd.
++ *  Author: Kees Cook <kees.cook@canonical.com>
++ *
++ *  This program is free software; you can redistribute it and/or modify
++ *  it under the terms of the GNU General Public License as published by
++ *  the Free Software Foundation; either version 2, or (at your option)
++ *  any later version.
++ *
++ *  This program is distributed in the hope that it will be useful,
++ *  but WITHOUT ANY WARRANTY; without even the implied warranty of
++ *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the
++ *  GNU General Public License for more details.
++ *
++ *  You should have received a copy of the GNU General Public License
++ *  along with this program; see the file COPYING.  If not, write to
++ *  the Free Software Foundation, 675 Mass Ave, Cambridge, MA 02139, USA.
++ */
++
++#ifndef _LINUX_SYSLOG_H
++#define _LINUX_SYSLOG_H
++
++/* Close the log.  Currently a NOP. */
++#define SYSLOG_ACTION_CLOSE          0
++/* Open the log. Currently a NOP. */
++#define SYSLOG_ACTION_OPEN           1
++/* Read from the log. */
++#define SYSLOG_ACTION_READ           2
++/* Read all messages remaining in the ring buffer. */
++#define SYSLOG_ACTION_READ_ALL       3
++/* Read and clear all messages remaining in the ring buffer */
++#define SYSLOG_ACTION_READ_CLEAR     4
++/* Clear ring buffer. */
++#define SYSLOG_ACTION_CLEAR          5
++/* Disable printk's to console */
++#define SYSLOG_ACTION_CONSOLE_OFF    6
++/* Enable printk's to console */
++#define SYSLOG_ACTION_CONSOLE_ON     7
++/* Set level of messages printed to console */
++#define SYSLOG_ACTION_CONSOLE_LEVEL  8
++/* Return number of unread characters in the log buffer */
++#define SYSLOG_ACTION_SIZE_UNREAD    9
++/* Return size of the log buffer */
++#define SYSLOG_ACTION_SIZE_BUFFER   10
++
++#define SYSLOG_FROM_CALL 0
++#define SYSLOG_FROM_FILE 1
++
++int do_syslog(int type, char __user *buf, int count, bool from_file);
++
++#endif /* _LINUX_SYSLOG_H */
+diff --git a/include/linux/thread_info.h b/include/linux/thread_info.h
+index a8cc4e1..98d3b85 100644
+--- a/include/linux/thread_info.h
++++ b/include/linux/thread_info.h
+@@ -23,7 +23,7 @@ struct restart_block {
+               };
+               /* For futex_wait and futex_wait_requeue_pi */
+               struct {
+-                      u32 *uaddr;
++                      u32 __user *uaddr;
+                       u32 val;
+                       u32 flags;
+                       u32 bitset;
+diff --git a/include/linux/tracehook.h b/include/linux/tracehook.h
+index 1eb44a9..f582df3 100644
+--- a/include/linux/tracehook.h
++++ b/include/linux/tracehook.h
+@@ -69,12 +69,12 @@ static inline int tracehook_expect_breakpoints(struct task_struct *task)
+ /*
+  * ptrace report for syscall entry and exit looks identical.
+  */
+-static inline void ptrace_report_syscall(struct pt_regs *regs)
++static inline int ptrace_report_syscall(struct pt_regs *regs)
+ {
+       int ptrace = task_ptrace(current);
+       if (!(ptrace & PT_PTRACED))
+-              return;
++              return 0;
+       ptrace_notify(SIGTRAP | ((ptrace & PT_TRACESYSGOOD) ? 0x80 : 0));
+@@ -87,6 +87,8 @@ static inline void ptrace_report_syscall(struct pt_regs *regs)
+               send_sig(current->exit_code, current, 1);
+               current->exit_code = 0;
+       }
++
++      return fatal_signal_pending(current);
+ }
+ /**
+@@ -111,8 +113,7 @@ static inline void ptrace_report_syscall(struct pt_regs *regs)
+ static inline __must_check int tracehook_report_syscall_entry(
+       struct pt_regs *regs)
+ {
+-      ptrace_report_syscall(regs);
+-      return 0;
++      return ptrace_report_syscall(regs);
+ }
+ /**
+diff --git a/include/linux/tty.h b/include/linux/tty.h
+index e9c57e9..ee6d489 100644
+--- a/include/linux/tty.h
++++ b/include/linux/tty.h
+@@ -493,7 +493,6 @@ extern void tty_ldisc_begin(void);
+ /* This last one is just for the tty layer internals and shouldn't be used elsewhere */
+ extern void tty_ldisc_enable(struct tty_struct *tty);
+-
+ /* n_tty.c */
+ extern struct tty_ldisc_ops tty_ldisc_N_TTY;
+diff --git a/include/linux/tty_ldisc.h b/include/linux/tty_ldisc.h
+index 0c4ee9b..9f7c426 100644
+--- a/include/linux/tty_ldisc.h
++++ b/include/linux/tty_ldisc.h
+@@ -139,7 +139,7 @@ struct tty_ldisc_ops {
+       struct  module *owner;
+       
+-      int refcount;
++      atomic_t refcount;
+ };
+ struct tty_ldisc {
+diff --git a/include/linux/types.h b/include/linux/types.h
+index c42724f..d190eee 100644
+--- a/include/linux/types.h
++++ b/include/linux/types.h
+@@ -191,10 +191,26 @@ typedef struct {
+       volatile int counter;
+ } atomic_t;
++#ifdef CONFIG_PAX_REFCOUNT
++typedef struct {
++      volatile int counter;
++} atomic_unchecked_t;
++#else
++typedef atomic_t atomic_unchecked_t;
++#endif
++
+ #ifdef CONFIG_64BIT
+ typedef struct {
+       volatile long counter;
+ } atomic64_t;
++
++#ifdef CONFIG_PAX_REFCOUNT
++typedef struct {
++      volatile long counter;
++} atomic64_unchecked_t;
++#else
++typedef atomic64_t atomic64_unchecked_t;
++#endif
+ #endif
+ struct ustat {
+diff --git a/include/linux/uaccess.h b/include/linux/uaccess.h
+index 6b58367..53a3e8e 100644
+--- a/include/linux/uaccess.h
++++ b/include/linux/uaccess.h
+@@ -76,11 +76,11 @@ static inline unsigned long __copy_from_user_nocache(void *to,
+               long ret;                               \
+               mm_segment_t old_fs = get_fs();         \
+                                                       \
+-              set_fs(KERNEL_DS);                      \
+               pagefault_disable();                    \
+-              ret = __copy_from_user_inatomic(&(retval), (__force typeof(retval) __user *)(addr), sizeof(retval));            \
+-              pagefault_enable();                     \
++              set_fs(KERNEL_DS);                      \
++              ret = __copy_from_user_inatomic(&(retval), (typeof(retval) __force_user *)(addr), sizeof(retval));              \
+               set_fs(old_fs);                         \
++              pagefault_enable();                     \
+               ret;                                    \
+       })
+@@ -93,7 +93,7 @@ static inline unsigned long __copy_from_user_nocache(void *to,
+  * Safely read from address @src to the buffer at @dst.  If a kernel fault
+  * happens, handle that and return -EFAULT.
+  */
+-extern long probe_kernel_read(void *dst, void *src, size_t size);
++extern long probe_kernel_read(void *dst, const void *src, size_t size);
+ /*
+  * probe_kernel_write(): safely attempt to write to a location
+@@ -104,6 +104,6 @@ extern long probe_kernel_read(void *dst, void *src, size_t size);
+  * Safely write to address @dst from the buffer at @src.  If a kernel fault
+  * happens, handle that and return -EFAULT.
+  */
+-extern long probe_kernel_write(void *dst, void *src, size_t size);
++extern long probe_kernel_write(void *dst, const void *src, size_t size);
+ #endif                /* __LINUX_UACCESS_H__ */
+diff --git a/include/linux/unaligned/access_ok.h b/include/linux/unaligned/access_ok.h
+index 99c1b4d..bb94261 100644
+--- a/include/linux/unaligned/access_ok.h
++++ b/include/linux/unaligned/access_ok.h
+@@ -6,32 +6,32 @@
+ static inline u16 get_unaligned_le16(const void *p)
+ {
+-      return le16_to_cpup((__le16 *)p);
++      return le16_to_cpup((const __le16 *)p);
+ }
+ static inline u32 get_unaligned_le32(const void *p)
+ {
+-      return le32_to_cpup((__le32 *)p);
++      return le32_to_cpup((const __le32 *)p);
+ }
+ static inline u64 get_unaligned_le64(const void *p)
+ {
+-      return le64_to_cpup((__le64 *)p);
++      return le64_to_cpup((const __le64 *)p);
+ }
+ static inline u16 get_unaligned_be16(const void *p)
+ {
+-      return be16_to_cpup((__be16 *)p);
++      return be16_to_cpup((const __be16 *)p);
+ }
+ static inline u32 get_unaligned_be32(const void *p)
+ {
+-      return be32_to_cpup((__be32 *)p);
++      return be32_to_cpup((const __be32 *)p);
+ }
+ static inline u64 get_unaligned_be64(const void *p)
+ {
+-      return be64_to_cpup((__be64 *)p);
++      return be64_to_cpup((const __be64 *)p);
+ }
+ static inline void put_unaligned_le16(u16 val, void *p)
+diff --git a/include/linux/vermagic.h b/include/linux/vermagic.h
+index 79b9837..b5a56f9 100644
+--- a/include/linux/vermagic.h
++++ b/include/linux/vermagic.h
+@@ -26,9 +26,35 @@
+ #define MODULE_ARCH_VERMAGIC ""
+ #endif
++#ifdef CONFIG_PAX_REFCOUNT
++#define MODULE_PAX_REFCOUNT "REFCOUNT "
++#else
++#define MODULE_PAX_REFCOUNT ""
++#endif
++
++#ifdef CONSTIFY_PLUGIN
++#define MODULE_CONSTIFY_PLUGIN "CONSTIFY_PLUGIN "
++#else
++#define MODULE_CONSTIFY_PLUGIN ""
++#endif
++
++#ifdef STACKLEAK_PLUGIN
++#define MODULE_STACKLEAK_PLUGIN "STACKLEAK_PLUGIN "
++#else
++#define MODULE_STACKLEAK_PLUGIN ""
++#endif
++
++#ifdef CONFIG_GRKERNSEC
++#define MODULE_GRSEC "GRSEC "
++#else
++#define MODULE_GRSEC ""
++#endif
++
+ #define VERMAGIC_STRING                                               \
+       UTS_RELEASE " "                                                 \
+       MODULE_VERMAGIC_SMP MODULE_VERMAGIC_PREEMPT                     \
+       MODULE_VERMAGIC_MODULE_UNLOAD MODULE_VERMAGIC_MODVERSIONS       \
+-      MODULE_ARCH_VERMAGIC
++      MODULE_ARCH_VERMAGIC                                            \
++      MODULE_PAX_REFCOUNT MODULE_CONSTIFY_PLUGIN MODULE_STACKLEAK_PLUGIN \
++      MODULE_GRSEC
+diff --git a/include/linux/vmalloc.h b/include/linux/vmalloc.h
+index 819a634..462ac12 100644
+--- a/include/linux/vmalloc.h
++++ b/include/linux/vmalloc.h
+@@ -14,6 +14,11 @@ struct vm_area_struct;              /* vma defining user mapping in mm_types.h */
+ #define VM_USERMAP    0x00000008      /* suitable for remap_vmalloc_range */
+ #define VM_VPAGES     0x00000010      /* buffer for pages was vmalloc'ed */
+ #define VM_UNLIST     0x00000020      /* vm_struct is not listed in vmlist */
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_X86) && defined(CONFIG_PAX_KERNEXEC)
++#define VM_KERNEXEC   0x00000040      /* allocate from executable kernel memory range */
++#endif
++
+ /* bits [20..32] reserved for arch specific ioremap internals */
+ /*
+@@ -124,4 +129,81 @@ struct vm_struct **pcpu_get_vm_areas(const unsigned long *offsets,
+ void pcpu_free_vm_areas(struct vm_struct **vms, int nr_vms);
++#define vmalloc(x)                                            \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "vmalloc size overflow\n"))  \
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = vmalloc((unsigned long)___x);       \
++      ___retval;                                              \
++})
++
++#define __vmalloc(x, y, z)                                    \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "__vmalloc size overflow\n"))\
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = __vmalloc((unsigned long)___x, (y), (z));\
++      ___retval;                                              \
++})
++
++#define vmalloc_user(x)                                               \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "vmalloc_user size overflow\n"))\
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = vmalloc_user((unsigned long)___x);  \
++      ___retval;                                              \
++})
++
++#define vmalloc_exec(x)                                               \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "vmalloc_exec size overflow\n"))\
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = vmalloc_exec((unsigned long)___x);  \
++      ___retval;                                              \
++})
++
++#define vmalloc_node(x, y)                                    \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "vmalloc_node size overflow\n"))\
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = vmalloc_node((unsigned long)___x, (y));\
++      ___retval;                                              \
++})
++
++#define vmalloc_32(x)                                         \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "vmalloc_32 size overflow\n"))\
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = vmalloc_32((unsigned long)___x);    \
++      ___retval;                                              \
++})
++
++#define vmalloc_32_user(x)                                    \
++({                                                            \
++      void *___retval;                                        \
++      intoverflow_t ___x = (intoverflow_t)x;                  \
++      if (WARN(___x > ULONG_MAX, "vmalloc_32_user size overflow\n"))\
++              ___retval = NULL;                               \
++      else                                                    \
++              ___retval = vmalloc_32_user((unsigned long)___x);\
++      ___retval;                                              \
++})
++
+ #endif /* _LINUX_VMALLOC_H */
+diff --git a/include/linux/vmstat.h b/include/linux/vmstat.h
+index 13070d6..aa4159a 100644
+--- a/include/linux/vmstat.h
++++ b/include/linux/vmstat.h
+@@ -136,18 +136,18 @@ static inline void vm_events_fold_cpu(int cpu)
+ /*
+  * Zone based page accounting with per cpu differentials.
+  */
+-extern atomic_long_t vm_stat[NR_VM_ZONE_STAT_ITEMS];
++extern atomic_long_unchecked_t vm_stat[NR_VM_ZONE_STAT_ITEMS];
+ static inline void zone_page_state_add(long x, struct zone *zone,
+                                enum zone_stat_item item)
+ {
+-      atomic_long_add(x, &zone->vm_stat[item]);
+-      atomic_long_add(x, &vm_stat[item]);
++      atomic_long_add_unchecked(x, &zone->vm_stat[item]);
++      atomic_long_add_unchecked(x, &vm_stat[item]);
+ }
+ static inline unsigned long global_page_state(enum zone_stat_item item)
+ {
+-      long x = atomic_long_read(&vm_stat[item]);
++      long x = atomic_long_read_unchecked(&vm_stat[item]);
+ #ifdef CONFIG_SMP
+       if (x < 0)
+               x = 0;
+@@ -158,7 +158,7 @@ static inline unsigned long global_page_state(enum zone_stat_item item)
+ static inline unsigned long zone_page_state(struct zone *zone,
+                                       enum zone_stat_item item)
+ {
+-      long x = atomic_long_read(&zone->vm_stat[item]);
++      long x = atomic_long_read_unchecked(&zone->vm_stat[item]);
+ #ifdef CONFIG_SMP
+       if (x < 0)
+               x = 0;
+@@ -175,7 +175,7 @@ static inline unsigned long zone_page_state(struct zone *zone,
+ static inline unsigned long zone_page_state_snapshot(struct zone *zone,
+                                       enum zone_stat_item item)
+ {
+-      long x = atomic_long_read(&zone->vm_stat[item]);
++      long x = atomic_long_read_unchecked(&zone->vm_stat[item]);
+ #ifdef CONFIG_SMP
+       int cpu;
+@@ -264,8 +264,8 @@ static inline void __mod_zone_page_state(struct zone *zone,
+ static inline void __inc_zone_state(struct zone *zone, enum zone_stat_item item)
+ {
+-      atomic_long_inc(&zone->vm_stat[item]);
+-      atomic_long_inc(&vm_stat[item]);
++      atomic_long_inc_unchecked(&zone->vm_stat[item]);
++      atomic_long_inc_unchecked(&vm_stat[item]);
+ }
+ static inline void __inc_zone_page_state(struct page *page,
+@@ -276,8 +276,8 @@ static inline void __inc_zone_page_state(struct page *page,
+ static inline void __dec_zone_state(struct zone *zone, enum zone_stat_item item)
+ {
+-      atomic_long_dec(&zone->vm_stat[item]);
+-      atomic_long_dec(&vm_stat[item]);
++      atomic_long_dec_unchecked(&zone->vm_stat[item]);
++      atomic_long_dec_unchecked(&vm_stat[item]);
+ }
+ static inline void __dec_zone_page_state(struct page *page,
+diff --git a/include/linux/xattr.h b/include/linux/xattr.h
+index 5c84af8..1a3b6e2 100644
+--- a/include/linux/xattr.h
++++ b/include/linux/xattr.h
+@@ -33,6 +33,11 @@
+ #define XATTR_USER_PREFIX "user."
+ #define XATTR_USER_PREFIX_LEN (sizeof (XATTR_USER_PREFIX) - 1)
++/* User namespace */
++#define XATTR_PAX_PREFIX XATTR_USER_PREFIX "pax."
++#define XATTR_PAX_FLAGS_SUFFIX "flags"
++#define XATTR_NAME_PAX_FLAGS XATTR_PAX_PREFIX XATTR_PAX_FLAGS_SUFFIX
++
+ struct inode;
+ struct dentry;
+diff --git a/include/media/saa7146_vv.h b/include/media/saa7146_vv.h
+index eed5fcc..5080d24 100644
+--- a/include/media/saa7146_vv.h
++++ b/include/media/saa7146_vv.h
+@@ -167,7 +167,7 @@ struct saa7146_ext_vv
+       int (*std_callback)(struct saa7146_dev*, struct saa7146_standard *);
+       /* the extension can override this */
+-      struct v4l2_ioctl_ops ops;
++      v4l2_ioctl_ops_no_const ops;
+       /* pointer to the saa7146 core ops */
+       const struct v4l2_ioctl_ops *core_ops;
+diff --git a/include/media/v4l2-dev.h b/include/media/v4l2-dev.h
+index 73c9867..2da8837 100644
+--- a/include/media/v4l2-dev.h
++++ b/include/media/v4l2-dev.h
+@@ -34,7 +34,7 @@ struct v4l2_device;
+ #define V4L2_FL_UNREGISTERED  (0)
+ struct v4l2_file_operations {
+-      struct module *owner;
++      struct module * const owner;
+       ssize_t (*read) (struct file *, char __user *, size_t, loff_t *);
+       ssize_t (*write) (struct file *, const char __user *, size_t, loff_t *);
+       unsigned int (*poll) (struct file *, struct poll_table_struct *);
+@@ -46,6 +46,7 @@ struct v4l2_file_operations {
+       int (*open) (struct file *);
+       int (*release) (struct file *);
+ };
++typedef struct v4l2_file_operations __no_const v4l2_file_operations_no_const;
+ /*
+  * Newer version of video_device, handled by videodev2.c
+diff --git a/include/media/v4l2-device.h b/include/media/v4l2-device.h
+index 5d5d550..f559ef1 100644
+--- a/include/media/v4l2-device.h
++++ b/include/media/v4l2-device.h
+@@ -71,7 +71,7 @@ int __must_check v4l2_device_register(struct device *dev, struct v4l2_device *v4
+    this function returns 0. If the name ends with a digit (e.g. cx18),
+    then the name will be set to cx18-0 since cx180 looks really odd. */
+ int v4l2_device_set_name(struct v4l2_device *v4l2_dev, const char *basename,
+-                                              atomic_t *instance);
++                                              atomic_unchecked_t *instance);
+ /* Set v4l2_dev->dev to NULL. Call when the USB parent disconnects.
+    Since the parent disappears this ensures that v4l2_dev doesn't have an
+diff --git a/include/media/v4l2-ioctl.h b/include/media/v4l2-ioctl.h
+index 7a4529d..7244290 100644
+--- a/include/media/v4l2-ioctl.h
++++ b/include/media/v4l2-ioctl.h
+@@ -243,6 +243,7 @@ struct v4l2_ioctl_ops {
+       long (*vidioc_default)         (struct file *file, void *fh,
+                                       int cmd, void *arg);
+ };
++typedef struct v4l2_ioctl_ops __no_const v4l2_ioctl_ops_no_const;
+ /* v4l debugging and diagnostics */
+diff --git a/include/net/flow.h b/include/net/flow.h
+index 809970b..c3df4f3 100644
+--- a/include/net/flow.h
++++ b/include/net/flow.h
+@@ -92,7 +92,7 @@ typedef int (*flow_resolve_t)(struct net *net, struct flowi *key, u16 family,
+ extern void *flow_cache_lookup(struct net *net, struct flowi *key, u16 family,
+                              u8 dir, flow_resolve_t resolver);
+ extern void flow_cache_flush(void);
+-extern atomic_t flow_cache_genid;
++extern atomic_unchecked_t flow_cache_genid;
+ static inline int flow_cache_uli_match(struct flowi *fl1, struct flowi *fl2)
+ {
+diff --git a/include/net/inetpeer.h b/include/net/inetpeer.h
+index 15e1f8fe..668837c 100644
+--- a/include/net/inetpeer.h
++++ b/include/net/inetpeer.h
+@@ -24,7 +24,7 @@ struct inet_peer
+       __u32                   dtime;          /* the time of last use of not
+                                                * referenced entries */
+       atomic_t                refcnt;
+-      atomic_t                rid;            /* Frag reception counter */
++      atomic_unchecked_t      rid;            /* Frag reception counter */
+       __u32                   tcp_ts;
+       unsigned long           tcp_ts_stamp;
+ };
+diff --git a/include/net/ip_vs.h b/include/net/ip_vs.h
+index 98978e7..2243a3d 100644
+--- a/include/net/ip_vs.h
++++ b/include/net/ip_vs.h
+@@ -365,7 +365,7 @@ struct ip_vs_conn {
+       struct ip_vs_conn       *control;       /* Master control connection */
+       atomic_t                n_control;      /* Number of controlled ones */
+       struct ip_vs_dest       *dest;          /* real server */
+-      atomic_t                in_pkts;        /* incoming packet counter */
++      atomic_unchecked_t      in_pkts;        /* incoming packet counter */
+       /* packet transmitter for different forwarding methods.  If it
+          mangles the packet, it must return NF_DROP or better NF_STOLEN,
+@@ -466,7 +466,7 @@ struct ip_vs_dest {
+       union nf_inet_addr      addr;           /* IP address of the server */
+       __be16                  port;           /* port number of the server */
+       volatile unsigned       flags;          /* dest status flags */
+-      atomic_t                conn_flags;     /* flags to copy to conn */
++      atomic_unchecked_t      conn_flags;     /* flags to copy to conn */
+       atomic_t                weight;         /* server weight */
+       atomic_t                refcnt;         /* reference counter */
+diff --git a/include/net/irda/ircomm_core.h b/include/net/irda/ircomm_core.h
+index 69b610a..fe3962c 100644
+--- a/include/net/irda/ircomm_core.h
++++ b/include/net/irda/ircomm_core.h
+@@ -51,7 +51,7 @@ typedef struct {
+       int (*connect_response)(struct ircomm_cb *, struct sk_buff *);
+       int (*disconnect_request)(struct ircomm_cb *, struct sk_buff *, 
+                                 struct ircomm_info *);        
+-} call_t;
++} __no_const call_t;
+ struct ircomm_cb {
+       irda_queue_t queue;
+diff --git a/include/net/irda/ircomm_tty.h b/include/net/irda/ircomm_tty.h
+index eea2e61..08c692d 100644
+--- a/include/net/irda/ircomm_tty.h
++++ b/include/net/irda/ircomm_tty.h
+@@ -35,6 +35,7 @@
+ #include <linux/termios.h>
+ #include <linux/timer.h>
+ #include <linux/tty.h>                /* struct tty_struct */
++#include <asm/local.h>
+ #include <net/irda/irias_object.h>
+ #include <net/irda/ircomm_core.h>
+@@ -105,8 +106,8 @@ struct ircomm_tty_cb {
+         unsigned short    close_delay;
+         unsigned short    closing_wait; /* time to wait before closing */
+-      int  open_count;
+-      int  blocked_open;      /* # of blocked opens */
++      local_t open_count;
++      local_t blocked_open;   /* # of blocked opens */
+       /* Protect concurent access to :
+        *      o self->open_count
+diff --git a/include/net/iucv/af_iucv.h b/include/net/iucv/af_iucv.h
+index f82a1e8..82d81e8 100644
+--- a/include/net/iucv/af_iucv.h
++++ b/include/net/iucv/af_iucv.h
+@@ -87,7 +87,7 @@ struct iucv_sock {
+ struct iucv_sock_list {
+       struct hlist_head head;
+       rwlock_t          lock;
+-      atomic_t          autobind_name;
++      atomic_unchecked_t autobind_name;
+ };
+ unsigned int iucv_sock_poll(struct file *file, struct socket *sock,
+diff --git a/include/net/lapb.h b/include/net/lapb.h
+index 96cb5dd..25e8d4f 100644
+--- a/include/net/lapb.h
++++ b/include/net/lapb.h
+@@ -95,7 +95,7 @@ struct lapb_cb {
+       struct sk_buff_head     write_queue;
+       struct sk_buff_head     ack_queue;
+       unsigned char           window;
+-      struct lapb_register_struct callbacks;
++      struct lapb_register_struct *callbacks;
+       /* FRMR control information */
+       struct lapb_frame       frmr_data;
+diff --git a/include/net/neighbour.h b/include/net/neighbour.h
+index 3817fda..cdb2343 100644
+--- a/include/net/neighbour.h
++++ b/include/net/neighbour.h
+@@ -131,7 +131,7 @@ struct neigh_ops
+       int                     (*connected_output)(struct sk_buff*);
+       int                     (*hh_output)(struct sk_buff*);
+       int                     (*queue_xmit)(struct sk_buff*);
+-};
++} __do_const;
+ struct pneigh_entry
+ {
+diff --git a/include/net/netlink.h b/include/net/netlink.h
+index c344646..4778c71 100644
+--- a/include/net/netlink.h
++++ b/include/net/netlink.h
+@@ -335,7 +335,7 @@ static inline int nlmsg_ok(const struct nlmsghdr *nlh, int remaining)
+ {
+       return (remaining >= (int) sizeof(struct nlmsghdr) &&
+               nlh->nlmsg_len >= sizeof(struct nlmsghdr) &&
+-              nlh->nlmsg_len <= remaining);
++              nlh->nlmsg_len <= (unsigned int)remaining);
+ }
+ /**
+@@ -558,7 +558,7 @@ static inline void *nlmsg_get_pos(struct sk_buff *skb)
+ static inline void nlmsg_trim(struct sk_buff *skb, const void *mark)
+ {
+       if (mark)
+-              skb_trim(skb, (unsigned char *) mark - skb->data);
++              skb_trim(skb, (const unsigned char *) mark - skb->data);
+ }
+ /**
+diff --git a/include/net/netns/ipv4.h b/include/net/netns/ipv4.h
+index 9a4b8b7..e49e077 100644
+--- a/include/net/netns/ipv4.h
++++ b/include/net/netns/ipv4.h
+@@ -54,7 +54,7 @@ struct netns_ipv4 {
+       int current_rt_cache_rebuild_count;
+       struct timer_list rt_secret_timer;
+-      atomic_t rt_genid;
++      atomic_unchecked_t rt_genid;
+ #ifdef CONFIG_IP_MROUTE
+       struct sock             *mroute_sk;
+diff --git a/include/net/sctp/sctp.h b/include/net/sctp/sctp.h
+index 8a6d529..171f401 100644
+--- a/include/net/sctp/sctp.h
++++ b/include/net/sctp/sctp.h
+@@ -305,8 +305,8 @@ extern int sctp_debug_flag;
+ #else /* SCTP_DEBUG */
+-#define SCTP_DEBUG_PRINTK(whatever...)
+-#define SCTP_DEBUG_PRINTK_IPADDR(whatever...)
++#define SCTP_DEBUG_PRINTK(whatever...) do {} while (0)
++#define SCTP_DEBUG_PRINTK_IPADDR(whatever...) do {} while (0)
+ #define SCTP_ENABLE_DEBUG
+ #define SCTP_DISABLE_DEBUG
+ #define SCTP_ASSERT(expr, str, func)
+diff --git a/include/net/secure_seq.h b/include/net/secure_seq.h
+index d97f689..f3b90ab 100644
+--- a/include/net/secure_seq.h
++++ b/include/net/secure_seq.h
+@@ -7,14 +7,14 @@ extern __u32 secure_ip_id(__be32 daddr);
+ extern __u32 secure_ipv6_id(const __be32 daddr[4]);
+ extern u32 secure_ipv4_port_ephemeral(__be32 saddr, __be32 daddr, __be16 dport);
+ extern u32 secure_ipv6_port_ephemeral(const __be32 *saddr, const __be32 *daddr,
+-                                    __be16 dport);
++                                      __be16 dport);
+ extern __u32 secure_tcp_sequence_number(__be32 saddr, __be32 daddr,
+                                       __be16 sport, __be16 dport);
+ extern __u32 secure_tcpv6_sequence_number(__be32 *saddr, __be32 *daddr,
+-                                        __be16 sport, __be16 dport);
++                                      __be16 sport, __be16 dport);
+ extern u64 secure_dccp_sequence_number(__be32 saddr, __be32 daddr,
+-                                     __be16 sport, __be16 dport);
++                                      __be16 sport, __be16 dport);
+ extern u64 secure_dccpv6_sequence_number(__be32 *saddr, __be32 *daddr,
+-                                       __be16 sport, __be16 dport);
++                                      __be16 sport, __be16 dport);
+ #endif /* _NET_SECURE_SEQ */
+diff --git a/include/net/sock.h b/include/net/sock.h
+index 9f96394..76fc9c7 100644
+--- a/include/net/sock.h
++++ b/include/net/sock.h
+@@ -272,7 +272,7 @@ struct sock {
+       rwlock_t                sk_callback_lock;
+       int                     sk_err,
+                               sk_err_soft;
+-      atomic_t                sk_drops;
++      atomic_unchecked_t      sk_drops;
+       unsigned short          sk_ack_backlog;
+       unsigned short          sk_max_ack_backlog;
+       __u32                   sk_priority;
+@@ -737,7 +737,7 @@ static inline void sk_refcnt_debug_release(const struct sock *sk)
+ extern void sock_prot_inuse_add(struct net *net, struct proto *prot, int inc);
+ extern int sock_prot_inuse_get(struct net *net, struct proto *proto);
+ #else
+-static void inline sock_prot_inuse_add(struct net *net, struct proto *prot,
++static inline void sock_prot_inuse_add(struct net *net, struct proto *prot,
+               int inc)
+ {
+ }
+diff --git a/include/net/tcp.h b/include/net/tcp.h
+index 6cfe18b..dd21acb 100644
+--- a/include/net/tcp.h
++++ b/include/net/tcp.h
+@@ -1444,8 +1444,8 @@ enum tcp_seq_states {
+ struct tcp_seq_afinfo {
+       char                    *name;
+       sa_family_t             family;
+-      struct file_operations  seq_fops;
+-      struct seq_operations   seq_ops;
++      file_operations_no_const        seq_fops;
++      seq_operations_no_const seq_ops;
+ };
+ struct tcp_iter_state {
+diff --git a/include/net/udp.h b/include/net/udp.h
+index f98abd2..b4b042f 100644
+--- a/include/net/udp.h
++++ b/include/net/udp.h
+@@ -187,8 +187,8 @@ struct udp_seq_afinfo {
+       char                    *name;
+       sa_family_t             family;
+       struct udp_table        *udp_table;
+-      struct file_operations  seq_fops;
+-      struct seq_operations   seq_ops;
++      file_operations_no_const        seq_fops;
++      seq_operations_no_const seq_ops;
+ };
+ struct udp_iter_state {
+diff --git a/include/rdma/iw_cm.h b/include/rdma/iw_cm.h
+index cbb822e..e9c1cbe 100644
+--- a/include/rdma/iw_cm.h
++++ b/include/rdma/iw_cm.h
+@@ -129,7 +129,7 @@ struct iw_cm_verbs {
+                                        int backlog);
+       int             (*destroy_listen)(struct iw_cm_id *cm_id);
+-};
++} __no_const;
+ /**
+  * iw_create_cm_id - Create an IW CM identifier.
+diff --git a/include/scsi/libfc.h b/include/scsi/libfc.h
+index 09a124b..caa8ca8 100644
+--- a/include/scsi/libfc.h
++++ b/include/scsi/libfc.h
+@@ -675,6 +675,7 @@ struct libfc_function_template {
+        */
+       void (*disc_stop_final) (struct fc_lport *);
+ };
++typedef struct libfc_function_template __no_const libfc_function_template_no_const;
+ /* information used by the discovery layer */
+ struct fc_disc {
+@@ -707,7 +708,7 @@ struct fc_lport {
+       struct fc_disc          disc;
+       /* Operational Information */
+-      struct libfc_function_template tt;
++      libfc_function_template_no_const tt;
+       u8                      link_up;
+       u8                      qfull;
+       enum fc_lport_state     state;
+diff --git a/include/scsi/scsi_device.h b/include/scsi/scsi_device.h
+index de8e180..f15e0d7 100644
+--- a/include/scsi/scsi_device.h
++++ b/include/scsi/scsi_device.h
+@@ -156,9 +156,9 @@ struct scsi_device {
+       unsigned int max_device_blocked; /* what device_blocked counts down from  */
+ #define SCSI_DEFAULT_DEVICE_BLOCKED   3
+-      atomic_t iorequest_cnt;
+-      atomic_t iodone_cnt;
+-      atomic_t ioerr_cnt;
++      atomic_unchecked_t iorequest_cnt;
++      atomic_unchecked_t iodone_cnt;
++      atomic_unchecked_t ioerr_cnt;
+       struct device           sdev_gendev,
+                               sdev_dev;
+diff --git a/include/scsi/scsi_transport_fc.h b/include/scsi/scsi_transport_fc.h
+index fc50bd6..81ba9cb 100644
+--- a/include/scsi/scsi_transport_fc.h
++++ b/include/scsi/scsi_transport_fc.h
+@@ -708,7 +708,7 @@ struct fc_function_template {
+       unsigned long   show_host_system_hostname:1;
+       unsigned long   disable_target_scan:1;
+-};
++} __do_const;
+ /**
+diff --git a/include/sound/ac97_codec.h b/include/sound/ac97_codec.h
+index 3dae3f7..8440d6f 100644
+--- a/include/sound/ac97_codec.h
++++ b/include/sound/ac97_codec.h
+@@ -419,15 +419,15 @@
+ struct snd_ac97;
+ struct snd_ac97_build_ops {
+-      int (*build_3d) (struct snd_ac97 *ac97);
+-      int (*build_specific) (struct snd_ac97 *ac97);
+-      int (*build_spdif) (struct snd_ac97 *ac97);
+-      int (*build_post_spdif) (struct snd_ac97 *ac97);
++      int (* const build_3d) (struct snd_ac97 *ac97);
++      int (* const build_specific) (struct snd_ac97 *ac97);
++      int (* const build_spdif) (struct snd_ac97 *ac97);
++      int (* const build_post_spdif) (struct snd_ac97 *ac97);
+ #ifdef CONFIG_PM
+-      void (*suspend) (struct snd_ac97 *ac97);
+-      void (*resume) (struct snd_ac97 *ac97);
++      void (* const suspend) (struct snd_ac97 *ac97);
++      void (* const resume) (struct snd_ac97 *ac97);
+ #endif
+-      void (*update_jacks) (struct snd_ac97 *ac97);   /* for jack-sharing */
++      void (* const update_jacks) (struct snd_ac97 *ac97);    /* for jack-sharing */
+ };
+ struct snd_ac97_bus_ops {
+@@ -477,7 +477,7 @@ struct snd_ac97_template {
+ struct snd_ac97 {
+       /* -- lowlevel (hardware) driver specific -- */
+-      struct snd_ac97_build_ops * build_ops;
++      const struct snd_ac97_build_ops * build_ops;
+       void *private_data;
+       void (*private_free) (struct snd_ac97 *ac97);
+       /* --- */
+diff --git a/include/sound/ak4xxx-adda.h b/include/sound/ak4xxx-adda.h
+index 891cf1a..a94ba2b 100644
+--- a/include/sound/ak4xxx-adda.h
++++ b/include/sound/ak4xxx-adda.h
+@@ -35,7 +35,7 @@ struct snd_ak4xxx_ops {
+       void (*write)(struct snd_akm4xxx *ak, int chip, unsigned char reg,
+                     unsigned char val);
+       void (*set_rate_val)(struct snd_akm4xxx *ak, unsigned int rate);
+-};
++} __no_const;
+ #define AK4XXX_IMAGE_SIZE     (AK4XXX_MAX_CHIPS * 16) /* 64 bytes */
+diff --git a/include/sound/hwdep.h b/include/sound/hwdep.h
+index 8c05e47..2b5df97 100644
+--- a/include/sound/hwdep.h
++++ b/include/sound/hwdep.h
+@@ -49,7 +49,7 @@ struct snd_hwdep_ops {
+                         struct snd_hwdep_dsp_status *status);
+       int (*dsp_load)(struct snd_hwdep *hw,
+                       struct snd_hwdep_dsp_image *image);
+-};
++} __no_const;
+ struct snd_hwdep {
+       struct snd_card *card;
+diff --git a/include/sound/info.h b/include/sound/info.h
+index 112e894..6fda5b5 100644
+--- a/include/sound/info.h
++++ b/include/sound/info.h
+@@ -44,7 +44,7 @@ struct snd_info_entry_text {
+                    struct snd_info_buffer *buffer);
+       void (*write)(struct snd_info_entry *entry,
+                     struct snd_info_buffer *buffer);
+-};
++} __no_const;
+ struct snd_info_entry_ops {
+       int (*open)(struct snd_info_entry *entry,
+diff --git a/include/sound/pcm.h b/include/sound/pcm.h
+index de6d981..590a550 100644
+--- a/include/sound/pcm.h
++++ b/include/sound/pcm.h
+@@ -80,6 +80,7 @@ struct snd_pcm_ops {
+       int (*mmap)(struct snd_pcm_substream *substream, struct vm_area_struct *vma);
+       int (*ack)(struct snd_pcm_substream *substream);
+ };
++typedef struct snd_pcm_ops __no_const snd_pcm_ops_no_const;
+ /*
+  *
+diff --git a/include/sound/sb16_csp.h b/include/sound/sb16_csp.h
+index 736eac7..fe8a80f 100644
+--- a/include/sound/sb16_csp.h
++++ b/include/sound/sb16_csp.h
+@@ -139,7 +139,7 @@ struct snd_sb_csp_ops {
+       int (*csp_start) (struct snd_sb_csp * p, int sample_width, int channels);
+       int (*csp_stop) (struct snd_sb_csp * p);
+       int (*csp_qsound_transfer) (struct snd_sb_csp * p);
+-};
++} __no_const;
+ /*
+  * CSP private data
+diff --git a/include/sound/ymfpci.h b/include/sound/ymfpci.h
+index 444cd6b..3327cc5 100644
+--- a/include/sound/ymfpci.h
++++ b/include/sound/ymfpci.h
+@@ -358,7 +358,7 @@ struct snd_ymfpci {
+       spinlock_t reg_lock;
+       spinlock_t voice_lock;
+       wait_queue_head_t interrupt_sleep;
+-      atomic_t interrupt_sleep_count;
++      atomic_unchecked_t interrupt_sleep_count;
+       struct snd_info_entry *proc_entry;
+       const struct firmware *dsp_microcode;
+       const struct firmware *controller_microcode;
+diff --git a/include/trace/events/irq.h b/include/trace/events/irq.h
+index b89f9db..f097b38 100644
+--- a/include/trace/events/irq.h
++++ b/include/trace/events/irq.h
+@@ -34,7 +34,7 @@
+  */
+ TRACE_EVENT(irq_handler_entry,
+-      TP_PROTO(int irq, struct irqaction *action),
++      TP_PROTO(int irq, const struct irqaction *action),
+       TP_ARGS(irq, action),
+@@ -64,7 +64,7 @@ TRACE_EVENT(irq_handler_entry,
+  */
+ TRACE_EVENT(irq_handler_exit,
+-      TP_PROTO(int irq, struct irqaction *action, int ret),
++      TP_PROTO(int irq, const struct irqaction *action, int ret),
+       TP_ARGS(irq, action, ret),
+@@ -95,7 +95,7 @@ TRACE_EVENT(irq_handler_exit,
+  */
+ TRACE_EVENT(softirq_entry,
+-      TP_PROTO(struct softirq_action *h, struct softirq_action *vec),
++      TP_PROTO(const struct softirq_action *h, const struct softirq_action *vec),
+       TP_ARGS(h, vec),
+@@ -124,7 +124,7 @@ TRACE_EVENT(softirq_entry,
+  */
+ TRACE_EVENT(softirq_exit,
+-      TP_PROTO(struct softirq_action *h, struct softirq_action *vec),
++      TP_PROTO(const struct softirq_action *h, const struct softirq_action *vec),
+       TP_ARGS(h, vec),
+diff --git a/include/video/uvesafb.h b/include/video/uvesafb.h
+index 0993a22..32ba2fe 100644
+--- a/include/video/uvesafb.h
++++ b/include/video/uvesafb.h
+@@ -177,6 +177,7 @@ struct uvesafb_par {
+       u8 ypan;                        /* 0 - nothing, 1 - ypan, 2 - ywrap */
+       u8 pmi_setpal;                  /* PMI for palette changes */
+       u16 *pmi_base;                  /* protected mode interface location */
++      u8 *pmi_code;                   /* protected mode code location */
+       void *pmi_start;
+       void *pmi_pal;
+       u8 *vbe_state_orig;             /*
+diff --git a/init/Kconfig b/init/Kconfig
+index d72691b..3996e54 100644
+--- a/init/Kconfig
++++ b/init/Kconfig
+@@ -1004,7 +1004,7 @@ config SLUB_DEBUG
+ config COMPAT_BRK
+       bool "Disable heap randomization"
+-      default y
++      default n
+       help
+         Randomizing heap placement makes heap exploits harder, but it
+         also breaks ancient binaries (including anything libc5 based).
+diff --git a/init/do_mounts.c b/init/do_mounts.c
+index bb008d0..4fa3933 100644
+--- a/init/do_mounts.c
++++ b/init/do_mounts.c
+@@ -216,11 +216,11 @@ static void __init get_fs_names(char *page)
+ static int __init do_mount_root(char *name, char *fs, int flags, void *data)
+ {
+-      int err = sys_mount(name, "/root", fs, flags, data);
++      int err = sys_mount((__force char __user *)name, (__force char __user *)"/root", (__force char __user *)fs, flags, (__force void __user *)data);
+       if (err)
+               return err;
+-      sys_chdir("/root");
++      sys_chdir((__force const char __user *)"/root");
+       ROOT_DEV = current->fs->pwd.mnt->mnt_sb->s_dev;
+       printk("VFS: Mounted root (%s filesystem)%s on device %u:%u.\n",
+              current->fs->pwd.mnt->mnt_sb->s_type->name,
+@@ -311,18 +311,18 @@ void __init change_floppy(char *fmt, ...)
+       va_start(args, fmt);
+       vsprintf(buf, fmt, args);
+       va_end(args);
+-      fd = sys_open("/dev/root", O_RDWR | O_NDELAY, 0);
++      fd = sys_open((char __user *)"/dev/root", O_RDWR | O_NDELAY, 0);
+       if (fd >= 0) {
+               sys_ioctl(fd, FDEJECT, 0);
+               sys_close(fd);
+       }
+       printk(KERN_NOTICE "VFS: Insert %s and press ENTER\n", buf);
+-      fd = sys_open("/dev/console", O_RDWR, 0);
++      fd = sys_open((char __user *)"/dev/console", O_RDWR, 0);
+       if (fd >= 0) {
+               sys_ioctl(fd, TCGETS, (long)&termios);
+               termios.c_lflag &= ~ICANON;
+               sys_ioctl(fd, TCSETSF, (long)&termios);
+-              sys_read(fd, &c, 1);
++              sys_read(fd, (char __user *)&c, 1);
+               termios.c_lflag |= ICANON;
+               sys_ioctl(fd, TCSETSF, (long)&termios);
+               sys_close(fd);
+@@ -416,6 +416,6 @@ void __init prepare_namespace(void)
+       mount_root();
+ out:
+       devtmpfs_mount("dev");
+-      sys_mount(".", "/", NULL, MS_MOVE, NULL);
+-      sys_chroot(".");
++      sys_mount((__force char __user *)".", (__force char __user *)"/", NULL, MS_MOVE, NULL);
++      sys_chroot((__force char __user *)".");
+ }
+diff --git a/init/do_mounts.h b/init/do_mounts.h
+index f5b978a..69dbfe8 100644
+--- a/init/do_mounts.h
++++ b/init/do_mounts.h
+@@ -15,15 +15,15 @@ extern int root_mountflags;
+ static inline int create_dev(char *name, dev_t dev)
+ {
+-      sys_unlink(name);
+-      return sys_mknod(name, S_IFBLK|0600, new_encode_dev(dev));
++      sys_unlink((char __force_user *)name);
++      return sys_mknod((char __force_user *)name, S_IFBLK|0600, new_encode_dev(dev));
+ }
+ #if BITS_PER_LONG == 32
+ static inline u32 bstat(char *name)
+ {
+       struct stat64 stat;
+-      if (sys_stat64(name, &stat) != 0)
++      if (sys_stat64((char __force_user *)name, (struct stat64 __force_user *)&stat) != 0)
+               return 0;
+       if (!S_ISBLK(stat.st_mode))
+               return 0;
+@@ -35,7 +35,7 @@ static inline u32 bstat(char *name)
+ static inline u32 bstat(char *name)
+ {
+       struct stat stat;
+-      if (sys_newstat(name, &stat) != 0)
++      if (sys_newstat((const char __force_user *)name, (struct stat __force_user *)&stat) != 0)
+               return 0;
+       if (!S_ISBLK(stat.st_mode))
+               return 0;
+diff --git a/init/do_mounts_initrd.c b/init/do_mounts_initrd.c
+index 614241b..4da046b 100644
+--- a/init/do_mounts_initrd.c
++++ b/init/do_mounts_initrd.c
+@@ -32,7 +32,7 @@ static int __init do_linuxrc(void * shell)
+       sys_close(old_fd);sys_close(root_fd);
+       sys_close(0);sys_close(1);sys_close(2);
+       sys_setsid();
+-      (void) sys_open("/dev/console",O_RDWR,0);
++      (void) sys_open((__force const char __user *)"/dev/console",O_RDWR,0);
+       (void) sys_dup(0);
+       (void) sys_dup(0);
+       return kernel_execve(shell, argv, envp_init);
+@@ -47,13 +47,13 @@ static void __init handle_initrd(void)
+       create_dev("/dev/root.old", Root_RAM0);
+       /* mount initrd on rootfs' /root */
+       mount_block_root("/dev/root.old", root_mountflags & ~MS_RDONLY);
+-      sys_mkdir("/old", 0700);
+-      root_fd = sys_open("/", 0, 0);
+-      old_fd = sys_open("/old", 0, 0);
++      sys_mkdir((const char __force_user *)"/old", 0700);
++      root_fd = sys_open((const char __force_user *)"/", 0, 0);
++      old_fd = sys_open((const char __force_user *)"/old", 0, 0);
+       /* move initrd over / and chdir/chroot in initrd root */
+-      sys_chdir("/root");
+-      sys_mount(".", "/", NULL, MS_MOVE, NULL);
+-      sys_chroot(".");
++      sys_chdir((const char __force_user *)"/root");
++      sys_mount((char __force_user *)".", (char __force_user *)"/", NULL, MS_MOVE, NULL);
++      sys_chroot((const char __force_user *)".");
+       /*
+        * In case that a resume from disk is carried out by linuxrc or one of
+@@ -70,15 +70,15 @@ static void __init handle_initrd(void)
+       /* move initrd to rootfs' /old */
+       sys_fchdir(old_fd);
+-      sys_mount("/", ".", NULL, MS_MOVE, NULL);
++      sys_mount((char __force_user *)"/", (char __force_user *)".", NULL, MS_MOVE, NULL);
+       /* switch root and cwd back to / of rootfs */
+       sys_fchdir(root_fd);
+-      sys_chroot(".");
++      sys_chroot((const char __force_user *)".");
+       sys_close(old_fd);
+       sys_close(root_fd);
+       if (new_decode_dev(real_root_dev) == Root_RAM0) {
+-              sys_chdir("/old");
++              sys_chdir((const char __force_user *)"/old");
+               return;
+       }
+@@ -86,17 +86,17 @@ static void __init handle_initrd(void)
+       mount_root();
+       printk(KERN_NOTICE "Trying to move old root to /initrd ... ");
+-      error = sys_mount("/old", "/root/initrd", NULL, MS_MOVE, NULL);
++      error = sys_mount((char __force_user *)"/old", (char __force_user *)"/root/initrd", NULL, MS_MOVE, NULL);
+       if (!error)
+               printk("okay\n");
+       else {
+-              int fd = sys_open("/dev/root.old", O_RDWR, 0);
++              int fd = sys_open((const char __force_user *)"/dev/root.old", O_RDWR, 0);
+               if (error == -ENOENT)
+                       printk("/initrd does not exist. Ignored.\n");
+               else
+                       printk("failed\n");
+               printk(KERN_NOTICE "Unmounting old root\n");
+-              sys_umount("/old", MNT_DETACH);
++              sys_umount((char __force_user *)"/old", MNT_DETACH);
+               printk(KERN_NOTICE "Trying to free ramdisk memory ... ");
+               if (fd < 0) {
+                       error = fd;
+@@ -119,11 +119,11 @@ int __init initrd_load(void)
+                * mounted in the normal path.
+                */
+               if (rd_load_image("/initrd.image") && ROOT_DEV != Root_RAM0) {
+-                      sys_unlink("/initrd.image");
++                      sys_unlink((const char __force_user *)"/initrd.image");
+                       handle_initrd();
+                       return 1;
+               }
+       }
+-      sys_unlink("/initrd.image");
++      sys_unlink((const char __force_user *)"/initrd.image");
+       return 0;
+ }
+diff --git a/init/do_mounts_md.c b/init/do_mounts_md.c
+index 69aebbf..c0bf6a7 100644
+--- a/init/do_mounts_md.c
++++ b/init/do_mounts_md.c
+@@ -170,7 +170,7 @@ static void __init md_setup_drive(void)
+                       partitioned ? "_d" : "", minor,
+                       md_setup_args[ent].device_names);
+-              fd = sys_open(name, 0, 0);
++              fd = sys_open((char __force_user *)name, 0, 0);
+               if (fd < 0) {
+                       printk(KERN_ERR "md: open failed - cannot start "
+                                       "array %s\n", name);
+@@ -233,7 +233,7 @@ static void __init md_setup_drive(void)
+                        * array without it
+                        */
+                       sys_close(fd);
+-                      fd = sys_open(name, 0, 0);
++                      fd = sys_open((char __force_user *)name, 0, 0);
+                       sys_ioctl(fd, BLKRRPART, 0);
+               }
+               sys_close(fd);
+@@ -283,7 +283,7 @@ static void __init autodetect_raid(void)
+       wait_for_device_probe();
+-      fd = sys_open("/dev/md0", 0, 0);
++      fd = sys_open((__force char __user *)"/dev/md0", 0, 0);
+       if (fd >= 0) {
+               sys_ioctl(fd, RAID_AUTORUN, raid_autopart);
+               sys_close(fd);
+diff --git a/init/initramfs.c b/init/initramfs.c
+index 1fd59b8..a01b079 100644
+--- a/init/initramfs.c
++++ b/init/initramfs.c
+@@ -74,7 +74,7 @@ static void __init free_hash(void)
+       }
+ }
+-static long __init do_utime(char __user *filename, time_t mtime)
++static long __init do_utime(__force char __user *filename, time_t mtime)
+ {
+       struct timespec t[2];
+@@ -109,7 +109,7 @@ static void __init dir_utime(void)
+       struct dir_entry *de, *tmp;
+       list_for_each_entry_safe(de, tmp, &dir_list, list) {
+               list_del(&de->list);
+-              do_utime(de->name, de->mtime);
++              do_utime((char __force_user *)de->name, de->mtime);
+               kfree(de->name);
+               kfree(de);
+       }
+@@ -271,7 +271,7 @@ static int __init maybe_link(void)
+       if (nlink >= 2) {
+               char *old = find_link(major, minor, ino, mode, collected);
+               if (old)
+-                      return (sys_link(old, collected) < 0) ? -1 : 1;
++                      return (sys_link((char __force_user *)old, (char __force_user *)collected) < 0) ? -1 : 1;
+       }
+       return 0;
+ }
+@@ -280,11 +280,11 @@ static void __init clean_path(char *path, mode_t mode)
+ {
+       struct stat st;
+-      if (!sys_newlstat(path, &st) && (st.st_mode^mode) & S_IFMT) {
++      if (!sys_newlstat((char __force_user *)path, (struct stat __force_user *)&st) && (st.st_mode^mode) & S_IFMT) {
+               if (S_ISDIR(st.st_mode))
+-                      sys_rmdir(path);
++                      sys_rmdir((char __force_user *)path);
+               else
+-                      sys_unlink(path);
++                      sys_unlink((char __force_user *)path);
+       }
+ }
+@@ -305,7 +305,7 @@ static int __init do_name(void)
+                       int openflags = O_WRONLY|O_CREAT;
+                       if (ml != 1)
+                               openflags |= O_TRUNC;
+-                      wfd = sys_open(collected, openflags, mode);
++                      wfd = sys_open((char __force_user *)collected, openflags, mode);
+                       if (wfd >= 0) {
+                               sys_fchown(wfd, uid, gid);
+@@ -317,17 +317,17 @@ static int __init do_name(void)
+                       }
+               }
+       } else if (S_ISDIR(mode)) {
+-              sys_mkdir(collected, mode);
+-              sys_chown(collected, uid, gid);
+-              sys_chmod(collected, mode);
++              sys_mkdir((char __force_user *)collected, mode);
++              sys_chown((char __force_user *)collected, uid, gid);
++              sys_chmod((char __force_user *)collected, mode);
+               dir_add(collected, mtime);
+       } else if (S_ISBLK(mode) || S_ISCHR(mode) ||
+                  S_ISFIFO(mode) || S_ISSOCK(mode)) {
+               if (maybe_link() == 0) {
+-                      sys_mknod(collected, mode, rdev);
+-                      sys_chown(collected, uid, gid);
+-                      sys_chmod(collected, mode);
+-                      do_utime(collected, mtime);
++                      sys_mknod((char __force_user *)collected, mode, rdev);
++                      sys_chown((char __force_user *)collected, uid, gid);
++                      sys_chmod((char __force_user *)collected, mode);
++                      do_utime((char __force_user *)collected, mtime);
+               }
+       }
+       return 0;
+@@ -336,15 +336,15 @@ static int __init do_name(void)
+ static int __init do_copy(void)
+ {
+       if (count >= body_len) {
+-              sys_write(wfd, victim, body_len);
++              sys_write(wfd, (char __force_user *)victim, body_len);
+               sys_close(wfd);
+-              do_utime(vcollected, mtime);
++              do_utime((char __force_user *)vcollected, mtime);
+               kfree(vcollected);
+               eat(body_len);
+               state = SkipIt;
+               return 0;
+       } else {
+-              sys_write(wfd, victim, count);
++              sys_write(wfd, (char __force_user *)victim, count);
+               body_len -= count;
+               eat(count);
+               return 1;
+@@ -355,9 +355,9 @@ static int __init do_symlink(void)
+ {
+       collected[N_ALIGN(name_len) + body_len] = '\0';
+       clean_path(collected, 0);
+-      sys_symlink(collected + N_ALIGN(name_len), collected);
+-      sys_lchown(collected, uid, gid);
+-      do_utime(collected, mtime);
++      sys_symlink((char __force_user *)collected + N_ALIGN(name_len), (char __force_user *)collected);
++      sys_lchown((char __force_user *)collected, uid, gid);
++      do_utime((char __force_user *)collected, mtime);
+       state = SkipIt;
+       next_state = Reset;
+       return 0;
+diff --git a/init/main.c b/init/main.c
+index 1eb4bd5..da8c6f5 100644
+--- a/init/main.c
++++ b/init/main.c
+@@ -97,6 +97,7 @@ static inline void mark_rodata_ro(void) { }
+ #ifdef CONFIG_TC
+ extern void tc_init(void);
+ #endif
++extern void grsecurity_init(void);
+ enum system_states system_state __read_mostly;
+ EXPORT_SYMBOL(system_state);
+@@ -183,6 +184,49 @@ static int __init set_reset_devices(char *str)
+ __setup("reset_devices", set_reset_devices);
++#if defined(CONFIG_X86_64) && defined(CONFIG_PAX_MEMORY_UDEREF)
++extern char pax_enter_kernel_user[];
++extern char pax_exit_kernel_user[];
++extern pgdval_t clone_pgd_mask;
++#endif
++
++#if defined(CONFIG_X86) && defined(CONFIG_PAX_MEMORY_UDEREF)
++static int __init setup_pax_nouderef(char *str)
++{
++#ifdef CONFIG_X86_32
++      unsigned int cpu;
++      struct desc_struct *gdt;
++
++      for (cpu = 0; cpu < NR_CPUS; cpu++) {
++              gdt = get_cpu_gdt_table(cpu);
++              gdt[GDT_ENTRY_KERNEL_DS].type = 3;
++              gdt[GDT_ENTRY_KERNEL_DS].limit = 0xf;
++              gdt[GDT_ENTRY_DEFAULT_USER_CS].limit = 0xf;
++              gdt[GDT_ENTRY_DEFAULT_USER_DS].limit = 0xf;
++      }
++      asm("mov %0, %%ds; mov %0, %%es; mov %0, %%ss" : : "r" (__KERNEL_DS) : "memory");
++#else
++      memcpy(pax_enter_kernel_user, (unsigned char []){0xc3}, 1);
++      memcpy(pax_exit_kernel_user, (unsigned char []){0xc3}, 1);
++      clone_pgd_mask = ~(pgdval_t)0UL;
++#endif
++
++      return 0;
++}
++early_param("pax_nouderef", setup_pax_nouderef);
++#endif
++
++#ifdef CONFIG_PAX_SOFTMODE
++int pax_softmode;
++
++static int __init setup_pax_softmode(char *str)
++{
++      get_option(&str, &pax_softmode);
++      return 1;
++}
++__setup("pax_softmode=", setup_pax_softmode);
++#endif
++
+ static char * argv_init[MAX_INIT_ARGS+2] = { "init", NULL, };
+ char * envp_init[MAX_INIT_ENVS+2] = { "HOME=/", "TERM=linux", NULL, };
+ static const char *panic_later, *panic_param;
+@@ -705,52 +749,53 @@ int initcall_debug;
+ core_param(initcall_debug, initcall_debug, bool, 0644);
+ static char msgbuf[64];
+-static struct boot_trace_call call;
+-static struct boot_trace_ret ret;
++static struct boot_trace_call trace_call;
++static struct boot_trace_ret trace_ret;
+ int do_one_initcall(initcall_t fn)
+ {
+       int count = preempt_count();
+       ktime_t calltime, delta, rettime;
++      const char *msg1 = "", *msg2 = "";
+       if (initcall_debug) {
+-              call.caller = task_pid_nr(current);
+-              printk("calling  %pF @ %i\n", fn, call.caller);
++              trace_call.caller = task_pid_nr(current);
++              printk("calling  %pF @ %i\n", fn, trace_call.caller);
+               calltime = ktime_get();
+-              trace_boot_call(&call, fn);
++              trace_boot_call(&trace_call, fn);
+               enable_boot_trace();
+       }
+-      ret.result = fn();
++      trace_ret.result = fn();
+       if (initcall_debug) {
+               disable_boot_trace();
+               rettime = ktime_get();
+               delta = ktime_sub(rettime, calltime);
+-              ret.duration = (unsigned long long) ktime_to_ns(delta) >> 10;
+-              trace_boot_ret(&ret, fn);
++              trace_ret.duration = (unsigned long long) ktime_to_ns(delta) >> 10;
++              trace_boot_ret(&trace_ret, fn);
+               printk("initcall %pF returned %d after %Ld usecs\n", fn,
+-                      ret.result, ret.duration);
++                      trace_ret.result, trace_ret.duration);
+       }
+       msgbuf[0] = 0;
+-      if (ret.result && ret.result != -ENODEV && initcall_debug)
+-              sprintf(msgbuf, "error code %d ", ret.result);
++      if (trace_ret.result && trace_ret.result != -ENODEV && initcall_debug)
++              sprintf(msgbuf, "error code %d ", trace_ret.result);
+       if (preempt_count() != count) {
+-              strlcat(msgbuf, "preemption imbalance ", sizeof(msgbuf));
++              msg1 = " preemption imbalance";
+               preempt_count() = count;
+       }
+       if (irqs_disabled()) {
+-              strlcat(msgbuf, "disabled interrupts ", sizeof(msgbuf));
++              msg2 = " disabled interrupts";
+               local_irq_enable();
+       }
+-      if (msgbuf[0]) {
+-              printk("initcall %pF returned with %s\n", fn, msgbuf);
++      if (msgbuf[0] || *msg1 || *msg2) {
++              printk("initcall %pF returned with %s%s%s\n", fn, msgbuf, msg1, msg2);
+       }
+-      return ret.result;
++      return trace_ret.result;
+ }
+@@ -893,11 +938,13 @@ static int __init kernel_init(void * unused)
+       if (!ramdisk_execute_command)
+               ramdisk_execute_command = "/init";
+-      if (sys_access((const char __user *) ramdisk_execute_command, 0) != 0) {
++      if (sys_access((const char __force_user *) ramdisk_execute_command, 0) != 0) {
+               ramdisk_execute_command = NULL;
+               prepare_namespace();
+       }
++      grsecurity_init();
++
+       /*
+        * Ok, we have completed the initial bootup, and
+        * we're essentially up and running. Get rid of the
+diff --git a/init/noinitramfs.c b/init/noinitramfs.c
+index f4c1a3a..96c19bd 100644
+--- a/init/noinitramfs.c
++++ b/init/noinitramfs.c
+@@ -29,7 +29,7 @@ static int __init default_rootfs(void)
+ {
+       int err;
+-      err = sys_mkdir("/dev", 0755);
++      err = sys_mkdir((const char __user *)"/dev", 0755);
+       if (err < 0)
+               goto out;
+@@ -39,7 +39,7 @@ static int __init default_rootfs(void)
+       if (err < 0)
+               goto out;
+-      err = sys_mkdir("/root", 0700);
++      err = sys_mkdir((const char __user *)"/root", 0700);
+       if (err < 0)
+               goto out;
+diff --git a/ipc/mqueue.c b/ipc/mqueue.c
+index d01bc14..8df81db 100644
+--- a/ipc/mqueue.c
++++ b/ipc/mqueue.c
+@@ -150,6 +150,7 @@ static struct inode *mqueue_get_inode(struct super_block *sb,
+                       mq_bytes = (mq_msg_tblsz +
+                               (info->attr.mq_maxmsg * info->attr.mq_msgsize));
++                      gr_learn_resource(current, RLIMIT_MSGQUEUE, u->mq_bytes + mq_bytes, 1);
+                       spin_lock(&mq_lock);
+                       if (u->mq_bytes + mq_bytes < u->mq_bytes ||
+                           u->mq_bytes + mq_bytes >
+diff --git a/ipc/msg.c b/ipc/msg.c
+index 779f762..4af9e36 100644
+--- a/ipc/msg.c
++++ b/ipc/msg.c
+@@ -310,18 +310,19 @@ static inline int msg_security(struct kern_ipc_perm *ipcp, int msgflg)
+       return security_msg_queue_associate(msq, msgflg);
+ }
++static struct ipc_ops msg_ops = {
++      .getnew         = newque,
++      .associate      = msg_security,
++      .more_checks    = NULL
++};
++
+ SYSCALL_DEFINE2(msgget, key_t, key, int, msgflg)
+ {
+       struct ipc_namespace *ns;
+-      struct ipc_ops msg_ops;
+       struct ipc_params msg_params;
+       ns = current->nsproxy->ipc_ns;
+-      msg_ops.getnew = newque;
+-      msg_ops.associate = msg_security;
+-      msg_ops.more_checks = NULL;
+-
+       msg_params.key = key;
+       msg_params.flg = msgflg;
+diff --git a/ipc/sem.c b/ipc/sem.c
+index b781007..f738b04 100644
+--- a/ipc/sem.c
++++ b/ipc/sem.c
+@@ -309,10 +309,15 @@ static inline int sem_more_checks(struct kern_ipc_perm *ipcp,
+       return 0;
+ }
++static struct ipc_ops sem_ops = {
++      .getnew         = newary,
++      .associate      = sem_security,
++      .more_checks    = sem_more_checks
++};
++
+ SYSCALL_DEFINE3(semget, key_t, key, int, nsems, int, semflg)
+ {
+       struct ipc_namespace *ns;
+-      struct ipc_ops sem_ops;
+       struct ipc_params sem_params;
+       ns = current->nsproxy->ipc_ns;
+@@ -320,10 +325,6 @@ SYSCALL_DEFINE3(semget, key_t, key, int, nsems, int, semflg)
+       if (nsems < 0 || nsems > ns->sc_semmsl)
+               return -EINVAL;
+-      sem_ops.getnew = newary;
+-      sem_ops.associate = sem_security;
+-      sem_ops.more_checks = sem_more_checks;
+-
+       sem_params.key = key;
+       sem_params.flg = semflg;
+       sem_params.u.nsems = nsems;
+@@ -671,6 +672,8 @@ static int semctl_main(struct ipc_namespace *ns, int semid, int semnum,
+       ushort* sem_io = fast_sem_io;
+       int nsems;
++      pax_track_stack();
++
+       sma = sem_lock_check(ns, semid);
+       if (IS_ERR(sma))
+               return PTR_ERR(sma);
+@@ -1071,6 +1074,8 @@ SYSCALL_DEFINE4(semtimedop, int, semid, struct sembuf __user *, tsops,
+       unsigned long jiffies_left = 0;
+       struct ipc_namespace *ns;
++      pax_track_stack();
++
+       ns = current->nsproxy->ipc_ns;
+       if (nsops < 1 || semid < 0)
+diff --git a/ipc/shm.c b/ipc/shm.c
+index d30732c..e4992cd 100644
+--- a/ipc/shm.c
++++ b/ipc/shm.c
+@@ -70,6 +70,14 @@ static void shm_destroy (struct ipc_namespace *ns, struct shmid_kernel *shp);
+ static int sysvipc_shm_proc_show(struct seq_file *s, void *it);
+ #endif
++#ifdef CONFIG_GRKERNSEC
++extern int gr_handle_shmat(const pid_t shm_cprid, const pid_t shm_lapid,
++                         const time_t shm_createtime, const uid_t cuid,
++                         const int shmid);
++extern int gr_chroot_shmat(const pid_t shm_cprid, const pid_t shm_lapid,
++                         const time_t shm_createtime);
++#endif
++
+ void shm_init_ns(struct ipc_namespace *ns)
+ {
+       ns->shm_ctlmax = SHMMAX;
+@@ -396,6 +404,14 @@ static int newseg(struct ipc_namespace *ns, struct ipc_params *params)
+       shp->shm_lprid = 0;
+       shp->shm_atim = shp->shm_dtim = 0;
+       shp->shm_ctim = get_seconds();
++#ifdef CONFIG_GRKERNSEC
++      {
++              struct timespec timeval;
++              do_posix_clock_monotonic_gettime(&timeval);
++
++              shp->shm_createtime = timeval.tv_sec;
++      }
++#endif
+       shp->shm_segsz = size;
+       shp->shm_nattch = 0;
+       shp->shm_file = file;
+@@ -446,18 +462,19 @@ static inline int shm_more_checks(struct kern_ipc_perm *ipcp,
+       return 0;
+ }
++static struct ipc_ops shm_ops = {
++      .getnew         = newseg,
++      .associate      = shm_security,
++      .more_checks    = shm_more_checks
++};
++
+ SYSCALL_DEFINE3(shmget, key_t, key, size_t, size, int, shmflg)
+ {
+       struct ipc_namespace *ns;
+-      struct ipc_ops shm_ops;
+       struct ipc_params shm_params;
+       ns = current->nsproxy->ipc_ns;
+-      shm_ops.getnew = newseg;
+-      shm_ops.associate = shm_security;
+-      shm_ops.more_checks = shm_more_checks;
+-
+       shm_params.key = key;
+       shm_params.flg = shmflg;
+       shm_params.u.size = size;
+@@ -857,6 +874,12 @@ long do_shmat(int shmid, char __user *shmaddr, int shmflg, ulong *raddr)
+               f_mode = FMODE_READ | FMODE_WRITE;
+       }
+       if (shmflg & SHM_EXEC) {
++
++#ifdef CONFIG_PAX_MPROTECT
++              if (current->mm->pax_flags & MF_PAX_MPROTECT)
++                      goto out;
++#endif
++
+               prot |= PROT_EXEC;
+               acc_mode |= S_IXUGO;
+       }
+@@ -880,9 +903,21 @@ long do_shmat(int shmid, char __user *shmaddr, int shmflg, ulong *raddr)
+       if (err)
+               goto out_unlock;
++#ifdef CONFIG_GRKERNSEC
++      if (!gr_handle_shmat(shp->shm_cprid, shp->shm_lapid, shp->shm_createtime,
++                           shp->shm_perm.cuid, shmid) ||
++          !gr_chroot_shmat(shp->shm_cprid, shp->shm_lapid, shp->shm_createtime)) {
++              err = -EACCES;
++              goto out_unlock;
++      }
++#endif
++
+       path.dentry = dget(shp->shm_file->f_path.dentry);
+       path.mnt    = shp->shm_file->f_path.mnt;
+       shp->shm_nattch++;
++#ifdef CONFIG_GRKERNSEC
++      shp->shm_lapid = current->pid;
++#endif
+       size = i_size_read(path.dentry->d_inode);
+       shm_unlock(shp);
+diff --git a/kernel/acct.c b/kernel/acct.c
+index a6605ca..ca91111 100644
+--- a/kernel/acct.c
++++ b/kernel/acct.c
+@@ -579,7 +579,7 @@ static void do_acct_process(struct bsd_acct_struct *acct,
+        */
+       flim = current->signal->rlim[RLIMIT_FSIZE].rlim_cur;
+       current->signal->rlim[RLIMIT_FSIZE].rlim_cur = RLIM_INFINITY;
+-      file->f_op->write(file, (char *)&ac,
++      file->f_op->write(file, (char __force_user *)&ac,
+                              sizeof(acct_t), &file->f_pos);
+       current->signal->rlim[RLIMIT_FSIZE].rlim_cur = flim;
+       set_fs(fs);
+diff --git a/kernel/audit.c b/kernel/audit.c
+index 5feed23..48415fd 100644
+--- a/kernel/audit.c
++++ b/kernel/audit.c
+@@ -110,7 +110,7 @@ u32                audit_sig_sid = 0;
+    3) suppressed due to audit_rate_limit
+    4) suppressed due to audit_backlog_limit
+ */
+-static atomic_t    audit_lost = ATOMIC_INIT(0);
++static atomic_unchecked_t    audit_lost = ATOMIC_INIT(0);
+ /* The netlink socket. */
+ static struct sock *audit_sock;
+@@ -232,7 +232,7 @@ void audit_log_lost(const char *message)
+       unsigned long           now;
+       int                     print;
+-      atomic_inc(&audit_lost);
++      atomic_inc_unchecked(&audit_lost);
+       print = (audit_failure == AUDIT_FAIL_PANIC || !audit_rate_limit);
+@@ -251,7 +251,7 @@ void audit_log_lost(const char *message)
+                       printk(KERN_WARNING
+                               "audit: audit_lost=%d audit_rate_limit=%d "
+                               "audit_backlog_limit=%d\n",
+-                              atomic_read(&audit_lost),
++                              atomic_read_unchecked(&audit_lost),
+                               audit_rate_limit,
+                               audit_backlog_limit);
+               audit_panic(message);
+@@ -691,7 +691,7 @@ static int audit_receive_msg(struct sk_buff *skb, struct nlmsghdr *nlh)
+               status_set.pid           = audit_pid;
+               status_set.rate_limit    = audit_rate_limit;
+               status_set.backlog_limit = audit_backlog_limit;
+-              status_set.lost          = atomic_read(&audit_lost);
++              status_set.lost          = atomic_read_unchecked(&audit_lost);
+               status_set.backlog       = skb_queue_len(&audit_skb_queue);
+               audit_send_reply(NETLINK_CB(skb).pid, seq, AUDIT_GET, 0, 0,
+                                &status_set, sizeof(status_set));
+@@ -891,8 +891,10 @@ static int audit_receive_msg(struct sk_buff *skb, struct nlmsghdr *nlh)
+                       spin_unlock_irq(&tsk->sighand->siglock);
+               }
+               read_unlock(&tasklist_lock);
+-              audit_send_reply(NETLINK_CB(skb).pid, seq, AUDIT_TTY_GET, 0, 0,
+-                               &s, sizeof(s));
++
++              if (!err)
++                      audit_send_reply(NETLINK_CB(skb).pid, seq,
++                                       AUDIT_TTY_GET, 0, 0, &s, sizeof(s));
+               break;
+       }
+       case AUDIT_TTY_SET: {
+@@ -1262,12 +1264,13 @@ static void audit_log_vformat(struct audit_buffer *ab, const char *fmt,
+               avail = audit_expand(ab,
+                       max_t(unsigned, AUDIT_BUFSIZ, 1+len-avail));
+               if (!avail)
+-                      goto out;
++                      goto out_va_end;
+               len = vsnprintf(skb_tail_pointer(skb), avail, fmt, args2);
+       }
+-      va_end(args2);
+       if (len > 0)
+               skb_put(skb, len);
++out_va_end:
++      va_end(args2);
+ out:
+       return;
+ }
+diff --git a/kernel/auditsc.c b/kernel/auditsc.c
+index 267e484..ac41bc3 100644
+--- a/kernel/auditsc.c
++++ b/kernel/auditsc.c
+@@ -1157,8 +1157,8 @@ static void audit_log_execve_info(struct audit_context *context,
+                                 struct audit_buffer **ab,
+                                 struct audit_aux_data_execve *axi)
+ {
+-      int i;
+-      size_t len, len_sent = 0;
++      int i, len;
++      size_t len_sent = 0;
+       const char __user *p;
+       char *buf;
+@@ -2113,7 +2113,7 @@ int auditsc_get_stamp(struct audit_context *ctx,
+ }
+ /* global counter which is incremented every time something logs in */
+-static atomic_t session_id = ATOMIC_INIT(0);
++static atomic_unchecked_t session_id = ATOMIC_INIT(0);
+ /**
+  * audit_set_loginuid - set a task's audit_context loginuid
+@@ -2126,7 +2126,7 @@ static atomic_t session_id = ATOMIC_INIT(0);
+  */
+ int audit_set_loginuid(struct task_struct *task, uid_t loginuid)
+ {
+-      unsigned int sessionid = atomic_inc_return(&session_id);
++      unsigned int sessionid = atomic_inc_return_unchecked(&session_id);
+       struct audit_context *context = task->audit_context;
+       if (context && context->in_syscall) {
+diff --git a/kernel/capability.c b/kernel/capability.c
+index 8a944f5..db5001e 100644
+--- a/kernel/capability.c
++++ b/kernel/capability.c
+@@ -305,10 +305,26 @@ int capable(int cap)
+               BUG();
+       }
+-      if (security_capable(cap) == 0) {
++      if (security_capable(cap) == 0 && gr_is_capable(cap)) {
+               current->flags |= PF_SUPERPRIV;
+               return 1;
+       }
+       return 0;
+ }
++
++int capable_nolog(int cap)
++{
++      if (unlikely(!cap_valid(cap))) {
++              printk(KERN_CRIT "capable() called with invalid cap=%u\n", cap);
++              BUG();
++      }
++
++      if (security_capable(cap) == 0 && gr_is_capable_nolog(cap)) {
++              current->flags |= PF_SUPERPRIV;
++              return 1;
++      }
++      return 0;
++}
++
+ EXPORT_SYMBOL(capable);
++EXPORT_SYMBOL(capable_nolog);
+diff --git a/kernel/cgroup.c b/kernel/cgroup.c
+index 1fbcc74..7000012 100644
+--- a/kernel/cgroup.c
++++ b/kernel/cgroup.c
+@@ -536,6 +536,8 @@ static struct css_set *find_css_set(
+       struct hlist_head *hhead;
+       struct cg_cgroup_link *link;
++      pax_track_stack();
++
+       /* First see if we already have a cgroup group that matches
+        * the desired set */
+       read_lock(&css_set_lock);
+diff --git a/kernel/compat.c b/kernel/compat.c
+index 8bc5578..186e44a 100644
+--- a/kernel/compat.c
++++ b/kernel/compat.c
+@@ -108,7 +108,7 @@ static long compat_nanosleep_restart(struct restart_block *restart)
+       mm_segment_t oldfs;
+       long ret;
+-      restart->nanosleep.rmtp = (struct timespec __user *) &rmt;
++      restart->nanosleep.rmtp = (struct timespec __force_user *) &rmt;
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       ret = hrtimer_nanosleep_restart(restart);
+@@ -140,7 +140,7 @@ asmlinkage long compat_sys_nanosleep(struct compat_timespec __user *rqtp,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       ret = hrtimer_nanosleep(&tu,
+-                              rmtp ? (struct timespec __user *)&rmt : NULL,
++                              rmtp ? (struct timespec __force_user *)&rmt : NULL,
+                               HRTIMER_MODE_REL, CLOCK_MONOTONIC);
+       set_fs(oldfs);
+@@ -247,7 +247,7 @@ asmlinkage long compat_sys_sigpending(compat_old_sigset_t __user *set)
+       mm_segment_t old_fs = get_fs();
+       set_fs(KERNEL_DS);
+-      ret = sys_sigpending((old_sigset_t __user *) &s);
++      ret = sys_sigpending((old_sigset_t __force_user *) &s);
+       set_fs(old_fs);
+       if (ret == 0)
+               ret = put_user(s, set);
+@@ -266,8 +266,8 @@ asmlinkage long compat_sys_sigprocmask(int how, compat_old_sigset_t __user *set,
+       old_fs = get_fs();
+       set_fs(KERNEL_DS);
+       ret = sys_sigprocmask(how,
+-                            set ? (old_sigset_t __user *) &s : NULL,
+-                            oset ? (old_sigset_t __user *) &s : NULL);
++                            set ? (old_sigset_t __force_user *) &s : NULL,
++                            oset ? (old_sigset_t __force_user *) &s : NULL);
+       set_fs(old_fs);
+       if (ret == 0)
+               if (oset)
+@@ -310,7 +310,7 @@ asmlinkage long compat_sys_old_getrlimit(unsigned int resource,
+       mm_segment_t old_fs = get_fs();
+       set_fs(KERNEL_DS);
+-      ret = sys_old_getrlimit(resource, &r);
++      ret = sys_old_getrlimit(resource, (struct rlimit __force_user *)&r);
+       set_fs(old_fs);
+       if (!ret) {
+@@ -385,7 +385,7 @@ asmlinkage long compat_sys_getrusage(int who, struct compat_rusage __user *ru)
+       mm_segment_t old_fs = get_fs();
+       set_fs(KERNEL_DS);
+-      ret = sys_getrusage(who, (struct rusage __user *) &r);
++      ret = sys_getrusage(who, (struct rusage __force_user *) &r);
+       set_fs(old_fs);
+       if (ret)
+@@ -412,8 +412,8 @@ compat_sys_wait4(compat_pid_t pid, compat_uint_t __user *stat_addr, int options,
+               set_fs (KERNEL_DS);
+               ret = sys_wait4(pid,
+                               (stat_addr ?
+-                               (unsigned int __user *) &status : NULL),
+-                              options, (struct rusage __user *) &r);
++                               (unsigned int __force_user *) &status : NULL),
++                              options, (struct rusage __force_user *) &r);
+               set_fs (old_fs);
+               if (ret > 0) {
+@@ -438,8 +438,8 @@ asmlinkage long compat_sys_waitid(int which, compat_pid_t pid,
+       memset(&info, 0, sizeof(info));
+       set_fs(KERNEL_DS);
+-      ret = sys_waitid(which, pid, (siginfo_t __user *)&info, options,
+-                       uru ? (struct rusage __user *)&ru : NULL);
++      ret = sys_waitid(which, pid, (siginfo_t __force_user *)&info, options,
++                       uru ? (struct rusage __force_user *)&ru : NULL);
+       set_fs(old_fs);
+       if ((ret < 0) || (info.si_signo == 0))
+@@ -569,8 +569,8 @@ long compat_sys_timer_settime(timer_t timer_id, int flags,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       err = sys_timer_settime(timer_id, flags,
+-                              (struct itimerspec __user *) &newts,
+-                              (struct itimerspec __user *) &oldts);
++                              (struct itimerspec __force_user *) &newts,
++                              (struct itimerspec __force_user *) &oldts);
+       set_fs(oldfs);
+       if (!err && old && put_compat_itimerspec(old, &oldts))
+               return -EFAULT;
+@@ -587,7 +587,7 @@ long compat_sys_timer_gettime(timer_t timer_id,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       err = sys_timer_gettime(timer_id,
+-                              (struct itimerspec __user *) &ts);
++                              (struct itimerspec __force_user *) &ts);
+       set_fs(oldfs);
+       if (!err && put_compat_itimerspec(setting, &ts))
+               return -EFAULT;
+@@ -606,7 +606,7 @@ long compat_sys_clock_settime(clockid_t which_clock,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       err = sys_clock_settime(which_clock,
+-                              (struct timespec __user *) &ts);
++                              (struct timespec __force_user *) &ts);
+       set_fs(oldfs);
+       return err;
+ }
+@@ -621,7 +621,7 @@ long compat_sys_clock_gettime(clockid_t which_clock,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       err = sys_clock_gettime(which_clock,
+-                              (struct timespec __user *) &ts);
++                              (struct timespec __force_user *) &ts);
+       set_fs(oldfs);
+       if (!err && put_compat_timespec(&ts, tp))
+               return -EFAULT;
+@@ -638,7 +638,7 @@ long compat_sys_clock_getres(clockid_t which_clock,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       err = sys_clock_getres(which_clock,
+-                             (struct timespec __user *) &ts);
++                             (struct timespec __force_user *) &ts);
+       set_fs(oldfs);
+       if (!err && tp && put_compat_timespec(&ts, tp))
+               return -EFAULT;
+@@ -650,9 +650,9 @@ static long compat_clock_nanosleep_restart(struct restart_block *restart)
+       long err;
+       mm_segment_t oldfs;
+       struct timespec tu;
+-      struct compat_timespec *rmtp = restart->nanosleep.compat_rmtp;
++      struct compat_timespec __user *rmtp = restart->nanosleep.compat_rmtp;
+-      restart->nanosleep.rmtp = (struct timespec __user *) &tu;
++      restart->nanosleep.rmtp = (struct timespec __force_user *) &tu;
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       err = clock_nanosleep_restart(restart);
+@@ -684,8 +684,8 @@ long compat_sys_clock_nanosleep(clockid_t which_clock, int flags,
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+       err = sys_clock_nanosleep(which_clock, flags,
+-                                (struct timespec __user *) &in,
+-                                (struct timespec __user *) &out);
++                                (struct timespec __force_user *) &in,
++                                (struct timespec __force_user *) &out);
+       set_fs(oldfs);
+       if ((err == -ERESTART_RESTARTBLOCK) && rmtp &&
+diff --git a/kernel/configs.c b/kernel/configs.c
+index abaee68..047facd 100644
+--- a/kernel/configs.c
++++ b/kernel/configs.c
+@@ -73,8 +73,19 @@ static int __init ikconfig_init(void)
+       struct proc_dir_entry *entry;
+       /* create the current config file */
++#if defined(CONFIG_GRKERNSEC_PROC_ADD) || defined(CONFIG_GRKERNSEC_HIDESYM)
++#if defined(CONFIG_GRKERNSEC_PROC_USER) || defined(CONFIG_GRKERNSEC_HIDESYM)
++      entry = proc_create("config.gz", S_IFREG | S_IRUSR, NULL,
++                          &ikconfig_file_ops);
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      entry = proc_create("config.gz", S_IFREG | S_IRUSR | S_IRGRP, NULL,
++                          &ikconfig_file_ops);
++#endif
++#else
+       entry = proc_create("config.gz", S_IFREG | S_IRUGO, NULL,
+                           &ikconfig_file_ops);
++#endif
++
+       if (!entry)
+               return -ENOMEM;
+diff --git a/kernel/cpu.c b/kernel/cpu.c
+index 3f2f04f..4e53ded 100644
+--- a/kernel/cpu.c
++++ b/kernel/cpu.c
+@@ -20,7 +20,7 @@
+ /* Serializes the updates to cpu_online_mask, cpu_present_mask */
+ static DEFINE_MUTEX(cpu_add_remove_lock);
+-static __cpuinitdata RAW_NOTIFIER_HEAD(cpu_chain);
++static RAW_NOTIFIER_HEAD(cpu_chain);
+ /* If set, cpu_up and cpu_down will return -EBUSY and do nothing.
+  * Should always be manipulated under cpu_add_remove_lock
+diff --git a/kernel/cred.c b/kernel/cred.c
+index 0b5b5fc..f7fe51a 100644
+--- a/kernel/cred.c
++++ b/kernel/cred.c
+@@ -160,6 +160,8 @@ static void put_cred_rcu(struct rcu_head *rcu)
+  */
+ void __put_cred(struct cred *cred)
+ {
++      pax_track_stack();
++
+       kdebug("__put_cred(%p{%d,%d})", cred,
+              atomic_read(&cred->usage),
+              read_cred_subscribers(cred));
+@@ -184,6 +186,8 @@ void exit_creds(struct task_struct *tsk)
+ {
+       struct cred *cred;
++      pax_track_stack();
++
+       kdebug("exit_creds(%u,%p,%p,{%d,%d})", tsk->pid, tsk->real_cred, tsk->cred,
+              atomic_read(&tsk->cred->usage),
+              read_cred_subscribers(tsk->cred));
+@@ -206,6 +210,15 @@ void exit_creds(struct task_struct *tsk)
+               validate_creds(cred);
+               put_cred(cred);
+       }
++
++#ifdef CONFIG_GRKERNSEC_SETXID
++      cred = (struct cred *) tsk->delayed_cred;
++      if (cred) {
++              tsk->delayed_cred = NULL;
++              validate_creds(cred);
++              put_cred(cred);
++      }
++#endif
+ }
+ /**
+@@ -222,6 +235,8 @@ const struct cred *get_task_cred(struct task_struct *task)
+ {
+       const struct cred *cred;
++      pax_track_stack();
++
+       rcu_read_lock();
+       do {
+@@ -241,6 +256,8 @@ struct cred *cred_alloc_blank(void)
+ {
+       struct cred *new;
++      pax_track_stack();
++
+       new = kmem_cache_zalloc(cred_jar, GFP_KERNEL);
+       if (!new)
+               return NULL;
+@@ -289,6 +306,8 @@ struct cred *prepare_creds(void)
+       const struct cred *old;
+       struct cred *new;
++      pax_track_stack();
++
+       validate_process_creds();
+       new = kmem_cache_alloc(cred_jar, GFP_KERNEL);
+@@ -335,6 +354,8 @@ struct cred *prepare_exec_creds(void)
+       struct thread_group_cred *tgcred = NULL;
+       struct cred *new;
++      pax_track_stack();
++
+ #ifdef CONFIG_KEYS
+       tgcred = kmalloc(sizeof(*tgcred), GFP_KERNEL);
+       if (!tgcred)
+@@ -441,6 +462,8 @@ int copy_creds(struct task_struct *p, unsigned long clone_flags)
+       struct cred *new;
+       int ret;
++      pax_track_stack();
++
+       mutex_init(&p->cred_guard_mutex);
+       if (
+@@ -523,11 +546,13 @@ error_put:
+  * Always returns 0 thus allowing this function to be tail-called at the end
+  * of, say, sys_setgid().
+  */
+-int commit_creds(struct cred *new)
++static int __commit_creds(struct cred *new)
+ {
+       struct task_struct *task = current;
+       const struct cred *old = task->real_cred;
++      pax_track_stack();
++
+       kdebug("commit_creds(%p{%d,%d})", new,
+              atomic_read(&new->usage),
+              read_cred_subscribers(new));
+@@ -544,6 +569,8 @@ int commit_creds(struct cred *new)
+       get_cred(new); /* we will require a ref for the subj creds too */
++      gr_set_role_label(task, new->uid, new->gid);
++
+       /* dumpability changes */
+       if (old->euid != new->euid ||
+           old->egid != new->egid ||
+@@ -563,10 +590,8 @@ int commit_creds(struct cred *new)
+               key_fsgid_changed(task);
+       /* do it
+-       * - What if a process setreuid()'s and this brings the
+-       *   new uid over his NPROC rlimit?  We can check this now
+-       *   cheaply with the new uid cache, so if it matters
+-       *   we should be checking for it.  -DaveM
++       * RLIMIT_NPROC limits on user->processes have already been checked
++       * in set_user().
+        */
+       alter_cred_subscribers(new, 2);
+       if (new->user != old->user)
+@@ -595,8 +620,96 @@ int commit_creds(struct cred *new)
+       put_cred(old);
+       return 0;
+ }
++
++#ifdef CONFIG_GRKERNSEC_SETXID
++extern int set_user(struct cred *new);
++
++void gr_delayed_cred_worker(void)
++{
++      const struct cred *new = current->delayed_cred;
++      struct cred *ncred;
++
++      current->delayed_cred = NULL;
++
++      if (current_uid() && new != NULL) {
++              // from doing get_cred on it when queueing this
++              put_cred(new);
++              return;
++      } else if (new == NULL)
++              return;
++
++      ncred = prepare_creds();
++      if (!ncred)
++              goto die;
++      // uids
++      ncred->uid = new->uid;
++      ncred->euid = new->euid;
++      ncred->suid = new->suid;
++      ncred->fsuid = new->fsuid;
++      // gids
++      ncred->gid = new->gid;
++      ncred->egid = new->egid;
++      ncred->sgid = new->sgid;
++      ncred->fsgid = new->fsgid;
++      // groups
++      if (set_groups(ncred, new->group_info) < 0) {
++              abort_creds(ncred);
++              goto die;
++      }
++      // caps
++      ncred->securebits = new->securebits;
++      ncred->cap_inheritable = new->cap_inheritable;
++      ncred->cap_permitted = new->cap_permitted;
++      ncred->cap_effective = new->cap_effective;
++      ncred->cap_bset = new->cap_bset;
++
++      if (set_user(ncred)) {
++              abort_creds(ncred);
++              goto die;
++      }
++
++      // from doing get_cred on it when queueing this
++      put_cred(new);
++
++      __commit_creds(ncred);
++      return;
++die:
++      // from doing get_cred on it when queueing this
++      put_cred(new);
++      do_group_exit(SIGKILL);
++}
++#endif
++
++int commit_creds(struct cred *new)
++{
++#ifdef CONFIG_GRKERNSEC_SETXID
++      struct task_struct *t;
++
++      /* we won't get called with tasklist_lock held for writing
++         and interrupts disabled as the cred struct in that case is
++         init_cred
++      */
++      if (grsec_enable_setxid && !current_is_single_threaded() &&
++          !current_uid() && new->uid) {
++              rcu_read_lock();
++              read_lock(&tasklist_lock);
++              for (t = next_thread(current); t != current;
++                      t = next_thread(t)) {
++                      if (t->delayed_cred == NULL) {
++                              t->delayed_cred = get_cred(new);
++                              set_tsk_need_resched(t);
++                      }
++              }
++              read_unlock(&tasklist_lock);
++              rcu_read_unlock();
++      }
++#endif
++      return __commit_creds(new);
++}
++
+ EXPORT_SYMBOL(commit_creds);
++
+ /**
+  * abort_creds - Discard a set of credentials and unlock the current task
+  * @new: The credentials that were going to be applied
+@@ -606,6 +719,8 @@ EXPORT_SYMBOL(commit_creds);
+  */
+ void abort_creds(struct cred *new)
+ {
++      pax_track_stack();
++
+       kdebug("abort_creds(%p{%d,%d})", new,
+              atomic_read(&new->usage),
+              read_cred_subscribers(new));
+@@ -629,6 +744,8 @@ const struct cred *override_creds(const struct cred *new)
+ {
+       const struct cred *old = current->cred;
++      pax_track_stack();
++
+       kdebug("override_creds(%p{%d,%d})", new,
+              atomic_read(&new->usage),
+              read_cred_subscribers(new));
+@@ -658,6 +775,8 @@ void revert_creds(const struct cred *old)
+ {
+       const struct cred *override = current->cred;
++      pax_track_stack();
++
+       kdebug("revert_creds(%p{%d,%d})", old,
+              atomic_read(&old->usage),
+              read_cred_subscribers(old));
+@@ -704,6 +823,8 @@ struct cred *prepare_kernel_cred(struct task_struct *daemon)
+       const struct cred *old;
+       struct cred *new;
++      pax_track_stack();
++
+       new = kmem_cache_alloc(cred_jar, GFP_KERNEL);
+       if (!new)
+               return NULL;
+@@ -758,6 +879,8 @@ EXPORT_SYMBOL(prepare_kernel_cred);
+  */
+ int set_security_override(struct cred *new, u32 secid)
+ {
++      pax_track_stack();
++
+       return security_kernel_act_as(new, secid);
+ }
+ EXPORT_SYMBOL(set_security_override);
+@@ -777,6 +900,8 @@ int set_security_override_from_ctx(struct cred *new, const char *secctx)
+       u32 secid;
+       int ret;
++      pax_track_stack();
++
+       ret = security_secctx_to_secid(secctx, strlen(secctx), &secid);
+       if (ret < 0)
+               return ret;
+diff --git a/kernel/exit.c b/kernel/exit.c
+index 0f8fae3..9344a56 100644
+--- a/kernel/exit.c
++++ b/kernel/exit.c
+@@ -55,6 +55,10 @@
+ #include <asm/pgtable.h>
+ #include <asm/mmu_context.h>
++#ifdef CONFIG_GRKERNSEC
++extern rwlock_t grsec_exec_file_lock;
++#endif
++
+ static void exit_mm(struct task_struct * tsk);
+ static void __unhash_process(struct task_struct *p)
+@@ -174,6 +178,10 @@ void release_task(struct task_struct * p)
+       struct task_struct *leader;
+       int zap_leader;
+ repeat:
++#ifdef CONFIG_NET
++      gr_del_task_from_ip_table(p);
++#endif
++
+       tracehook_prepare_release_task(p);
+       /* don't need to get the RCU readlock here - the process is dead and
+        * can't be modifying its own credentials */
+@@ -397,7 +405,7 @@ int allow_signal(int sig)
+        * know it'll be handled, so that they don't get converted to
+        * SIGKILL or just silently dropped.
+        */
+-      current->sighand->action[(sig)-1].sa.sa_handler = (void __user *)2;
++      current->sighand->action[(sig)-1].sa.sa_handler = (__force void __user *)2;
+       recalc_sigpending();
+       spin_unlock_irq(&current->sighand->siglock);
+       return 0;
+@@ -433,6 +441,17 @@ void daemonize(const char *name, ...)
+       vsnprintf(current->comm, sizeof(current->comm), name, args);
+       va_end(args);
++#ifdef CONFIG_GRKERNSEC
++      write_lock(&grsec_exec_file_lock);
++      if (current->exec_file) {
++              fput(current->exec_file);
++              current->exec_file = NULL;
++      }
++      write_unlock(&grsec_exec_file_lock);
++#endif
++
++      gr_set_kernel_label(current);
++
+       /*
+        * If we were started as result of loading a module, close all of the
+        * user space pages.  We don't need them, and if we didn't close them
+@@ -897,17 +916,17 @@ NORET_TYPE void do_exit(long code)
+       struct task_struct *tsk = current;
+       int group_dead;
+-      profile_task_exit(tsk);
+-
+-      WARN_ON(atomic_read(&tsk->fs_excl));
+-
++      /*
++       * Check this first since set_fs() below depends on
++       * current_thread_info(), which we better not access when we're in
++       * interrupt context.  Other than that, we want to do the set_fs()
++       * as early as possible.
++       */
+       if (unlikely(in_interrupt()))
+               panic("Aiee, killing interrupt handler!");
+-      if (unlikely(!tsk->pid))
+-              panic("Attempted to kill the idle task!");
+       /*
+-       * If do_exit is called because this processes oopsed, it's possible
++       * If do_exit is called because this processes Oops'ed, it's possible
+        * that get_fs() was left as KERNEL_DS, so reset it to USER_DS before
+        * continuing. Amongst other possible reasons, this is to prevent
+        * mm_release()->clear_child_tid() from writing to a user-controlled
+@@ -915,6 +934,13 @@ NORET_TYPE void do_exit(long code)
+        */
+       set_fs(USER_DS);
++      profile_task_exit(tsk);
++
++      WARN_ON(atomic_read(&tsk->fs_excl));
++
++      if (unlikely(!tsk->pid))
++              panic("Attempted to kill the idle task!");
++
+       tracehook_report_exit(&code);
+       validate_creds_for_do_exit(tsk);
+@@ -973,6 +999,9 @@ NORET_TYPE void do_exit(long code)
+       tsk->exit_code = code;
+       taskstats_exit(tsk, group_dead);
++      gr_acl_handle_psacct(tsk, code);
++      gr_acl_handle_exit();
++
+       exit_mm(tsk);
+       if (group_dead)
+@@ -1188,7 +1217,7 @@ static int wait_task_zombie(struct wait_opts *wo, struct task_struct *p)
+       if (unlikely(wo->wo_flags & WNOWAIT)) {
+               int exit_code = p->exit_code;
+-              int why, status;
++              int why;
+               get_task_struct(p);
+               read_unlock(&tasklist_lock);
+diff --git a/kernel/fork.c b/kernel/fork.c
+index 4bde56f..a07de53 100644
+--- a/kernel/fork.c
++++ b/kernel/fork.c
+@@ -253,7 +253,7 @@ static struct task_struct *dup_task_struct(struct task_struct *orig)
+       *stackend = STACK_END_MAGIC;    /* for overflow detection */
+ #ifdef CONFIG_CC_STACKPROTECTOR
+-      tsk->stack_canary = get_random_int();
++      tsk->stack_canary = pax_get_random_long();
+ #endif
+       /* One for us, one for whoever does the "release_task()" (usually parent) */
+@@ -293,8 +293,8 @@ static int dup_mmap(struct mm_struct *mm, struct mm_struct *oldmm)
+       mm->locked_vm = 0;
+       mm->mmap = NULL;
+       mm->mmap_cache = NULL;
+-      mm->free_area_cache = oldmm->mmap_base;
+-      mm->cached_hole_size = ~0UL;
++      mm->free_area_cache = oldmm->free_area_cache;
++      mm->cached_hole_size = oldmm->cached_hole_size;
+       mm->map_count = 0;
+       cpumask_clear(mm_cpumask(mm));
+       mm->mm_rb = RB_ROOT;
+@@ -335,6 +335,7 @@ static int dup_mmap(struct mm_struct *mm, struct mm_struct *oldmm)
+               tmp->vm_flags &= ~VM_LOCKED;
+               tmp->vm_mm = mm;
+               tmp->vm_next = tmp->vm_prev = NULL;
++              tmp->vm_mirror = NULL;
+               anon_vma_link(tmp);
+               file = tmp->vm_file;
+               if (file) {
+@@ -384,6 +385,31 @@ static int dup_mmap(struct mm_struct *mm, struct mm_struct *oldmm)
+               if (retval)
+                       goto out;
+       }
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (oldmm->pax_flags & MF_PAX_SEGMEXEC) {
++              struct vm_area_struct *mpnt_m;
++
++              for (mpnt = oldmm->mmap, mpnt_m = mm->mmap; mpnt; mpnt = mpnt->vm_next, mpnt_m = mpnt_m->vm_next) {
++                      BUG_ON(!mpnt_m || mpnt_m->vm_mirror || mpnt->vm_mm != oldmm || mpnt_m->vm_mm != mm);
++
++                      if (!mpnt->vm_mirror)
++                              continue;
++
++                      if (mpnt->vm_end <= SEGMEXEC_TASK_SIZE) {
++                              BUG_ON(mpnt->vm_mirror->vm_mirror != mpnt);
++                              mpnt->vm_mirror = mpnt_m;
++                      } else {
++                              BUG_ON(mpnt->vm_mirror->vm_mirror == mpnt || mpnt->vm_mirror->vm_mirror->vm_mm != mm);
++                              mpnt_m->vm_mirror = mpnt->vm_mirror->vm_mirror;
++                              mpnt_m->vm_mirror->vm_mirror = mpnt_m;
++                              mpnt->vm_mirror->vm_mirror = mpnt;
++                      }
++              }
++              BUG_ON(mpnt_m);
++      }
++#endif
++
+       /* a new mm has just been created */
+       arch_dup_mmap(oldmm, mm);
+       retval = 0;
+@@ -734,13 +760,14 @@ static int copy_fs(unsigned long clone_flags, struct task_struct *tsk)
+                       write_unlock(&fs->lock);
+                       return -EAGAIN;
+               }
+-              fs->users++;
++              atomic_inc(&fs->users);
+               write_unlock(&fs->lock);
+               return 0;
+       }
+       tsk->fs = copy_fs_struct(fs);
+       if (!tsk->fs)
+               return -ENOMEM;
++      gr_set_chroot_entries(tsk, &tsk->fs->root);
+       return 0;
+ }
+@@ -1033,12 +1060,16 @@ static struct task_struct *copy_process(unsigned long clone_flags,
+       DEBUG_LOCKS_WARN_ON(!p->softirqs_enabled);
+ #endif
+       retval = -EAGAIN;
++
++      gr_learn_resource(p, RLIMIT_NPROC, atomic_read(&p->real_cred->user->processes), 0);
++
+       if (atomic_read(&p->real_cred->user->processes) >=
+                       p->signal->rlim[RLIMIT_NPROC].rlim_cur) {
+-              if (!capable(CAP_SYS_ADMIN) && !capable(CAP_SYS_RESOURCE) &&
+-                  p->real_cred->user != INIT_USER)
++              if (p->real_cred->user != INIT_USER &&
++                  !capable(CAP_SYS_RESOURCE) && !capable(CAP_SYS_ADMIN))
+                       goto bad_fork_free;
+       }
++      current->flags &= ~PF_NPROC_EXCEEDED;
+       retval = copy_creds(p, clone_flags);
+       if (retval < 0)
+@@ -1183,6 +1214,12 @@ static struct task_struct *copy_process(unsigned long clone_flags,
+                       goto bad_fork_free_pid;
+       }
++      gr_copy_label(p);
++
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      p->exec_id = current->exec_id;
++#endif
++
+       p->set_child_tid = (clone_flags & CLONE_CHILD_SETTID) ? child_tidptr : NULL;
+       /*
+        * Clear TID on mm_release()?
+@@ -1333,6 +1370,8 @@ bad_fork_cleanup_count:
+ bad_fork_free:
+       free_task(p);
+ fork_out:
++      gr_log_forkfail(retval);
++
+       return ERR_PTR(retval);
+ }
+@@ -1426,6 +1465,8 @@ long do_fork(unsigned long clone_flags,
+               if (clone_flags & CLONE_PARENT_SETTID)
+                       put_user(nr, parent_tidptr);
++              gr_handle_brute_check();
++
+               if (clone_flags & CLONE_VFORK) {
+                       p->vfork_done = &vfork;
+                       init_completion(&vfork);
+@@ -1558,7 +1599,7 @@ static int unshare_fs(unsigned long unshare_flags, struct fs_struct **new_fsp)
+               return 0;
+       /* don't need lock here; in the worst case we'll do useless copy */
+-      if (fs->users == 1)
++      if (atomic_read(&fs->users) == 1)
+               return 0;
+       *new_fsp = copy_fs_struct(fs);
+@@ -1681,7 +1722,8 @@ SYSCALL_DEFINE1(unshare, unsigned long, unshare_flags)
+                       fs = current->fs;
+                       write_lock(&fs->lock);
+                       current->fs = new_fs;
+-                      if (--fs->users)
++                      gr_set_chroot_entries(current, &current->fs->root);
++                      if (atomic_dec_return(&fs->users))
+                               new_fs = NULL;
+                       else
+                               new_fs = fs;
+diff --git a/kernel/futex.c b/kernel/futex.c
+index fb98c9f..333faec 100644
+--- a/kernel/futex.c
++++ b/kernel/futex.c
+@@ -54,6 +54,7 @@
+ #include <linux/mount.h>
+ #include <linux/pagemap.h>
+ #include <linux/syscalls.h>
++#include <linux/ptrace.h>
+ #include <linux/signal.h>
+ #include <linux/module.h>
+ #include <linux/magic.h>
+@@ -223,6 +224,11 @@ get_futex_key(u32 __user *uaddr, int fshared, union futex_key *key, int rw)
+       struct page *page;
+       int err, ro = 0;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && address >= SEGMEXEC_TASK_SIZE)
++              return -EFAULT;
++#endif
++
+       /*
+        * The futex address must be "naturally" aligned.
+        */
+@@ -1819,6 +1825,8 @@ static int futex_wait(u32 __user *uaddr, int fshared,
+       struct futex_q q;
+       int ret;
++      pax_track_stack();
++
+       if (!bitset)
+               return -EINVAL;
+@@ -1871,7 +1879,7 @@ retry:
+       restart = &current_thread_info()->restart_block;
+       restart->fn = futex_wait_restart;
+-      restart->futex.uaddr = (u32 *)uaddr;
++      restart->futex.uaddr = uaddr;
+       restart->futex.val = val;
+       restart->futex.time = abs_time->tv64;
+       restart->futex.bitset = bitset;
+@@ -2233,6 +2241,8 @@ static int futex_wait_requeue_pi(u32 __user *uaddr, int fshared,
+       struct futex_q q;
+       int res, ret;
++      pax_track_stack();
++
+       if (!bitset)
+               return -EINVAL;
+@@ -2423,6 +2433,10 @@ SYSCALL_DEFINE3(get_robust_list, int, pid,
+               if (!p)
+                       goto err_unlock;
+               ret = -EPERM;
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++              if (!ptrace_may_access(p, PTRACE_MODE_READ))
++                      goto err_unlock;
++#endif
+               pcred = __task_cred(p);
+               if (cred->euid != pcred->euid &&
+                   cred->euid != pcred->uid &&
+@@ -2489,7 +2503,7 @@ retry:
+  */
+ static inline int fetch_robust_entry(struct robust_list __user **entry,
+                                    struct robust_list __user * __user *head,
+-                                   int *pi)
++                                   unsigned int *pi)
+ {
+       unsigned long uentry;
+@@ -2670,6 +2684,7 @@ static int __init futex_init(void)
+ {
+       u32 curval;
+       int i;
++      mm_segment_t oldfs;
+       /*
+        * This will fail and we want it. Some arch implementations do
+@@ -2681,7 +2696,10 @@ static int __init futex_init(void)
+        * implementation, the non functional ones will return
+        * -ENOSYS.
+        */
++      oldfs = get_fs();
++      set_fs(USER_DS);
+       curval = cmpxchg_futex_value_locked(NULL, 0, 0);
++      set_fs(oldfs);
+       if (curval == -EFAULT)
+               futex_cmpxchg_enabled = 1;
+diff --git a/kernel/futex_compat.c b/kernel/futex_compat.c
+index 2357165..eb25501 100644
+--- a/kernel/futex_compat.c
++++ b/kernel/futex_compat.c
+@@ -10,6 +10,7 @@
+ #include <linux/compat.h>
+ #include <linux/nsproxy.h>
+ #include <linux/futex.h>
++#include <linux/ptrace.h>
+ #include <asm/uaccess.h>
+@@ -135,7 +136,8 @@ compat_sys_get_robust_list(int pid, compat_uptr_t __user *head_ptr,
+ {
+       struct compat_robust_list_head __user *head;
+       unsigned long ret;
+-      const struct cred *cred = current_cred(), *pcred;
++      const struct cred *cred = current_cred();
++      const struct cred *pcred;
+       if (!futex_cmpxchg_enabled)
+               return -ENOSYS;
+@@ -151,6 +153,10 @@ compat_sys_get_robust_list(int pid, compat_uptr_t __user *head_ptr,
+               if (!p)
+                       goto err_unlock;
+               ret = -EPERM;
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++              if (!ptrace_may_access(p, PTRACE_MODE_READ))
++                      goto err_unlock;
++#endif
+               pcred = __task_cred(p);
+               if (cred->euid != pcred->euid &&
+                   cred->euid != pcred->uid &&
+diff --git a/kernel/gcov/base.c b/kernel/gcov/base.c
+index 9b22d03..6295b62 100644
+--- a/kernel/gcov/base.c
++++ b/kernel/gcov/base.c
+@@ -102,11 +102,6 @@ void gcov_enable_events(void)
+ }
+ #ifdef CONFIG_MODULES
+-static inline int within(void *addr, void *start, unsigned long size)
+-{
+-      return ((addr >= start) && (addr < start + size));
+-}
+-
+ /* Update list and generate events when modules are unloaded. */
+ static int gcov_module_notifier(struct notifier_block *nb, unsigned long event,
+                               void *data)
+@@ -121,7 +116,7 @@ static int gcov_module_notifier(struct notifier_block *nb, unsigned long event,
+       prev = NULL;
+       /* Remove entries located in module from linked list. */
+       for (info = gcov_info_head; info; info = info->next) {
+-              if (within(info, mod->module_core, mod->core_size)) {
++              if (within_module_core_rw((unsigned long)info, mod)) {
+                       if (prev)
+                               prev->next = info->next;
+                       else
+diff --git a/kernel/hrtimer.c b/kernel/hrtimer.c
+index a6e9d00..a0da4f9 100644
+--- a/kernel/hrtimer.c
++++ b/kernel/hrtimer.c
+@@ -1391,7 +1391,7 @@ void hrtimer_peek_ahead_timers(void)
+       local_irq_restore(flags);
+ }
+-static void run_hrtimer_softirq(struct softirq_action *h)
++static void run_hrtimer_softirq(void)
+ {
+       hrtimer_peek_ahead_timers();
+ }
+diff --git a/kernel/kallsyms.c b/kernel/kallsyms.c
+index 8b6b8b6..6bc87df 100644
+--- a/kernel/kallsyms.c
++++ b/kernel/kallsyms.c
+@@ -11,6 +11,9 @@
+  *      Changed the compression method from stem compression to "table lookup"
+  *      compression (see scripts/kallsyms.c for a more complete description)
+  */
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++#define __INCLUDED_BY_HIDESYM 1
++#endif
+ #include <linux/kallsyms.h>
+ #include <linux/module.h>
+ #include <linux/init.h>
+@@ -51,12 +54,33 @@ extern const unsigned long kallsyms_markers[] __attribute__((weak));
+ static inline int is_kernel_inittext(unsigned long addr)
+ {
++      if (system_state != SYSTEM_BOOTING)
++              return 0;
++
+       if (addr >= (unsigned long)_sinittext
+           && addr <= (unsigned long)_einittext)
+               return 1;
+       return 0;
+ }
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++#ifdef CONFIG_MODULES
++static inline int is_module_text(unsigned long addr)
++{
++      if ((unsigned long)MODULES_EXEC_VADDR <= addr && addr <= (unsigned long)MODULES_EXEC_END)
++              return 1;
++
++      addr = ktla_ktva(addr);
++      return (unsigned long)MODULES_EXEC_VADDR <= addr && addr <= (unsigned long)MODULES_EXEC_END;
++}
++#else
++static inline int is_module_text(unsigned long addr)
++{
++      return 0;
++}
++#endif
++#endif
++
+ static inline int is_kernel_text(unsigned long addr)
+ {
+       if ((addr >= (unsigned long)_stext && addr <= (unsigned long)_etext) ||
+@@ -67,13 +91,28 @@ static inline int is_kernel_text(unsigned long addr)
+ static inline int is_kernel(unsigned long addr)
+ {
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++      if (is_kernel_text(addr) || is_kernel_inittext(addr))
++              return 1;
++
++      if (ktla_ktva((unsigned long)_text) <= addr && addr < (unsigned long)_end)
++#else
+       if (addr >= (unsigned long)_stext && addr <= (unsigned long)_end)
++#endif
++
+               return 1;
+       return in_gate_area_no_task(addr);
+ }
+ static int is_ksym_addr(unsigned long addr)
+ {
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++      if (is_module_text(addr))
++              return 0;
++#endif
++
+       if (all_var)
+               return is_kernel(addr);
+@@ -413,7 +452,6 @@ static unsigned long get_ksymbol_core(struct kallsym_iter *iter)
+ static void reset_iter(struct kallsym_iter *iter, loff_t new_pos)
+ {
+-      iter->name[0] = '\0';
+       iter->nameoff = get_symbol_offset(new_pos);
+       iter->pos = new_pos;
+ }
+@@ -461,6 +499,11 @@ static int s_show(struct seq_file *m, void *p)
+ {
+       struct kallsym_iter *iter = m->private;
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      if (current_uid())
++              return 0;
++#endif
++
+       /* Some debugging symbols have no name.  Ignore them. */
+       if (!iter->name[0])
+               return 0;
+@@ -501,7 +544,7 @@ static int kallsyms_open(struct inode *inode, struct file *file)
+       struct kallsym_iter *iter;
+       int ret;
+-      iter = kmalloc(sizeof(*iter), GFP_KERNEL);
++      iter = kzalloc(sizeof(*iter), GFP_KERNEL);
+       if (!iter)
+               return -ENOMEM;
+       reset_iter(iter, 0);
+diff --git a/kernel/kexec.c b/kernel/kexec.c
+index f336e21..9c1c20b 100644
+--- a/kernel/kexec.c
++++ b/kernel/kexec.c
+@@ -1028,7 +1028,8 @@ asmlinkage long compat_sys_kexec_load(unsigned long entry,
+                               unsigned long flags)
+ {
+       struct compat_kexec_segment in;
+-      struct kexec_segment out, __user *ksegments;
++      struct kexec_segment out;
++      struct kexec_segment __user *ksegments;
+       unsigned long i, result;
+       /* Don't allow clients that don't understand the native
+diff --git a/kernel/kgdb.c b/kernel/kgdb.c
+index 53dae4b..9ba3743 100644
+--- a/kernel/kgdb.c
++++ b/kernel/kgdb.c
+@@ -86,7 +86,7 @@ static int                   kgdb_io_module_registered;
+ /* Guard for recursive entry */
+ static int                    exception_level;
+-static struct kgdb_io         *kgdb_io_ops;
++static const struct kgdb_io   *kgdb_io_ops;
+ static DEFINE_SPINLOCK(kgdb_registration_lock);
+ /* kgdb console driver is loaded */
+@@ -123,7 +123,7 @@ atomic_t                   kgdb_active = ATOMIC_INIT(-1);
+  */
+ static atomic_t                       passive_cpu_wait[NR_CPUS];
+ static atomic_t                       cpu_in_kgdb[NR_CPUS];
+-atomic_t                      kgdb_setting_breakpoint;
++atomic_unchecked_t            kgdb_setting_breakpoint;
+ struct task_struct            *kgdb_usethread;
+ struct task_struct            *kgdb_contthread;
+@@ -140,7 +140,7 @@ static unsigned long               gdb_regs[(NUMREGBYTES +
+                                       sizeof(unsigned long)];
+ /* to keep track of the CPU which is doing the single stepping*/
+-atomic_t                      kgdb_cpu_doing_single_step = ATOMIC_INIT(-1);
++atomic_unchecked_t            kgdb_cpu_doing_single_step = ATOMIC_INIT(-1);
+ /*
+  * If you are debugging a problem where roundup (the collection of
+@@ -815,7 +815,7 @@ static int kgdb_io_ready(int print_wait)
+               return 0;
+       if (kgdb_connected)
+               return 1;
+-      if (atomic_read(&kgdb_setting_breakpoint))
++      if (atomic_read_unchecked(&kgdb_setting_breakpoint))
+               return 1;
+       if (print_wait)
+               printk(KERN_CRIT "KGDB: Waiting for remote debugger\n");
+@@ -1426,8 +1426,8 @@ acquirelock:
+        * instance of the exception handler wanted to come into the
+        * debugger on a different CPU via a single step
+        */
+-      if (atomic_read(&kgdb_cpu_doing_single_step) != -1 &&
+-          atomic_read(&kgdb_cpu_doing_single_step) != cpu) {
++      if (atomic_read_unchecked(&kgdb_cpu_doing_single_step) != -1 &&
++          atomic_read_unchecked(&kgdb_cpu_doing_single_step) != cpu) {
+               atomic_set(&kgdb_active, -1);
+               touch_softlockup_watchdog();
+@@ -1634,7 +1634,7 @@ static void kgdb_initial_breakpoint(void)
+  *
+  *    Register it with the KGDB core.
+  */
+-int kgdb_register_io_module(struct kgdb_io *new_kgdb_io_ops)
++int kgdb_register_io_module(const struct kgdb_io *new_kgdb_io_ops)
+ {
+       int err;
+@@ -1679,7 +1679,7 @@ EXPORT_SYMBOL_GPL(kgdb_register_io_module);
+  *
+  *    Unregister it with the KGDB core.
+  */
+-void kgdb_unregister_io_module(struct kgdb_io *old_kgdb_io_ops)
++void kgdb_unregister_io_module(const struct kgdb_io *old_kgdb_io_ops)
+ {
+       BUG_ON(kgdb_connected);
+@@ -1712,11 +1712,11 @@ EXPORT_SYMBOL_GPL(kgdb_unregister_io_module);
+  */
+ void kgdb_breakpoint(void)
+ {
+-      atomic_set(&kgdb_setting_breakpoint, 1);
++      atomic_set_unchecked(&kgdb_setting_breakpoint, 1);
+       wmb(); /* Sync point before breakpoint */
+       arch_kgdb_breakpoint();
+       wmb(); /* Sync point after breakpoint */
+-      atomic_set(&kgdb_setting_breakpoint, 0);
++      atomic_set_unchecked(&kgdb_setting_breakpoint, 0);
+ }
+ EXPORT_SYMBOL_GPL(kgdb_breakpoint);
+diff --git a/kernel/kmod.c b/kernel/kmod.c
+index d206078..e27ba6a 100644
+--- a/kernel/kmod.c
++++ b/kernel/kmod.c
+@@ -65,13 +65,12 @@ char modprobe_path[KMOD_PATH_LEN] = "/sbin/modprobe";
+  * If module auto-loading support is disabled then this function
+  * becomes a no-operation.
+  */
+-int __request_module(bool wait, const char *fmt, ...)
++static int ____request_module(bool wait, char *module_param, const char *fmt, va_list ap)
+ {
+-      va_list args;
+       char module_name[MODULE_NAME_LEN];
+       unsigned int max_modprobes;
+       int ret;
+-      char *argv[] = { modprobe_path, "-q", "--", module_name, NULL };
++      char *argv[] = { modprobe_path, "-q", "--", module_name, module_param, NULL };
+       static char *envp[] = { "HOME=/",
+                               "TERM=linux",
+                               "PATH=/sbin:/usr/sbin:/bin:/usr/bin",
+@@ -84,12 +83,24 @@ int __request_module(bool wait, const char *fmt, ...)
+       if (ret)
+               return ret;
+-      va_start(args, fmt);
+-      ret = vsnprintf(module_name, MODULE_NAME_LEN, fmt, args);
+-      va_end(args);
++      ret = vsnprintf(module_name, MODULE_NAME_LEN, fmt, ap);
+       if (ret >= MODULE_NAME_LEN)
+               return -ENAMETOOLONG;
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++      if (!current_uid()) {
++              /* hack to workaround consolekit/udisks stupidity */
++              read_lock(&tasklist_lock);
++              if (!strcmp(current->comm, "mount") &&
++                  current->real_parent && !strncmp(current->real_parent->comm, "udisk", 5)) {
++                      read_unlock(&tasklist_lock);
++                      printk(KERN_ALERT "grsec: denied attempt to auto-load fs module %.64s by udisks\n", module_name);
++                      return -EPERM;
++              }
++              read_unlock(&tasklist_lock);
++      }
++#endif
++
+       /* If modprobe needs a service that is in a module, we get a recursive
+        * loop.  Limit the number of running kmod threads to max_threads/2 or
+        * MAX_KMOD_CONCURRENT, whichever is the smaller.  A cleaner method
+@@ -123,6 +134,48 @@ int __request_module(bool wait, const char *fmt, ...)
+       atomic_dec(&kmod_concurrent);
+       return ret;
+ }
++
++int ___request_module(bool wait, char *module_param, const char *fmt, ...)
++{
++      va_list args;
++      int ret;
++
++      va_start(args, fmt);
++      ret = ____request_module(wait, module_param, fmt, args);
++      va_end(args);
++
++      return ret;
++}
++
++int __request_module(bool wait, const char *fmt, ...)
++{
++      va_list args;
++      int ret;
++
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++      if (current_uid()) {
++              char module_param[MODULE_NAME_LEN];
++
++              memset(module_param, 0, sizeof(module_param));
++
++              snprintf(module_param, sizeof(module_param) - 1, "grsec_modharden_normal%u_", current_uid());
++
++              va_start(args, fmt);
++              ret = ____request_module(wait, module_param, fmt, args);
++              va_end(args);
++
++              return ret;
++      }
++#endif
++
++      va_start(args, fmt);
++      ret = ____request_module(wait, NULL, fmt, args);
++      va_end(args);
++
++      return ret;
++}
++
++
+ EXPORT_SYMBOL(__request_module);
+ #endif /* CONFIG_MODULES */
+@@ -228,7 +281,7 @@ static int wait_for_helper(void *data)
+                *
+                * Thus the __user pointer cast is valid here.
+                */
+-              sys_wait4(pid, (int __user *)&ret, 0, NULL);
++              sys_wait4(pid, (int __force_user *)&ret, 0, NULL);
+               /*
+                * If ret is 0, either ____call_usermodehelper failed and the
+diff --git a/kernel/kprobes.c b/kernel/kprobes.c
+index 176d825..77fa8ea 100644
+--- a/kernel/kprobes.c
++++ b/kernel/kprobes.c
+@@ -183,7 +183,7 @@ static kprobe_opcode_t __kprobes *__get_insn_slot(void)
+        * kernel image and loaded module images reside. This is required
+        * so x86_64 can correctly handle the %rip-relative fixups.
+        */
+-      kip->insns = module_alloc(PAGE_SIZE);
++      kip->insns = module_alloc_exec(PAGE_SIZE);
+       if (!kip->insns) {
+               kfree(kip);
+               return NULL;
+@@ -220,7 +220,7 @@ static int __kprobes collect_one_slot(struct kprobe_insn_page *kip, int idx)
+                */
+               if (!list_is_singular(&kprobe_insn_pages)) {
+                       list_del(&kip->list);
+-                      module_free(NULL, kip->insns);
++                      module_free_exec(NULL, kip->insns);
+                       kfree(kip);
+               }
+               return 1;
+@@ -1189,7 +1189,7 @@ static int __init init_kprobes(void)
+ {
+       int i, err = 0;
+       unsigned long offset = 0, size = 0;
+-      char *modname, namebuf[128];
++      char *modname, namebuf[KSYM_NAME_LEN];
+       const char *symbol_name;
+       void *addr;
+       struct kprobe_blackpoint *kb;
+@@ -1304,7 +1304,7 @@ static int __kprobes show_kprobe_addr(struct seq_file *pi, void *v)
+       const char *sym = NULL;
+       unsigned int i = *(loff_t *) v;
+       unsigned long offset = 0;
+-      char *modname, namebuf[128];
++      char *modname, namebuf[KSYM_NAME_LEN];
+       head = &kprobe_table[i];
+       preempt_disable();
+diff --git a/kernel/lockdep.c b/kernel/lockdep.c
+index d86fe89..d12fc66 100644
+--- a/kernel/lockdep.c
++++ b/kernel/lockdep.c
+@@ -421,20 +421,20 @@ static struct stack_trace lockdep_init_trace = {
+ /*
+  * Various lockdep statistics:
+  */
+-atomic_t chain_lookup_hits;
+-atomic_t chain_lookup_misses;
+-atomic_t hardirqs_on_events;
+-atomic_t hardirqs_off_events;
+-atomic_t redundant_hardirqs_on;
+-atomic_t redundant_hardirqs_off;
+-atomic_t softirqs_on_events;
+-atomic_t softirqs_off_events;
+-atomic_t redundant_softirqs_on;
+-atomic_t redundant_softirqs_off;
+-atomic_t nr_unused_locks;
+-atomic_t nr_cyclic_checks;
+-atomic_t nr_find_usage_forwards_checks;
+-atomic_t nr_find_usage_backwards_checks;
++atomic_unchecked_t chain_lookup_hits;
++atomic_unchecked_t chain_lookup_misses;
++atomic_unchecked_t hardirqs_on_events;
++atomic_unchecked_t hardirqs_off_events;
++atomic_unchecked_t redundant_hardirqs_on;
++atomic_unchecked_t redundant_hardirqs_off;
++atomic_unchecked_t softirqs_on_events;
++atomic_unchecked_t softirqs_off_events;
++atomic_unchecked_t redundant_softirqs_on;
++atomic_unchecked_t redundant_softirqs_off;
++atomic_unchecked_t nr_unused_locks;
++atomic_unchecked_t nr_cyclic_checks;
++atomic_unchecked_t nr_find_usage_forwards_checks;
++atomic_unchecked_t nr_find_usage_backwards_checks;
+ #endif
+ /*
+@@ -577,6 +577,10 @@ static int static_obj(void *obj)
+       int i;
+ #endif
++#ifdef CONFIG_PAX_KERNEXEC
++      start = ktla_ktva(start);
++#endif
++
+       /*
+        * static variable?
+        */
+@@ -592,8 +596,7 @@ static int static_obj(void *obj)
+        */
+       for_each_possible_cpu(i) {
+               start = (unsigned long) &__per_cpu_start + per_cpu_offset(i);
+-              end   = (unsigned long) &__per_cpu_start + PERCPU_ENOUGH_ROOM
+-                                      + per_cpu_offset(i);
++              end   = start + PERCPU_ENOUGH_ROOM;
+               if ((addr >= start) && (addr < end))
+                       return 1;
+@@ -710,6 +713,7 @@ register_lock_class(struct lockdep_map *lock, unsigned int subclass, int force)
+       if (!static_obj(lock->key)) {
+               debug_locks_off();
+               printk("INFO: trying to register non-static key.\n");
++              printk("lock:%pS key:%pS.\n", lock, lock->key);
+               printk("the code is fine but needs lockdep annotation.\n");
+               printk("turning off the locking correctness validator.\n");
+               dump_stack();
+@@ -2751,7 +2755,7 @@ static int __lock_acquire(struct lockdep_map *lock, unsigned int subclass,
+               if (!class)
+                       return 0;
+       }
+-      debug_atomic_inc((atomic_t *)&class->ops);
++      debug_atomic_inc((atomic_unchecked_t *)&class->ops);
+       if (very_verbose(class)) {
+               printk("\nacquire class [%p] %s", class->key, class->name);
+               if (class->name_version > 1)
+diff --git a/kernel/lockdep_internals.h b/kernel/lockdep_internals.h
+index a2ee95a..092f0f2 100644
+--- a/kernel/lockdep_internals.h
++++ b/kernel/lockdep_internals.h
+@@ -113,26 +113,26 @@ lockdep_count_backward_deps(struct lock_class *class)
+ /*
+  * Various lockdep statistics:
+  */
+-extern atomic_t chain_lookup_hits;
+-extern atomic_t chain_lookup_misses;
+-extern atomic_t hardirqs_on_events;
+-extern atomic_t hardirqs_off_events;
+-extern atomic_t redundant_hardirqs_on;
+-extern atomic_t redundant_hardirqs_off;
+-extern atomic_t softirqs_on_events;
+-extern atomic_t softirqs_off_events;
+-extern atomic_t redundant_softirqs_on;
+-extern atomic_t redundant_softirqs_off;
+-extern atomic_t nr_unused_locks;
+-extern atomic_t nr_cyclic_checks;
+-extern atomic_t nr_cyclic_check_recursions;
+-extern atomic_t nr_find_usage_forwards_checks;
+-extern atomic_t nr_find_usage_forwards_recursions;
+-extern atomic_t nr_find_usage_backwards_checks;
+-extern atomic_t nr_find_usage_backwards_recursions;
+-# define debug_atomic_inc(ptr)                atomic_inc(ptr)
+-# define debug_atomic_dec(ptr)                atomic_dec(ptr)
+-# define debug_atomic_read(ptr)               atomic_read(ptr)
++extern atomic_unchecked_t chain_lookup_hits;
++extern atomic_unchecked_t chain_lookup_misses;
++extern atomic_unchecked_t hardirqs_on_events;
++extern atomic_unchecked_t hardirqs_off_events;
++extern atomic_unchecked_t redundant_hardirqs_on;
++extern atomic_unchecked_t redundant_hardirqs_off;
++extern atomic_unchecked_t softirqs_on_events;
++extern atomic_unchecked_t softirqs_off_events;
++extern atomic_unchecked_t redundant_softirqs_on;
++extern atomic_unchecked_t redundant_softirqs_off;
++extern atomic_unchecked_t nr_unused_locks;
++extern atomic_unchecked_t nr_cyclic_checks;
++extern atomic_unchecked_t nr_cyclic_check_recursions;
++extern atomic_unchecked_t nr_find_usage_forwards_checks;
++extern atomic_unchecked_t nr_find_usage_forwards_recursions;
++extern atomic_unchecked_t nr_find_usage_backwards_checks;
++extern atomic_unchecked_t nr_find_usage_backwards_recursions;
++# define debug_atomic_inc(ptr)                atomic_inc_unchecked(ptr)
++# define debug_atomic_dec(ptr)                atomic_dec_unchecked(ptr)
++# define debug_atomic_read(ptr)               atomic_read_unchecked(ptr)
+ #else
+ # define debug_atomic_inc(ptr)                do { } while (0)
+ # define debug_atomic_dec(ptr)                do { } while (0)
+diff --git a/kernel/lockdep_proc.c b/kernel/lockdep_proc.c
+index d4aba4f..02a353f 100644
+--- a/kernel/lockdep_proc.c
++++ b/kernel/lockdep_proc.c
+@@ -39,7 +39,7 @@ static void l_stop(struct seq_file *m, void *v)
+ static void print_name(struct seq_file *m, struct lock_class *class)
+ {
+-      char str[128];
++      char str[KSYM_NAME_LEN];
+       const char *name = class->name;
+       if (!name) {
+diff --git a/kernel/module.c b/kernel/module.c
+index 4b270e6..2226274 100644
+--- a/kernel/module.c
++++ b/kernel/module.c
+@@ -55,6 +55,7 @@
+ #include <linux/async.h>
+ #include <linux/percpu.h>
+ #include <linux/kmemleak.h>
++#include <linux/grsecurity.h>
+ #define CREATE_TRACE_POINTS
+ #include <trace/events/module.h>
+@@ -89,7 +90,8 @@ static DECLARE_WAIT_QUEUE_HEAD(module_wq);
+ static BLOCKING_NOTIFIER_HEAD(module_notify_list);
+ /* Bounds of module allocation, for speeding __module_address */
+-static unsigned long module_addr_min = -1UL, module_addr_max = 0;
++static unsigned long module_addr_min_rw = -1UL, module_addr_max_rw = 0;
++static unsigned long module_addr_min_rx = -1UL, module_addr_max_rx = 0;
+ int register_module_notifier(struct notifier_block * nb)
+ {
+@@ -245,7 +247,7 @@ bool each_symbol(bool (*fn)(const struct symsearch *arr, struct module *owner,
+               return true;
+       list_for_each_entry_rcu(mod, &modules, list) {
+-              struct symsearch arr[] = {
++              struct symsearch modarr[] = {
+                       { mod->syms, mod->syms + mod->num_syms, mod->crcs,
+                         NOT_GPL_ONLY, false },
+                       { mod->gpl_syms, mod->gpl_syms + mod->num_gpl_syms,
+@@ -267,7 +269,7 @@ bool each_symbol(bool (*fn)(const struct symsearch *arr, struct module *owner,
+ #endif
+               };
+-              if (each_symbol_in_section(arr, ARRAY_SIZE(arr), mod, fn, data))
++              if (each_symbol_in_section(modarr, ARRAY_SIZE(modarr), mod, fn, data))
+                       return true;
+       }
+       return false;
+@@ -442,7 +444,7 @@ static void *percpu_modalloc(unsigned long size, unsigned long align,
+       void *ptr;
+       int cpu;
+-      if (align > PAGE_SIZE) {
++      if (align-1 >= PAGE_SIZE) {
+               printk(KERN_WARNING "%s: per-cpu alignment %li > %li\n",
+                      name, align, PAGE_SIZE);
+               align = PAGE_SIZE;
+@@ -1158,7 +1160,7 @@ static const struct kernel_symbol *resolve_symbol(Elf_Shdr *sechdrs,
+  * /sys/module/foo/sections stuff
+  * J. Corbet <corbet@lwn.net>
+  */
+-#if defined(CONFIG_KALLSYMS) && defined(CONFIG_SYSFS)
++#if defined(CONFIG_KALLSYMS) && defined(CONFIG_SYSFS) && !defined(CONFIG_GRKERNSEC_HIDESYM)
+ static inline bool sect_empty(const Elf_Shdr *sect)
+ {
+@@ -1545,7 +1547,8 @@ static void free_module(struct module *mod)
+       destroy_params(mod->kp, mod->num_kp);
+       /* This may be NULL, but that's OK */
+-      module_free(mod, mod->module_init);
++      module_free(mod, mod->module_init_rw);
++      module_free_exec(mod, mod->module_init_rx);
+       kfree(mod->args);
+       if (mod->percpu)
+               percpu_modfree(mod->percpu);
+@@ -1554,10 +1557,12 @@ static void free_module(struct module *mod)
+               percpu_modfree(mod->refptr);
+ #endif
+       /* Free lock-classes: */
+-      lockdep_free_key_range(mod->module_core, mod->core_size);
++      lockdep_free_key_range(mod->module_core_rx, mod->core_size_rx);
++      lockdep_free_key_range(mod->module_core_rw, mod->core_size_rw);
+       /* Finally, free the core (containing the module structure) */
+-      module_free(mod, mod->module_core);
++      module_free_exec(mod, mod->module_core_rx);
++      module_free(mod, mod->module_core_rw);
+ #ifdef CONFIG_MPU
+       update_protections(current->mm);
+@@ -1628,8 +1633,32 @@ static int simplify_symbols(Elf_Shdr *sechdrs,
+       unsigned int i, n = sechdrs[symindex].sh_size / sizeof(Elf_Sym);
+       int ret = 0;
+       const struct kernel_symbol *ksym;
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++      int is_fs_load = 0;
++      int register_filesystem_found = 0;
++      char *p;
++
++      p = strstr(mod->args, "grsec_modharden_fs");
++
++      if (p) {
++              char *endptr = p + strlen("grsec_modharden_fs");
++              /* copy \0 as well */
++              memmove(p, endptr, strlen(mod->args) - (unsigned int)(endptr - mod->args) + 1);
++              is_fs_load = 1;
++      }
++#endif
++
+       for (i = 1; i < n; i++) {
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++              const char *name = strtab + sym[i].st_name;
++
++              /* it's a real shame this will never get ripped and copied
++                 upstream! ;(
++              */
++              if (is_fs_load && !strcmp(name, "register_filesystem"))
++                      register_filesystem_found = 1;
++#endif
+               switch (sym[i].st_shndx) {
+               case SHN_COMMON:
+                       /* We compiled with -fno-common.  These are not
+@@ -1651,7 +1680,9 @@ static int simplify_symbols(Elf_Shdr *sechdrs,
+                                             strtab + sym[i].st_name, mod);
+                       /* Ok if resolved.  */
+                       if (ksym) {
++                              pax_open_kernel();
+                               sym[i].st_value = ksym->value;
++                              pax_close_kernel();
+                               break;
+                       }
+@@ -1670,11 +1701,20 @@ static int simplify_symbols(Elf_Shdr *sechdrs,
+                               secbase = (unsigned long)mod->percpu;
+                       else
+                               secbase = sechdrs[sym[i].st_shndx].sh_addr;
++                      pax_open_kernel();
+                       sym[i].st_value += secbase;
++                      pax_close_kernel();
+                       break;
+               }
+       }
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++      if (is_fs_load && !register_filesystem_found) {
++              printk(KERN_ALERT "grsec: Denied attempt to load non-fs module %.64s through mount\n", mod->name);
++              ret = -EPERM;
++      }
++#endif
++
+       return ret;
+ }
+@@ -1731,11 +1771,12 @@ static void layout_sections(struct module *mod,
+                           || s->sh_entsize != ~0UL
+                           || strstarts(secstrings + s->sh_name, ".init"))
+                               continue;
+-                      s->sh_entsize = get_offset(mod, &mod->core_size, s, i);
++                      if ((s->sh_flags & SHF_WRITE) || !(s->sh_flags & SHF_ALLOC))
++                              s->sh_entsize = get_offset(mod, &mod->core_size_rw, s, i);
++                      else
++                              s->sh_entsize = get_offset(mod, &mod->core_size_rx, s, i);
+                       DEBUGP("\t%s\n", secstrings + s->sh_name);
+               }
+-              if (m == 0)
+-                      mod->core_text_size = mod->core_size;
+       }
+       DEBUGP("Init section allocation order:\n");
+@@ -1748,12 +1789,13 @@ static void layout_sections(struct module *mod,
+                           || s->sh_entsize != ~0UL
+                           || !strstarts(secstrings + s->sh_name, ".init"))
+                               continue;
+-                      s->sh_entsize = (get_offset(mod, &mod->init_size, s, i)
+-                                       | INIT_OFFSET_MASK);
++                      if ((s->sh_flags & SHF_WRITE) || !(s->sh_flags & SHF_ALLOC))
++                              s->sh_entsize = get_offset(mod, &mod->init_size_rw, s, i);
++                      else
++                              s->sh_entsize = get_offset(mod, &mod->init_size_rx, s, i);
++                      s->sh_entsize |= INIT_OFFSET_MASK;
+                       DEBUGP("\t%s\n", secstrings + s->sh_name);
+               }
+-              if (m == 0)
+-                      mod->init_text_size = mod->init_size;
+       }
+ }
+@@ -1857,9 +1899,8 @@ static int is_exported(const char *name, unsigned long value,
+ /* As per nm */
+ static char elf_type(const Elf_Sym *sym,
+-                   Elf_Shdr *sechdrs,
+-                   const char *secstrings,
+-                   struct module *mod)
++                   const Elf_Shdr *sechdrs,
++                   const char *secstrings)
+ {
+       if (ELF_ST_BIND(sym->st_info) == STB_WEAK) {
+               if (ELF_ST_TYPE(sym->st_info) == STT_OBJECT)
+@@ -1934,7 +1975,7 @@ static unsigned long layout_symtab(struct module *mod,
+       /* Put symbol section at end of init part of module. */
+       symsect->sh_flags |= SHF_ALLOC;
+-      symsect->sh_entsize = get_offset(mod, &mod->init_size, symsect,
++      symsect->sh_entsize = get_offset(mod, &mod->init_size_rx, symsect,
+                                        symindex) | INIT_OFFSET_MASK;
+       DEBUGP("\t%s\n", secstrings + symsect->sh_name);
+@@ -1951,19 +1992,19 @@ static unsigned long layout_symtab(struct module *mod,
+               }
+       /* Append room for core symbols at end of core part. */
+-      symoffs = ALIGN(mod->core_size, symsect->sh_addralign ?: 1);
+-      mod->core_size = symoffs + ndst * sizeof(Elf_Sym);
++      symoffs = ALIGN(mod->core_size_rx, symsect->sh_addralign ?: 1);
++      mod->core_size_rx = symoffs + ndst * sizeof(Elf_Sym);
+       /* Put string table section at end of init part of module. */
+       strsect->sh_flags |= SHF_ALLOC;
+-      strsect->sh_entsize = get_offset(mod, &mod->init_size, strsect,
++      strsect->sh_entsize = get_offset(mod, &mod->init_size_rx, strsect,
+                                        strindex) | INIT_OFFSET_MASK;
+       DEBUGP("\t%s\n", secstrings + strsect->sh_name);
+       /* Append room for core symbols' strings at end of core part. */
+-      *pstroffs = mod->core_size;
++      *pstroffs = mod->core_size_rx;
+       __set_bit(0, strmap);
+-      mod->core_size += bitmap_weight(strmap, strsect->sh_size);
++      mod->core_size_rx += bitmap_weight(strmap, strsect->sh_size);
+       return symoffs;
+ }
+@@ -1987,12 +2028,14 @@ static void add_kallsyms(struct module *mod,
+       mod->num_symtab = sechdrs[symindex].sh_size / sizeof(Elf_Sym);
+       mod->strtab = (void *)sechdrs[strindex].sh_addr;
++      pax_open_kernel();
++
+       /* Set types up while we still have access to sections. */
+       for (i = 0; i < mod->num_symtab; i++)
+               mod->symtab[i].st_info
+-                      = elf_type(&mod->symtab[i], sechdrs, secstrings, mod);
++                      = elf_type(&mod->symtab[i], sechdrs, secstrings);
+-      mod->core_symtab = dst = mod->module_core + symoffs;
++      mod->core_symtab = dst = mod->module_core_rx + symoffs;
+       src = mod->symtab;
+       *dst = *src;
+       for (ndst = i = 1; i < mod->num_symtab; ++i, ++src) {
+@@ -2004,10 +2047,12 @@ static void add_kallsyms(struct module *mod,
+       }
+       mod->core_num_syms = ndst;
+-      mod->core_strtab = s = mod->module_core + stroffs;
++      mod->core_strtab = s = mod->module_core_rx + stroffs;
+       for (*s = 0, i = 1; i < sechdrs[strindex].sh_size; ++i)
+               if (test_bit(i, strmap))
+                       *++s = mod->strtab[i];
++
++      pax_close_kernel();
+ }
+ #else
+ static inline unsigned long layout_symtab(struct module *mod,
+@@ -2044,16 +2089,30 @@ static void dynamic_debug_setup(struct _ddebug *debug, unsigned int num)
+ #endif
+ }
+-static void *module_alloc_update_bounds(unsigned long size)
++static void *module_alloc_update_bounds_rw(unsigned long size)
+ {
+       void *ret = module_alloc(size);
+       if (ret) {
+               /* Update module bounds. */
+-              if ((unsigned long)ret < module_addr_min)
+-                      module_addr_min = (unsigned long)ret;
+-              if ((unsigned long)ret + size > module_addr_max)
+-                      module_addr_max = (unsigned long)ret + size;
++              if ((unsigned long)ret < module_addr_min_rw)
++                      module_addr_min_rw = (unsigned long)ret;
++              if ((unsigned long)ret + size > module_addr_max_rw)
++                      module_addr_max_rw = (unsigned long)ret + size;
++      }
++      return ret;
++}
++
++static void *module_alloc_update_bounds_rx(unsigned long size)
++{
++      void *ret = module_alloc_exec(size);
++
++      if (ret) {
++              /* Update module bounds. */
++              if ((unsigned long)ret < module_addr_min_rx)
++                      module_addr_min_rx = (unsigned long)ret;
++              if ((unsigned long)ret + size > module_addr_max_rx)
++                      module_addr_max_rx = (unsigned long)ret + size;
+       }
+       return ret;
+ }
+@@ -2065,8 +2124,8 @@ static void kmemleak_load_module(struct module *mod, Elf_Ehdr *hdr,
+       unsigned int i;
+       /* only scan the sections containing data */
+-      kmemleak_scan_area(mod->module_core, (unsigned long)mod -
+-                         (unsigned long)mod->module_core,
++      kmemleak_scan_area(mod->module_core_rw, (unsigned long)mod -
++                         (unsigned long)mod->module_core_rw,
+                          sizeof(struct module), GFP_KERNEL);
+       for (i = 1; i < hdr->e_shnum; i++) {
+@@ -2076,8 +2135,8 @@ static void kmemleak_load_module(struct module *mod, Elf_Ehdr *hdr,
+                   && strncmp(secstrings + sechdrs[i].sh_name, ".bss", 4) != 0)
+                       continue;
+-              kmemleak_scan_area(mod->module_core, sechdrs[i].sh_addr -
+-                                 (unsigned long)mod->module_core,
++              kmemleak_scan_area(mod->module_core_rw, sechdrs[i].sh_addr -
++                                 (unsigned long)mod->module_core_rw,
+                                  sechdrs[i].sh_size, GFP_KERNEL);
+       }
+ }
+@@ -2097,7 +2156,7 @@ static noinline struct module *load_module(void __user *umod,
+       Elf_Ehdr *hdr;
+       Elf_Shdr *sechdrs;
+       char *secstrings, *args, *modmagic, *strtab = NULL;
+-      char *staging;
++      char *staging, *license;
+       unsigned int i;
+       unsigned int symindex = 0;
+       unsigned int strindex = 0;
+@@ -2195,6 +2254,14 @@ static noinline struct module *load_module(void __user *umod,
+               goto free_hdr;
+       }
++      license = get_modinfo(sechdrs, infoindex, "license");
++#ifdef CONFIG_PAX_KERNEXEC_PLUGIN_METHOD_OR
++      if (!license || !license_is_gpl_compatible(license)) {
++              err -ENOEXEC;
++              goto free_hdr;
++      }
++#endif
++
+       modmagic = get_modinfo(sechdrs, infoindex, "vermagic");
+       /* This is allowed: modprobe --force will invalidate it. */
+       if (!modmagic) {
+@@ -2263,7 +2330,7 @@ static noinline struct module *load_module(void __user *umod,
+                               secstrings, &stroffs, strmap);
+       /* Do the allocs. */
+-      ptr = module_alloc_update_bounds(mod->core_size);
++      ptr = module_alloc_update_bounds_rw(mod->core_size_rw);
+       /*
+        * The pointer to this block is stored in the module structure
+        * which is inside the block. Just mark it as not being a
+@@ -2274,23 +2341,47 @@ static noinline struct module *load_module(void __user *umod,
+               err = -ENOMEM;
+               goto free_percpu;
+       }
+-      memset(ptr, 0, mod->core_size);
+-      mod->module_core = ptr;
++      memset(ptr, 0, mod->core_size_rw);
++      mod->module_core_rw = ptr;
+-      ptr = module_alloc_update_bounds(mod->init_size);
++      ptr = module_alloc_update_bounds_rw(mod->init_size_rw);
+       /*
+        * The pointer to this block is stored in the module structure
+        * which is inside the block. This block doesn't need to be
+        * scanned as it contains data and code that will be freed
+        * after the module is initialized.
+        */
+-      kmemleak_ignore(ptr);
+-      if (!ptr && mod->init_size) {
++      kmemleak_not_leak(ptr);
++      if (!ptr && mod->init_size_rw) {
+               err = -ENOMEM;
+-              goto free_core;
++              goto free_core_rw;
+       }
+-      memset(ptr, 0, mod->init_size);
+-      mod->module_init = ptr;
++      memset(ptr, 0, mod->init_size_rw);
++      mod->module_init_rw = ptr;
++
++      ptr = module_alloc_update_bounds_rx(mod->core_size_rx);
++      kmemleak_not_leak(ptr);
++      if (!ptr) {
++              err = -ENOMEM;
++              goto free_init_rw;
++      }
++
++      pax_open_kernel();
++      memset(ptr, 0, mod->core_size_rx);
++      pax_close_kernel();
++      mod->module_core_rx = ptr;
++
++      ptr = module_alloc_update_bounds_rx(mod->init_size_rx);
++      kmemleak_not_leak(ptr);
++      if (!ptr && mod->init_size_rx) {
++              err = -ENOMEM;
++              goto free_core_rx;
++      }
++
++      pax_open_kernel();
++      memset(ptr, 0, mod->init_size_rx);
++      pax_close_kernel();
++      mod->module_init_rx = ptr;
+       /* Transfer each section which specifies SHF_ALLOC */
+       DEBUGP("final section addresses:\n");
+@@ -2300,17 +2391,45 @@ static noinline struct module *load_module(void __user *umod,
+               if (!(sechdrs[i].sh_flags & SHF_ALLOC))
+                       continue;
+-              if (sechdrs[i].sh_entsize & INIT_OFFSET_MASK)
+-                      dest = mod->module_init
+-                              + (sechdrs[i].sh_entsize & ~INIT_OFFSET_MASK);
+-              else
+-                      dest = mod->module_core + sechdrs[i].sh_entsize;
++              if (sechdrs[i].sh_entsize & INIT_OFFSET_MASK) {
++                      if ((sechdrs[i].sh_flags & SHF_WRITE) || !(sechdrs[i].sh_flags & SHF_ALLOC))
++                              dest = mod->module_init_rw
++                                      + (sechdrs[i].sh_entsize & ~INIT_OFFSET_MASK);
++                      else
++                              dest = mod->module_init_rx
++                                      + (sechdrs[i].sh_entsize & ~INIT_OFFSET_MASK);
++              } else {
++                      if ((sechdrs[i].sh_flags & SHF_WRITE) || !(sechdrs[i].sh_flags & SHF_ALLOC))
++                              dest = mod->module_core_rw + sechdrs[i].sh_entsize;
++                      else
++                              dest = mod->module_core_rx + sechdrs[i].sh_entsize;
++              }
+-              if (sechdrs[i].sh_type != SHT_NOBITS)
+-                      memcpy(dest, (void *)sechdrs[i].sh_addr,
+-                             sechdrs[i].sh_size);
++              if (sechdrs[i].sh_type != SHT_NOBITS) {
++
++#ifdef CONFIG_PAX_KERNEXEC
++#ifdef CONFIG_X86_64
++                      if ((sechdrs[i].sh_flags & SHF_WRITE) && (sechdrs[i].sh_flags & SHF_EXECINSTR))
++                              set_memory_x((unsigned long)dest, (sechdrs[i].sh_size + PAGE_SIZE) >> PAGE_SHIFT);
++#endif
++                      if (!(sechdrs[i].sh_flags & SHF_WRITE) && (sechdrs[i].sh_flags & SHF_ALLOC)) {
++                              pax_open_kernel();
++                              memcpy(dest, (void *)sechdrs[i].sh_addr, sechdrs[i].sh_size);
++                              pax_close_kernel();
++                      } else
++#endif
++
++                      memcpy(dest, (void *)sechdrs[i].sh_addr, sechdrs[i].sh_size);
++              }
+               /* Update sh_addr to point to copy in image. */
+-              sechdrs[i].sh_addr = (unsigned long)dest;
++
++#ifdef CONFIG_PAX_KERNEXEC
++              if (sechdrs[i].sh_flags & SHF_EXECINSTR)
++                      sechdrs[i].sh_addr = ktva_ktla((unsigned long)dest);
++              else
++#endif
++
++                      sechdrs[i].sh_addr = (unsigned long)dest;
+               DEBUGP("\t0x%lx %s\n", sechdrs[i].sh_addr, secstrings + sechdrs[i].sh_name);
+       }
+       /* Module has been moved. */
+@@ -2322,7 +2441,7 @@ static noinline struct module *load_module(void __user *umod,
+                                     mod->name);
+       if (!mod->refptr) {
+               err = -ENOMEM;
+-              goto free_init;
++              goto free_init_rx;
+       }
+ #endif
+       /* Now we've moved module, initialize linked lists, etc. */
+@@ -2334,7 +2453,7 @@ static noinline struct module *load_module(void __user *umod,
+               goto free_unload;
+       /* Set up license info based on the info section */
+-      set_license(mod, get_modinfo(sechdrs, infoindex, "license"));
++      set_license(mod, license);
+       /*
+        * ndiswrapper is under GPL by itself, but loads proprietary modules.
+@@ -2351,6 +2470,31 @@ static noinline struct module *load_module(void __user *umod,
+       /* Set up MODINFO_ATTR fields */
+       setup_modinfo(mod, sechdrs, infoindex);
++      mod->args = args;
++
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++      {
++              char *p, *p2;
++
++              if (strstr(mod->args, "grsec_modharden_netdev")) {
++                      printk(KERN_ALERT "grsec: denied auto-loading kernel module for a network device with CAP_SYS_MODULE (deprecated).  Use CAP_NET_ADMIN and alias netdev-%.64s instead.", mod->name);
++                      err = -EPERM;
++                      goto cleanup;
++              } else if ((p = strstr(mod->args, "grsec_modharden_normal"))) {
++                      p += strlen("grsec_modharden_normal");
++                      p2 = strstr(p, "_");
++                      if (p2) {
++                              *p2 = '\0';
++                              printk(KERN_ALERT "grsec: denied kernel module auto-load of %.64s by uid %.9s\n", mod->name, p);
++                              *p2 = '_';
++                      }
++                      err = -EPERM;
++                      goto cleanup;
++              }
++      }
++#endif
++
++
+       /* Fix up syms, so that st_value is a pointer to location. */
+       err = simplify_symbols(sechdrs, symindex, strtab, versindex, pcpuindex,
+                              mod);
+@@ -2431,8 +2575,8 @@ static noinline struct module *load_module(void __user *umod,
+       /* Now do relocations. */
+       for (i = 1; i < hdr->e_shnum; i++) {
+-              const char *strtab = (char *)sechdrs[strindex].sh_addr;
+               unsigned int info = sechdrs[i].sh_info;
++              strtab = (char *)sechdrs[strindex].sh_addr;
+               /* Not a valid relocation section? */
+               if (info >= hdr->e_shnum)
+@@ -2493,16 +2637,15 @@ static noinline struct module *load_module(void __user *umod,
+        * Do it before processing of module parameters, so the module
+        * can provide parameter accessor functions of its own.
+        */
+-      if (mod->module_init)
+-              flush_icache_range((unsigned long)mod->module_init,
+-                                 (unsigned long)mod->module_init
+-                                 + mod->init_size);
+-      flush_icache_range((unsigned long)mod->module_core,
+-                         (unsigned long)mod->module_core + mod->core_size);
++      if (mod->module_init_rx)
++              flush_icache_range((unsigned long)mod->module_init_rx,
++                                 (unsigned long)mod->module_init_rx
++                                 + mod->init_size_rx);
++      flush_icache_range((unsigned long)mod->module_core_rx,
++                         (unsigned long)mod->module_core_rx + mod->core_size_rx);
+       set_fs(old_fs);
+-      mod->args = args;
+       if (section_addr(hdr, sechdrs, secstrings, "__obsparm"))
+               printk(KERN_WARNING "%s: Ignoring obsolete parameters\n",
+                      mod->name);
+@@ -2546,12 +2689,16 @@ static noinline struct module *load_module(void __user *umod,
+  free_unload:
+       module_unload_free(mod);
+ #if defined(CONFIG_MODULE_UNLOAD) && defined(CONFIG_SMP)
++ free_init_rx:
+       percpu_modfree(mod->refptr);
+- free_init:
+ #endif
+-      module_free(mod, mod->module_init);
+- free_core:
+-      module_free(mod, mod->module_core);
++      module_free_exec(mod, mod->module_init_rx);
++ free_core_rx:
++      module_free_exec(mod, mod->module_core_rx);
++ free_init_rw:
++      module_free(mod, mod->module_init_rw);
++ free_core_rw:
++      module_free(mod, mod->module_core_rw);
+       /* mod will be freed with core. Don't access it beyond this line! */
+  free_percpu:
+       if (percpu)
+@@ -2653,10 +2800,12 @@ SYSCALL_DEFINE3(init_module, void __user *, umod,
+       mod->symtab = mod->core_symtab;
+       mod->strtab = mod->core_strtab;
+ #endif
+-      module_free(mod, mod->module_init);
+-      mod->module_init = NULL;
+-      mod->init_size = 0;
+-      mod->init_text_size = 0;
++      module_free(mod, mod->module_init_rw);
++      module_free_exec(mod, mod->module_init_rx);
++      mod->module_init_rw = NULL;
++      mod->module_init_rx = NULL;
++      mod->init_size_rw = 0;
++      mod->init_size_rx = 0;
+       mutex_unlock(&module_mutex);
+       return 0;
+@@ -2687,10 +2836,16 @@ static const char *get_ksymbol(struct module *mod,
+       unsigned long nextval;
+       /* At worse, next value is at end of module */
+-      if (within_module_init(addr, mod))
+-              nextval = (unsigned long)mod->module_init+mod->init_text_size;
++      if (within_module_init_rx(addr, mod))
++              nextval = (unsigned long)mod->module_init_rx+mod->init_size_rx;
++      else if (within_module_init_rw(addr, mod))
++              nextval = (unsigned long)mod->module_init_rw+mod->init_size_rw;
++      else if (within_module_core_rx(addr, mod))
++              nextval = (unsigned long)mod->module_core_rx+mod->core_size_rx;
++      else if (within_module_core_rw(addr, mod))
++              nextval = (unsigned long)mod->module_core_rw+mod->core_size_rw;
+       else
+-              nextval = (unsigned long)mod->module_core+mod->core_text_size;
++              return NULL;
+       /* Scan for closest preceeding symbol, and next symbol. (ELF
+          starts real symbols at 1). */
+@@ -2936,7 +3091,7 @@ static int m_show(struct seq_file *m, void *p)
+       char buf[8];
+       seq_printf(m, "%s %u",
+-                 mod->name, mod->init_size + mod->core_size);
++                 mod->name, mod->init_size_rx + mod->init_size_rw + mod->core_size_rx + mod->core_size_rw);
+       print_unload_info(m, mod);
+       /* Informative for users. */
+@@ -2945,7 +3100,7 @@ static int m_show(struct seq_file *m, void *p)
+                  mod->state == MODULE_STATE_COMING ? "Loading":
+                  "Live");
+       /* Used by oprofile and other similar tools. */
+-      seq_printf(m, " 0x%p", mod->module_core);
++      seq_printf(m, " 0x%p 0x%p", mod->module_core_rx, mod->module_core_rw);
+       /* Taints info */
+       if (mod->taints)
+@@ -2981,7 +3136,17 @@ static const struct file_operations proc_modules_operations = {
+ static int __init proc_modules_init(void)
+ {
++#ifndef CONFIG_GRKERNSEC_HIDESYM
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++      proc_create("modules", S_IRUSR, NULL, &proc_modules_operations);
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      proc_create("modules", S_IRUSR | S_IRGRP, NULL, &proc_modules_operations);
++#else
+       proc_create("modules", 0, NULL, &proc_modules_operations);
++#endif
++#else
++      proc_create("modules", S_IRUSR, NULL, &proc_modules_operations);
++#endif
+       return 0;
+ }
+ module_init(proc_modules_init);
+@@ -3040,12 +3205,12 @@ struct module *__module_address(unsigned long addr)
+ {
+       struct module *mod;
+-      if (addr < module_addr_min || addr > module_addr_max)
++      if ((addr < module_addr_min_rx || addr > module_addr_max_rx) &&
++          (addr < module_addr_min_rw || addr > module_addr_max_rw))
+               return NULL;
+       list_for_each_entry_rcu(mod, &modules, list)
+-              if (within_module_core(addr, mod)
+-                  || within_module_init(addr, mod))
++              if (within_module_init(addr, mod) || within_module_core(addr, mod))
+                       return mod;
+       return NULL;
+ }
+@@ -3079,11 +3244,20 @@ bool is_module_text_address(unsigned long addr)
+  */
+ struct module *__module_text_address(unsigned long addr)
+ {
+-      struct module *mod = __module_address(addr);
++      struct module *mod;
++
++#ifdef CONFIG_X86_32
++      addr = ktla_ktva(addr);
++#endif
++
++      if (addr < module_addr_min_rx || addr > module_addr_max_rx)
++              return NULL;
++
++      mod = __module_address(addr);
++
+       if (mod) {
+               /* Make sure it's within the text section. */
+-              if (!within(addr, mod->module_init, mod->init_text_size)
+-                  && !within(addr, mod->module_core, mod->core_text_size))
++              if (!within_module_init_rx(addr, mod) && !within_module_core_rx(addr, mod))
+                       mod = NULL;
+       }
+       return mod;
+diff --git a/kernel/mutex-debug.c b/kernel/mutex-debug.c
+index ec815a9..fe46e99 100644
+--- a/kernel/mutex-debug.c
++++ b/kernel/mutex-debug.c
+@@ -49,21 +49,21 @@ void debug_mutex_free_waiter(struct mutex_waiter *waiter)
+ }
+ void debug_mutex_add_waiter(struct mutex *lock, struct mutex_waiter *waiter,
+-                          struct thread_info *ti)
++                          struct task_struct *task)
+ {
+       SMP_DEBUG_LOCKS_WARN_ON(!spin_is_locked(&lock->wait_lock));
+       /* Mark the current thread as blocked on the lock: */
+-      ti->task->blocked_on = waiter;
++      task->blocked_on = waiter;
+ }
+ void mutex_remove_waiter(struct mutex *lock, struct mutex_waiter *waiter,
+-                       struct thread_info *ti)
++                       struct task_struct *task)
+ {
+       DEBUG_LOCKS_WARN_ON(list_empty(&waiter->list));
+-      DEBUG_LOCKS_WARN_ON(waiter->task != ti->task);
+-      DEBUG_LOCKS_WARN_ON(ti->task->blocked_on != waiter);
+-      ti->task->blocked_on = NULL;
++      DEBUG_LOCKS_WARN_ON(waiter->task != task);
++      DEBUG_LOCKS_WARN_ON(task->blocked_on != waiter);
++      task->blocked_on = NULL;
+       list_del_init(&waiter->list);
+       waiter->task = NULL;
+@@ -75,7 +75,7 @@ void debug_mutex_unlock(struct mutex *lock)
+               return;
+       DEBUG_LOCKS_WARN_ON(lock->magic != lock);
+-      DEBUG_LOCKS_WARN_ON(lock->owner != current_thread_info());
++      DEBUG_LOCKS_WARN_ON(lock->owner != current);
+       DEBUG_LOCKS_WARN_ON(!lock->wait_list.prev && !lock->wait_list.next);
+       mutex_clear_owner(lock);
+ }
+diff --git a/kernel/mutex-debug.h b/kernel/mutex-debug.h
+index 6b2d735..372d3c4 100644
+--- a/kernel/mutex-debug.h
++++ b/kernel/mutex-debug.h
+@@ -20,16 +20,16 @@ extern void debug_mutex_wake_waiter(struct mutex *lock,
+ extern void debug_mutex_free_waiter(struct mutex_waiter *waiter);
+ extern void debug_mutex_add_waiter(struct mutex *lock,
+                                  struct mutex_waiter *waiter,
+-                                 struct thread_info *ti);
++                                 struct task_struct *task);
+ extern void mutex_remove_waiter(struct mutex *lock, struct mutex_waiter *waiter,
+-                              struct thread_info *ti);
++                              struct task_struct *task);
+ extern void debug_mutex_unlock(struct mutex *lock);
+ extern void debug_mutex_init(struct mutex *lock, const char *name,
+                            struct lock_class_key *key);
+ static inline void mutex_set_owner(struct mutex *lock)
+ {
+-      lock->owner = current_thread_info();
++      lock->owner = current;
+ }
+ static inline void mutex_clear_owner(struct mutex *lock)
+diff --git a/kernel/mutex.c b/kernel/mutex.c
+index f85644c..5ee9f77 100644
+--- a/kernel/mutex.c
++++ b/kernel/mutex.c
+@@ -169,7 +169,7 @@ __mutex_lock_common(struct mutex *lock, long state, unsigned int subclass,
+        */
+       for (;;) {
+-              struct thread_info *owner;
++              struct task_struct *owner;
+               /*
+                * If we own the BKL, then don't spin. The owner of
+@@ -214,7 +214,7 @@ __mutex_lock_common(struct mutex *lock, long state, unsigned int subclass,
+       spin_lock_mutex(&lock->wait_lock, flags);
+       debug_mutex_lock_common(lock, &waiter);
+-      debug_mutex_add_waiter(lock, &waiter, task_thread_info(task));
++      debug_mutex_add_waiter(lock, &waiter, task);
+       /* add waiting tasks to the end of the waitqueue (FIFO): */
+       list_add_tail(&waiter.list, &lock->wait_list);
+@@ -243,8 +243,7 @@ __mutex_lock_common(struct mutex *lock, long state, unsigned int subclass,
+                * TASK_UNINTERRUPTIBLE case.)
+                */
+               if (unlikely(signal_pending_state(state, task))) {
+-                      mutex_remove_waiter(lock, &waiter,
+-                                          task_thread_info(task));
++                      mutex_remove_waiter(lock, &waiter, task);
+                       mutex_release(&lock->dep_map, 1, ip);
+                       spin_unlock_mutex(&lock->wait_lock, flags);
+@@ -265,7 +264,7 @@ __mutex_lock_common(struct mutex *lock, long state, unsigned int subclass,
+ done:
+       lock_acquired(&lock->dep_map, ip);
+       /* got the lock - rejoice! */
+-      mutex_remove_waiter(lock, &waiter, current_thread_info());
++      mutex_remove_waiter(lock, &waiter, task);
+       mutex_set_owner(lock);
+       /* set it to 0 if there are no waiters left: */
+diff --git a/kernel/mutex.h b/kernel/mutex.h
+index 67578ca..4115fbf 100644
+--- a/kernel/mutex.h
++++ b/kernel/mutex.h
+@@ -19,7 +19,7 @@
+ #ifdef CONFIG_SMP
+ static inline void mutex_set_owner(struct mutex *lock)
+ {
+-      lock->owner = current_thread_info();
++      lock->owner = current;
+ }
+ static inline void mutex_clear_owner(struct mutex *lock)
+diff --git a/kernel/panic.c b/kernel/panic.c
+index 96b45d0..ff70a46 100644
+--- a/kernel/panic.c
++++ b/kernel/panic.c
+@@ -71,7 +71,11 @@ NORET_TYPE void panic(const char * fmt, ...)
+       va_end(args);
+       printk(KERN_EMERG "Kernel panic - not syncing: %s\n",buf);
+ #ifdef CONFIG_DEBUG_BUGVERBOSE
+-      dump_stack();
++      /*
++       * Avoid nested stack-dumping if a panic occurs during oops processing
++       */
++      if (!oops_in_progress)
++              dump_stack();
+ #endif
+       /*
+@@ -352,7 +356,7 @@ static void warn_slowpath_common(const char *file, int line, void *caller, struc
+       const char *board;
+       printk(KERN_WARNING "------------[ cut here ]------------\n");
+-      printk(KERN_WARNING "WARNING: at %s:%d %pS()\n", file, line, caller);
++      printk(KERN_WARNING "WARNING: at %s:%d %pA()\n", file, line, caller);
+       board = dmi_get_system_info(DMI_PRODUCT_NAME);
+       if (board)
+               printk(KERN_WARNING "Hardware name: %s\n", board);
+@@ -392,7 +396,8 @@ EXPORT_SYMBOL(warn_slowpath_null);
+  */
+ void __stack_chk_fail(void)
+ {
+-      panic("stack-protector: Kernel stack is corrupted in: %p\n",
++      dump_stack();
++      panic("stack-protector: Kernel stack is corrupted in: %pA\n",
+               __builtin_return_address(0));
+ }
+ EXPORT_SYMBOL(__stack_chk_fail);
+diff --git a/kernel/params.c b/kernel/params.c
+index d656c27..21e452c 100644
+--- a/kernel/params.c
++++ b/kernel/params.c
+@@ -725,7 +725,7 @@ static ssize_t module_attr_store(struct kobject *kobj,
+       return ret;
+ }
+-static struct sysfs_ops module_sysfs_ops = {
++static const struct sysfs_ops module_sysfs_ops = {
+       .show = module_attr_show,
+       .store = module_attr_store,
+ };
+@@ -739,7 +739,7 @@ static int uevent_filter(struct kset *kset, struct kobject *kobj)
+       return 0;
+ }
+-static struct kset_uevent_ops module_uevent_ops = {
++static const struct kset_uevent_ops module_uevent_ops = {
+       .filter = uevent_filter,
+ };
+diff --git a/kernel/perf_event.c b/kernel/perf_event.c
+index 37ebc14..9c121d9 100644
+--- a/kernel/perf_event.c
++++ b/kernel/perf_event.c
+@@ -77,7 +77,7 @@ int sysctl_perf_event_mlock __read_mostly = 516; /* 'free' kb per user */
+  */
+ int sysctl_perf_event_sample_rate __read_mostly = 100000;
+-static atomic64_t perf_event_id;
++static atomic64_unchecked_t perf_event_id;
+ /*
+  * Lock for (sysadmin-configurable) event reservations:
+@@ -1094,9 +1094,9 @@ static void __perf_event_sync_stat(struct perf_event *event,
+        * In order to keep per-task stats reliable we need to flip the event
+        * values when we flip the contexts.
+        */
+-      value = atomic64_read(&next_event->count);
+-      value = atomic64_xchg(&event->count, value);
+-      atomic64_set(&next_event->count, value);
++      value = atomic64_read_unchecked(&next_event->count);
++      value = atomic64_xchg_unchecked(&event->count, value);
++      atomic64_set_unchecked(&next_event->count, value);
+       swap(event->total_time_enabled, next_event->total_time_enabled);
+       swap(event->total_time_running, next_event->total_time_running);
+@@ -1552,7 +1552,7 @@ static u64 perf_event_read(struct perf_event *event)
+               update_event_times(event);
+       }
+-      return atomic64_read(&event->count);
++      return atomic64_read_unchecked(&event->count);
+ }
+ /*
+@@ -1790,11 +1790,11 @@ static int perf_event_read_group(struct perf_event *event,
+       values[n++] = 1 + leader->nr_siblings;
+       if (read_format & PERF_FORMAT_TOTAL_TIME_ENABLED) {
+               values[n++] = leader->total_time_enabled +
+-                      atomic64_read(&leader->child_total_time_enabled);
++                      atomic64_read_unchecked(&leader->child_total_time_enabled);
+       }
+       if (read_format & PERF_FORMAT_TOTAL_TIME_RUNNING) {
+               values[n++] = leader->total_time_running +
+-                      atomic64_read(&leader->child_total_time_running);
++                      atomic64_read_unchecked(&leader->child_total_time_running);
+       }
+       size = n * sizeof(u64);
+@@ -1829,11 +1829,11 @@ static int perf_event_read_one(struct perf_event *event,
+       values[n++] = perf_event_read_value(event);
+       if (read_format & PERF_FORMAT_TOTAL_TIME_ENABLED) {
+               values[n++] = event->total_time_enabled +
+-                      atomic64_read(&event->child_total_time_enabled);
++                      atomic64_read_unchecked(&event->child_total_time_enabled);
+       }
+       if (read_format & PERF_FORMAT_TOTAL_TIME_RUNNING) {
+               values[n++] = event->total_time_running +
+-                      atomic64_read(&event->child_total_time_running);
++                      atomic64_read_unchecked(&event->child_total_time_running);
+       }
+       if (read_format & PERF_FORMAT_ID)
+               values[n++] = primary_event_id(event);
+@@ -1903,7 +1903,7 @@ static unsigned int perf_poll(struct file *file, poll_table *wait)
+ static void perf_event_reset(struct perf_event *event)
+ {
+       (void)perf_event_read(event);
+-      atomic64_set(&event->count, 0);
++      atomic64_set_unchecked(&event->count, 0);
+       perf_event_update_userpage(event);
+ }
+@@ -2079,15 +2079,15 @@ void perf_event_update_userpage(struct perf_event *event)
+       ++userpg->lock;
+       barrier();
+       userpg->index = perf_event_index(event);
+-      userpg->offset = atomic64_read(&event->count);
++      userpg->offset = atomic64_read_unchecked(&event->count);
+       if (event->state == PERF_EVENT_STATE_ACTIVE)
+-              userpg->offset -= atomic64_read(&event->hw.prev_count);
++              userpg->offset -= atomic64_read_unchecked(&event->hw.prev_count);
+       userpg->time_enabled = event->total_time_enabled +
+-                      atomic64_read(&event->child_total_time_enabled);
++                      atomic64_read_unchecked(&event->child_total_time_enabled);
+       userpg->time_running = event->total_time_running +
+-                      atomic64_read(&event->child_total_time_running);
++                      atomic64_read_unchecked(&event->child_total_time_running);
+       barrier();
+       ++userpg->lock;
+@@ -2903,14 +2903,14 @@ static void perf_output_read_one(struct perf_output_handle *handle,
+       u64 values[4];
+       int n = 0;
+-      values[n++] = atomic64_read(&event->count);
++      values[n++] = atomic64_read_unchecked(&event->count);
+       if (read_format & PERF_FORMAT_TOTAL_TIME_ENABLED) {
+               values[n++] = event->total_time_enabled +
+-                      atomic64_read(&event->child_total_time_enabled);
++                      atomic64_read_unchecked(&event->child_total_time_enabled);
+       }
+       if (read_format & PERF_FORMAT_TOTAL_TIME_RUNNING) {
+               values[n++] = event->total_time_running +
+-                      atomic64_read(&event->child_total_time_running);
++                      atomic64_read_unchecked(&event->child_total_time_running);
+       }
+       if (read_format & PERF_FORMAT_ID)
+               values[n++] = primary_event_id(event);
+@@ -2940,7 +2940,7 @@ static void perf_output_read_group(struct perf_output_handle *handle,
+       if (leader != event)
+               leader->pmu->read(leader);
+-      values[n++] = atomic64_read(&leader->count);
++      values[n++] = atomic64_read_unchecked(&leader->count);
+       if (read_format & PERF_FORMAT_ID)
+               values[n++] = primary_event_id(leader);
+@@ -2952,7 +2952,7 @@ static void perf_output_read_group(struct perf_output_handle *handle,
+               if (sub != event)
+                       sub->pmu->read(sub);
+-              values[n++] = atomic64_read(&sub->count);
++              values[n++] = atomic64_read_unchecked(&sub->count);
+               if (read_format & PERF_FORMAT_ID)
+                       values[n++] = primary_event_id(sub);
+@@ -3525,12 +3525,12 @@ static void perf_event_mmap_event(struct perf_mmap_event *mmap_event)
+                * need to add enough zero bytes after the string to handle
+                * the 64bit alignment we do later.
+                */
+-              buf = kzalloc(PATH_MAX + sizeof(u64), GFP_KERNEL);
++              buf = kzalloc(PATH_MAX, GFP_KERNEL);
+               if (!buf) {
+                       name = strncpy(tmp, "//enomem", sizeof(tmp));
+                       goto got_name;
+               }
+-              name = d_path(&file->f_path, buf, PATH_MAX);
++              name = d_path(&file->f_path, buf, PATH_MAX - sizeof(u64));
+               if (IS_ERR(name)) {
+                       name = strncpy(tmp, "//toolong", sizeof(tmp));
+                       goto got_name;
+@@ -3783,7 +3783,7 @@ static void perf_swevent_add(struct perf_event *event, u64 nr,
+ {
+       struct hw_perf_event *hwc = &event->hw;
+-      atomic64_add(nr, &event->count);
++      atomic64_add_unchecked(nr, &event->count);
+       if (!hwc->sample_period)
+               return;
+@@ -4040,9 +4040,9 @@ static void cpu_clock_perf_event_update(struct perf_event *event)
+       u64 now;
+       now = cpu_clock(cpu);
+-      prev = atomic64_read(&event->hw.prev_count);
+-      atomic64_set(&event->hw.prev_count, now);
+-      atomic64_add(now - prev, &event->count);
++      prev = atomic64_read_unchecked(&event->hw.prev_count);
++      atomic64_set_unchecked(&event->hw.prev_count, now);
++      atomic64_add_unchecked(now - prev, &event->count);
+ }
+ static int cpu_clock_perf_event_enable(struct perf_event *event)
+@@ -4050,7 +4050,7 @@ static int cpu_clock_perf_event_enable(struct perf_event *event)
+       struct hw_perf_event *hwc = &event->hw;
+       int cpu = raw_smp_processor_id();
+-      atomic64_set(&hwc->prev_count, cpu_clock(cpu));
++      atomic64_set_unchecked(&hwc->prev_count, cpu_clock(cpu));
+       perf_swevent_start_hrtimer(event);
+       return 0;
+@@ -4082,9 +4082,9 @@ static void task_clock_perf_event_update(struct perf_event *event, u64 now)
+       u64 prev;
+       s64 delta;
+-      prev = atomic64_xchg(&event->hw.prev_count, now);
++      prev = atomic64_xchg_unchecked(&event->hw.prev_count, now);
+       delta = now - prev;
+-      atomic64_add(delta, &event->count);
++      atomic64_add_unchecked(delta, &event->count);
+ }
+ static int task_clock_perf_event_enable(struct perf_event *event)
+@@ -4094,7 +4094,7 @@ static int task_clock_perf_event_enable(struct perf_event *event)
+       now = event->ctx->time;
+-      atomic64_set(&hwc->prev_count, now);
++      atomic64_set_unchecked(&hwc->prev_count, now);
+       perf_swevent_start_hrtimer(event);
+@@ -4289,7 +4289,7 @@ perf_event_alloc(struct perf_event_attr *attr,
+       event->parent           = parent_event;
+       event->ns               = get_pid_ns(current->nsproxy->pid_ns);
+-      event->id               = atomic64_inc_return(&perf_event_id);
++      event->id               = atomic64_inc_return_unchecked(&perf_event_id);
+       event->state            = PERF_EVENT_STATE_INACTIVE;
+@@ -4720,15 +4720,15 @@ static void sync_child_event(struct perf_event *child_event,
+       if (child_event->attr.inherit_stat)
+               perf_event_read_event(child_event, child);
+-      child_val = atomic64_read(&child_event->count);
++      child_val = atomic64_read_unchecked(&child_event->count);
+       /*
+        * Add back the child's count to the parent's count:
+        */
+-      atomic64_add(child_val, &parent_event->count);
+-      atomic64_add(child_event->total_time_enabled,
++      atomic64_add_unchecked(child_val, &parent_event->count);
++      atomic64_add_unchecked(child_event->total_time_enabled,
+                    &parent_event->child_total_time_enabled);
+-      atomic64_add(child_event->total_time_running,
++      atomic64_add_unchecked(child_event->total_time_running,
+                    &parent_event->child_total_time_running);
+       /*
+diff --git a/kernel/pid.c b/kernel/pid.c
+index fce7198..4f23a7e 100644
+--- a/kernel/pid.c
++++ b/kernel/pid.c
+@@ -33,6 +33,7 @@
+ #include <linux/rculist.h>
+ #include <linux/bootmem.h>
+ #include <linux/hash.h>
++#include <linux/security.h>
+ #include <linux/pid_namespace.h>
+ #include <linux/init_task.h>
+ #include <linux/syscalls.h>
+@@ -45,7 +46,7 @@ struct pid init_struct_pid = INIT_STRUCT_PID;
+ int pid_max = PID_MAX_DEFAULT;
+-#define RESERVED_PIDS         300
++#define RESERVED_PIDS         500
+ int pid_max_min = RESERVED_PIDS + 1;
+ int pid_max_max = PID_MAX_LIMIT;
+@@ -383,7 +384,14 @@ EXPORT_SYMBOL(pid_task);
+  */
+ struct task_struct *find_task_by_pid_ns(pid_t nr, struct pid_namespace *ns)
+ {
+-      return pid_task(find_pid_ns(nr, ns), PIDTYPE_PID);
++      struct task_struct *task;
++      
++      task = pid_task(find_pid_ns(nr, ns), PIDTYPE_PID);
++
++      if (gr_pid_is_chrooted(task))
++              return NULL;
++
++      return task;
+ }
+ struct task_struct *find_task_by_vpid(pid_t vnr)
+@@ -391,6 +399,11 @@ struct task_struct *find_task_by_vpid(pid_t vnr)
+       return find_task_by_pid_ns(vnr, current->nsproxy->pid_ns);
+ }
++struct task_struct *find_task_by_vpid_unrestricted(pid_t vnr)
++{
++      return pid_task(find_pid_ns(vnr, current->nsproxy->pid_ns), PIDTYPE_PID);
++}
++
+ struct pid *get_task_pid(struct task_struct *task, enum pid_type type)
+ {
+       struct pid *pid;
+diff --git a/kernel/posix-cpu-timers.c b/kernel/posix-cpu-timers.c
+index 5c9dc22..d271117 100644
+--- a/kernel/posix-cpu-timers.c
++++ b/kernel/posix-cpu-timers.c
+@@ -6,6 +6,7 @@
+ #include <linux/posix-timers.h>
+ #include <linux/errno.h>
+ #include <linux/math64.h>
++#include <linux/security.h>
+ #include <asm/uaccess.h>
+ #include <linux/kernel_stat.h>
+ #include <trace/events/timer.h>
+@@ -1697,7 +1698,7 @@ static long thread_cpu_nsleep_restart(struct restart_block *restart_block)
+ static __init int init_posix_cpu_timers(void)
+ {
+-      struct k_clock process = {
++      static struct k_clock process = {
+               .clock_getres = process_cpu_clock_getres,
+               .clock_get = process_cpu_clock_get,
+               .clock_set = do_posix_clock_nosettime,
+@@ -1705,7 +1706,7 @@ static __init int init_posix_cpu_timers(void)
+               .nsleep = process_cpu_nsleep,
+               .nsleep_restart = process_cpu_nsleep_restart,
+       };
+-      struct k_clock thread = {
++      static struct k_clock thread = {
+               .clock_getres = thread_cpu_clock_getres,
+               .clock_get = thread_cpu_clock_get,
+               .clock_set = do_posix_clock_nosettime,
+diff --git a/kernel/posix-timers.c b/kernel/posix-timers.c
+index 5e76d22..cf1baeb 100644
+--- a/kernel/posix-timers.c
++++ b/kernel/posix-timers.c
+@@ -42,6 +42,7 @@
+ #include <linux/compiler.h>
+ #include <linux/idr.h>
+ #include <linux/posix-timers.h>
++#include <linux/grsecurity.h>
+ #include <linux/syscalls.h>
+ #include <linux/wait.h>
+ #include <linux/workqueue.h>
+@@ -131,7 +132,7 @@ static DEFINE_SPINLOCK(idr_lock);
+  *        which we beg off on and pass to do_sys_settimeofday().
+  */
+-static struct k_clock posix_clocks[MAX_CLOCKS];
++static struct k_clock *posix_clocks[MAX_CLOCKS];
+ /*
+  * These ones are defined below.
+@@ -157,8 +158,8 @@ static inline void unlock_timer(struct k_itimer *timr, unsigned long flags)
+  */
+ #define CLOCK_DISPATCH(clock, call, arglist) \
+       ((clock) < 0 ? posix_cpu_##call arglist : \
+-       (posix_clocks[clock].call != NULL \
+-        ? (*posix_clocks[clock].call) arglist : common_##call arglist))
++       (posix_clocks[clock]->call != NULL \
++        ? (*posix_clocks[clock]->call) arglist : common_##call arglist))
+ /*
+  * Default clock hook functions when the struct k_clock passed
+@@ -172,7 +173,7 @@ static inline int common_clock_getres(const clockid_t which_clock,
+                                     struct timespec *tp)
+ {
+       tp->tv_sec = 0;
+-      tp->tv_nsec = posix_clocks[which_clock].res;
++      tp->tv_nsec = posix_clocks[which_clock]->res;
+       return 0;
+ }
+@@ -217,9 +218,11 @@ static inline int invalid_clockid(const clockid_t which_clock)
+               return 0;
+       if ((unsigned) which_clock >= MAX_CLOCKS)
+               return 1;
+-      if (posix_clocks[which_clock].clock_getres != NULL)
++      if (posix_clocks[which_clock] == NULL)
+               return 0;
+-      if (posix_clocks[which_clock].res != 0)
++      if (posix_clocks[which_clock]->clock_getres != NULL)
++              return 0;
++      if (posix_clocks[which_clock]->res != 0)
+               return 0;
+       return 1;
+ }
+@@ -266,29 +269,29 @@ int posix_get_coarse_res(const clockid_t which_clock, struct timespec *tp)
+  */
+ static __init int init_posix_timers(void)
+ {
+-      struct k_clock clock_realtime = {
++      static struct k_clock clock_realtime = {
+               .clock_getres = hrtimer_get_res,
+       };
+-      struct k_clock clock_monotonic = {
++      static struct k_clock clock_monotonic = {
+               .clock_getres = hrtimer_get_res,
+               .clock_get = posix_ktime_get_ts,
+               .clock_set = do_posix_clock_nosettime,
+       };
+-      struct k_clock clock_monotonic_raw = {
++      static struct k_clock clock_monotonic_raw = {
+               .clock_getres = hrtimer_get_res,
+               .clock_get = posix_get_monotonic_raw,
+               .clock_set = do_posix_clock_nosettime,
+               .timer_create = no_timer_create,
+               .nsleep = no_nsleep,
+       };
+-      struct k_clock clock_realtime_coarse = {
++      static struct k_clock clock_realtime_coarse = {
+               .clock_getres = posix_get_coarse_res,
+               .clock_get = posix_get_realtime_coarse,
+               .clock_set = do_posix_clock_nosettime,
+               .timer_create = no_timer_create,
+               .nsleep = no_nsleep,
+       };
+-      struct k_clock clock_monotonic_coarse = {
++      static struct k_clock clock_monotonic_coarse = {
+               .clock_getres = posix_get_coarse_res,
+               .clock_get = posix_get_monotonic_coarse,
+               .clock_set = do_posix_clock_nosettime,
+@@ -296,6 +299,8 @@ static __init int init_posix_timers(void)
+               .nsleep = no_nsleep,
+       };
++      pax_track_stack();
++
+       register_posix_clock(CLOCK_REALTIME, &clock_realtime);
+       register_posix_clock(CLOCK_MONOTONIC, &clock_monotonic);
+       register_posix_clock(CLOCK_MONOTONIC_RAW, &clock_monotonic_raw);
+@@ -484,7 +489,7 @@ void register_posix_clock(const clockid_t clock_id, struct k_clock *new_clock)
+               return;
+       }
+-      posix_clocks[clock_id] = *new_clock;
++      posix_clocks[clock_id] = new_clock;
+ }
+ EXPORT_SYMBOL_GPL(register_posix_clock);
+@@ -948,6 +953,13 @@ SYSCALL_DEFINE2(clock_settime, const clockid_t, which_clock,
+       if (copy_from_user(&new_tp, tp, sizeof (*tp)))
+               return -EFAULT;
++      /* only the CLOCK_REALTIME clock can be set, all other clocks
++         have their clock_set fptr set to a nosettime dummy function
++         CLOCK_REALTIME has a NULL clock_set fptr which causes it to
++         call common_clock_set, which calls do_sys_settimeofday, which
++         we hook
++      */
++
+       return CLOCK_DISPATCH(which_clock, clock_set, (which_clock, &new_tp));
+ }
+diff --git a/kernel/power/hibernate.c b/kernel/power/hibernate.c
+index 04a9e90..bc355aa 100644
+--- a/kernel/power/hibernate.c
++++ b/kernel/power/hibernate.c
+@@ -48,14 +48,14 @@ enum {
+ static int hibernation_mode = HIBERNATION_SHUTDOWN;
+-static struct platform_hibernation_ops *hibernation_ops;
++static const struct platform_hibernation_ops *hibernation_ops;
+ /**
+  * hibernation_set_ops - set the global hibernate operations
+  * @ops: the hibernation operations to use in subsequent hibernation transitions
+  */
+-void hibernation_set_ops(struct platform_hibernation_ops *ops)
++void hibernation_set_ops(const struct platform_hibernation_ops *ops)
+ {
+       if (ops && !(ops->begin && ops->end &&  ops->pre_snapshot
+           && ops->prepare && ops->finish && ops->enter && ops->pre_restore
+diff --git a/kernel/power/poweroff.c b/kernel/power/poweroff.c
+index e8b3370..484c2e4 100644
+--- a/kernel/power/poweroff.c
++++ b/kernel/power/poweroff.c
+@@ -37,7 +37,7 @@ static struct sysrq_key_op   sysrq_poweroff_op = {
+       .enable_mask    = SYSRQ_ENABLE_BOOT,
+ };
+-static int pm_sysrq_init(void)
++static int __init pm_sysrq_init(void)
+ {
+       register_sysrq_key('o', &sysrq_poweroff_op);
+       return 0;
+diff --git a/kernel/power/process.c b/kernel/power/process.c
+index e7cd671..56d5f459 100644
+--- a/kernel/power/process.c
++++ b/kernel/power/process.c
+@@ -37,12 +37,15 @@ static int try_to_freeze_tasks(bool sig_only)
+       struct timeval start, end;
+       u64 elapsed_csecs64;
+       unsigned int elapsed_csecs;
++      bool timedout = false;
+       do_gettimeofday(&start);
+       end_time = jiffies + TIMEOUT;
+       do {
+               todo = 0;
++              if (time_after(jiffies, end_time))
++                      timedout = true;
+               read_lock(&tasklist_lock);
+               do_each_thread(g, p) {
+                       if (frozen(p) || !freezeable(p))
+@@ -57,15 +60,17 @@ static int try_to_freeze_tasks(bool sig_only)
+                        * It is "frozen enough".  If the task does wake
+                        * up, it will immediately call try_to_freeze.
+                        */
+-                      if (!task_is_stopped_or_traced(p) &&
+-                          !freezer_should_skip(p))
++                      if (!task_is_stopped_or_traced(p) && !freezer_should_skip(p)) {
+                               todo++;
++                              if (timedout) {
++                                      printk(KERN_ERR "Task refusing to freeze:\n");
++                                      sched_show_task(p);
++                              }
++                      }
+               } while_each_thread(g, p);
+               read_unlock(&tasklist_lock);
+               yield();                        /* Yield is okay here */
+-              if (time_after(jiffies, end_time))
+-                      break;
+-      } while (todo);
++      } while (todo && !timedout);
+       do_gettimeofday(&end);
+       elapsed_csecs64 = timeval_to_ns(&end) - timeval_to_ns(&start);
+diff --git a/kernel/power/suspend.c b/kernel/power/suspend.c
+index 40dd021..fb30ceb 100644
+--- a/kernel/power/suspend.c
++++ b/kernel/power/suspend.c
+@@ -23,13 +23,13 @@ const char *const pm_states[PM_SUSPEND_MAX] = {
+       [PM_SUSPEND_MEM]        = "mem",
+ };
+-static struct platform_suspend_ops *suspend_ops;
++static const struct platform_suspend_ops *suspend_ops;
+ /**
+  *    suspend_set_ops - Set the global suspend method table.
+  *    @ops:   Pointer to ops structure.
+  */
+-void suspend_set_ops(struct platform_suspend_ops *ops)
++void suspend_set_ops(const struct platform_suspend_ops *ops)
+ {
+       mutex_lock(&pm_mutex);
+       suspend_ops = ops;
+diff --git a/kernel/printk.c b/kernel/printk.c
+index 4cade47..4d17900 100644
+--- a/kernel/printk.c
++++ b/kernel/printk.c
+@@ -33,6 +33,7 @@
+ #include <linux/bootmem.h>
+ #include <linux/syscalls.h>
+ #include <linux/kexec.h>
++#include <linux/syslog.h>
+ #include <asm/uaccess.h>
+@@ -256,38 +257,30 @@ static inline void boot_delay_msec(void)
+ }
+ #endif
+-/*
+- * Commands to do_syslog:
+- *
+- *    0 -- Close the log.  Currently a NOP.
+- *    1 -- Open the log. Currently a NOP.
+- *    2 -- Read from the log.
+- *    3 -- Read all messages remaining in the ring buffer.
+- *    4 -- Read and clear all messages remaining in the ring buffer
+- *    5 -- Clear ring buffer.
+- *    6 -- Disable printk's to console
+- *    7 -- Enable printk's to console
+- *    8 -- Set level of messages printed to console
+- *    9 -- Return number of unread characters in the log buffer
+- *     10 -- Return size of the log buffer
+- */
+-int do_syslog(int type, char __user *buf, int len)
++int do_syslog(int type, char __user *buf, int len, bool from_file)
+ {
+       unsigned i, j, limit, count;
+       int do_clear = 0;
+       char c;
+       int error = 0;
+-      error = security_syslog(type);
++#ifdef CONFIG_GRKERNSEC_DMESG
++      if (grsec_enable_dmesg &&
++          (!from_file || (from_file && type == SYSLOG_ACTION_OPEN)) &&
++          !capable(CAP_SYS_ADMIN))
++              return -EPERM;
++#endif
++
++      error = security_syslog(type, from_file);
+       if (error)
+               return error;
+       switch (type) {
+-      case 0:         /* Close log */
++      case SYSLOG_ACTION_CLOSE:       /* Close log */
+               break;
+-      case 1:         /* Open log */
++      case SYSLOG_ACTION_OPEN:        /* Open log */
+               break;
+-      case 2:         /* Read from log */
++      case SYSLOG_ACTION_READ:        /* Read from log */
+               error = -EINVAL;
+               if (!buf || len < 0)
+                       goto out;
+@@ -318,10 +311,12 @@ int do_syslog(int type, char __user *buf, int len)
+               if (!error)
+                       error = i;
+               break;
+-      case 4:         /* Read/clear last kernel messages */
++      /* Read/clear last kernel messages */
++      case SYSLOG_ACTION_READ_CLEAR:
+               do_clear = 1;
+               /* FALL THRU */
+-      case 3:         /* Read last kernel messages */
++      /* Read last kernel messages */
++      case SYSLOG_ACTION_READ_ALL:
+               error = -EINVAL;
+               if (!buf || len < 0)
+                       goto out;
+@@ -374,21 +369,25 @@ int do_syslog(int type, char __user *buf, int len)
+                       }
+               }
+               break;
+-      case 5:         /* Clear ring buffer */
++      /* Clear ring buffer */
++      case SYSLOG_ACTION_CLEAR:
+               logged_chars = 0;
+               break;
+-      case 6:         /* Disable logging to console */
++      /* Disable logging to console */
++      case SYSLOG_ACTION_CONSOLE_OFF:
+               if (saved_console_loglevel == -1)
+                       saved_console_loglevel = console_loglevel;
+               console_loglevel = minimum_console_loglevel;
+               break;
+-      case 7:         /* Enable logging to console */
++      /* Enable logging to console */
++      case SYSLOG_ACTION_CONSOLE_ON:
+               if (saved_console_loglevel != -1) {
+                       console_loglevel = saved_console_loglevel;
+                       saved_console_loglevel = -1;
+               }
+               break;
+-      case 8:         /* Set level of messages printed to console */
++      /* Set level of messages printed to console */
++      case SYSLOG_ACTION_CONSOLE_LEVEL:
+               error = -EINVAL;
+               if (len < 1 || len > 8)
+                       goto out;
+@@ -399,10 +398,12 @@ int do_syslog(int type, char __user *buf, int len)
+               saved_console_loglevel = -1;
+               error = 0;
+               break;
+-      case 9:         /* Number of chars in the log buffer */
++      /* Number of chars in the log buffer */
++      case SYSLOG_ACTION_SIZE_UNREAD:
+               error = log_end - log_start;
+               break;
+-      case 10:        /* Size of the log buffer */
++      /* Size of the log buffer */
++      case SYSLOG_ACTION_SIZE_BUFFER:
+               error = log_buf_len;
+               break;
+       default:
+@@ -415,7 +416,7 @@ out:
+ SYSCALL_DEFINE3(syslog, int, type, char __user *, buf, int, len)
+ {
+-      return do_syslog(type, buf, len);
++      return do_syslog(type, buf, len, SYSLOG_FROM_CALL);
+ }
+ /*
+diff --git a/kernel/profile.c b/kernel/profile.c
+index dfadc5b..7f59404 100644
+--- a/kernel/profile.c
++++ b/kernel/profile.c
+@@ -39,7 +39,7 @@ struct profile_hit {
+ /* Oprofile timer tick hook */
+ static int (*timer_hook)(struct pt_regs *) __read_mostly;
+-static atomic_t *prof_buffer;
++static atomic_unchecked_t *prof_buffer;
+ static unsigned long prof_len, prof_shift;
+ int prof_on __read_mostly;
+@@ -283,7 +283,7 @@ static void profile_flip_buffers(void)
+                                       hits[i].pc = 0;
+                               continue;
+                       }
+-                      atomic_add(hits[i].hits, &prof_buffer[hits[i].pc]);
++                      atomic_add_unchecked(hits[i].hits, &prof_buffer[hits[i].pc]);
+                       hits[i].hits = hits[i].pc = 0;
+               }
+       }
+@@ -346,9 +346,9 @@ void profile_hits(int type, void *__pc, unsigned int nr_hits)
+        * Add the current hit(s) and flush the write-queue out
+        * to the global buffer:
+        */
+-      atomic_add(nr_hits, &prof_buffer[pc]);
++      atomic_add_unchecked(nr_hits, &prof_buffer[pc]);
+       for (i = 0; i < NR_PROFILE_HIT; ++i) {
+-              atomic_add(hits[i].hits, &prof_buffer[hits[i].pc]);
++              atomic_add_unchecked(hits[i].hits, &prof_buffer[hits[i].pc]);
+               hits[i].pc = hits[i].hits = 0;
+       }
+ out:
+@@ -426,7 +426,7 @@ void profile_hits(int type, void *__pc, unsigned int nr_hits)
+       if (prof_on != type || !prof_buffer)
+               return;
+       pc = ((unsigned long)__pc - (unsigned long)_stext) >> prof_shift;
+-      atomic_add(nr_hits, &prof_buffer[min(pc, prof_len - 1)]);
++      atomic_add_unchecked(nr_hits, &prof_buffer[min(pc, prof_len - 1)]);
+ }
+ #endif /* !CONFIG_SMP */
+ EXPORT_SYMBOL_GPL(profile_hits);
+@@ -517,7 +517,7 @@ read_profile(struct file *file, char __user *buf, size_t count, loff_t *ppos)
+                       return -EFAULT;
+               buf++; p++; count--; read++;
+       }
+-      pnt = (char *)prof_buffer + p - sizeof(atomic_t);
++      pnt = (char *)prof_buffer + p - sizeof(atomic_unchecked_t);
+       if (copy_to_user(buf, (void *)pnt, count))
+               return -EFAULT;
+       read += count;
+@@ -548,7 +548,7 @@ static ssize_t write_profile(struct file *file, const char __user *buf,
+       }
+ #endif
+       profile_discard_flip_buffers();
+-      memset(prof_buffer, 0, prof_len * sizeof(atomic_t));
++      memset(prof_buffer, 0, prof_len * sizeof(atomic_unchecked_t));
+       return count;
+ }
+diff --git a/kernel/ptrace.c b/kernel/ptrace.c
+index 05625f6..733bf70 100644
+--- a/kernel/ptrace.c
++++ b/kernel/ptrace.c
+@@ -117,7 +117,8 @@ int ptrace_check_attach(struct task_struct *child, int kill)
+       return ret;
+ }
+-int __ptrace_may_access(struct task_struct *task, unsigned int mode)
++static int __ptrace_may_access(struct task_struct *task, unsigned int mode,
++                             unsigned int log)
+ {
+       const struct cred *cred = current_cred(), *tcred;
+@@ -141,7 +142,9 @@ int __ptrace_may_access(struct task_struct *task, unsigned int mode)
+            cred->gid != tcred->egid ||
+            cred->gid != tcred->sgid ||
+            cred->gid != tcred->gid) &&
+-          !capable(CAP_SYS_PTRACE)) {
++           ((!log && !capable_nolog(CAP_SYS_PTRACE)) ||
++            (log && !capable(CAP_SYS_PTRACE)))
++      ) {
+               rcu_read_unlock();
+               return -EPERM;
+       }
+@@ -149,7 +152,9 @@ int __ptrace_may_access(struct task_struct *task, unsigned int mode)
+       smp_rmb();
+       if (task->mm)
+               dumpable = get_dumpable(task->mm);
+-      if (!dumpable && !capable(CAP_SYS_PTRACE))
++      if (!dumpable &&
++           ((!log && !capable_nolog(CAP_SYS_PTRACE)) ||
++            (log && !capable(CAP_SYS_PTRACE))))
+               return -EPERM;
+       return security_ptrace_access_check(task, mode);
+@@ -159,7 +164,16 @@ bool ptrace_may_access(struct task_struct *task, unsigned int mode)
+ {
+       int err;
+       task_lock(task);
+-      err = __ptrace_may_access(task, mode);
++      err = __ptrace_may_access(task, mode, 0);
++      task_unlock(task);
++      return !err;
++}
++
++bool ptrace_may_access_log(struct task_struct *task, unsigned int mode)
++{
++      int err;
++      task_lock(task);
++      err = __ptrace_may_access(task, mode, 1);
+       task_unlock(task);
+       return !err;
+ }
+@@ -186,7 +200,7 @@ int ptrace_attach(struct task_struct *task)
+               goto out;
+       task_lock(task);
+-      retval = __ptrace_may_access(task, PTRACE_MODE_ATTACH);
++      retval = __ptrace_may_access(task, PTRACE_MODE_ATTACH, 1);
+       task_unlock(task);
+       if (retval)
+               goto unlock_creds;
+@@ -199,7 +213,7 @@ int ptrace_attach(struct task_struct *task)
+               goto unlock_tasklist;
+       task->ptrace = PT_PTRACED;
+-      if (capable(CAP_SYS_PTRACE))
++      if (capable_nolog(CAP_SYS_PTRACE))
+               task->ptrace |= PT_PTRACE_CAP;
+       __ptrace_link(task, current);
+@@ -351,6 +365,8 @@ int ptrace_readdata(struct task_struct *tsk, unsigned long src, char __user *dst
+ {
+       int copied = 0;
++      pax_track_stack();
++
+       while (len > 0) {
+               char buf[128];
+               int this_len, retval;
+@@ -376,6 +392,8 @@ int ptrace_writedata(struct task_struct *tsk, char __user *src, unsigned long ds
+ {
+       int copied = 0;
++      pax_track_stack();
++
+       while (len > 0) {
+               char buf[128];
+               int this_len, retval;
+@@ -517,6 +535,8 @@ int ptrace_request(struct task_struct *child, long request,
+       int ret = -EIO;
+       siginfo_t siginfo;
++      pax_track_stack();
++
+       switch (request) {
+       case PTRACE_PEEKTEXT:
+       case PTRACE_PEEKDATA:
+@@ -532,18 +552,18 @@ int ptrace_request(struct task_struct *child, long request,
+               ret = ptrace_setoptions(child, data);
+               break;
+       case PTRACE_GETEVENTMSG:
+-              ret = put_user(child->ptrace_message, (unsigned long __user *) data);
++              ret = put_user(child->ptrace_message, (__force unsigned long __user *) data);
+               break;
+       case PTRACE_GETSIGINFO:
+               ret = ptrace_getsiginfo(child, &siginfo);
+               if (!ret)
+-                      ret = copy_siginfo_to_user((siginfo_t __user *) data,
++                      ret = copy_siginfo_to_user((__force siginfo_t __user *) data,
+                                                  &siginfo);
+               break;
+       case PTRACE_SETSIGINFO:
+-              if (copy_from_user(&siginfo, (siginfo_t __user *) data,
++              if (copy_from_user(&siginfo, (__force siginfo_t __user *) data,
+                                  sizeof siginfo))
+                       ret = -EFAULT;
+               else
+@@ -621,14 +641,21 @@ SYSCALL_DEFINE4(ptrace, long, request, long, pid, long, addr, long, data)
+               goto out;
+       }
++      if (gr_handle_ptrace(child, request)) {
++              ret = -EPERM;
++              goto out_put_task_struct;
++      }
++
+       if (request == PTRACE_ATTACH) {
+               ret = ptrace_attach(child);
+               /*
+                * Some architectures need to do book-keeping after
+                * a ptrace attach.
+                */
+-              if (!ret)
++              if (!ret) {
+                       arch_ptrace_attach(child);
++                      gr_audit_ptrace(child);
++              }
+               goto out_put_task_struct;
+       }
+@@ -653,7 +680,7 @@ int generic_ptrace_peekdata(struct task_struct *tsk, long addr, long data)
+       copied = access_process_vm(tsk, addr, &tmp, sizeof(tmp), 0);
+       if (copied != sizeof(tmp))
+               return -EIO;
+-      return put_user(tmp, (unsigned long __user *)data);
++      return put_user(tmp, (__force unsigned long __user *)data);
+ }
+ int generic_ptrace_pokedata(struct task_struct *tsk, long addr, long data)
+@@ -675,6 +702,8 @@ int compat_ptrace_request(struct task_struct *child, compat_long_t request,
+       siginfo_t siginfo;
+       int ret;
++      pax_track_stack();
++
+       switch (request) {
+       case PTRACE_PEEKTEXT:
+       case PTRACE_PEEKDATA:
+@@ -740,14 +769,21 @@ asmlinkage long compat_sys_ptrace(compat_long_t request, compat_long_t pid,
+               goto out;
+       }
++      if (gr_handle_ptrace(child, request)) {
++              ret = -EPERM;
++              goto out_put_task_struct;
++      }
++
+       if (request == PTRACE_ATTACH) {
+               ret = ptrace_attach(child);
+               /*
+                * Some architectures need to do book-keeping after
+                * a ptrace attach.
+                */
+-              if (!ret)
++              if (!ret) {
+                       arch_ptrace_attach(child);
++                      gr_audit_ptrace(child);
++              }
+               goto out_put_task_struct;
+       }
+diff --git a/kernel/rcutorture.c b/kernel/rcutorture.c
+index 697c0a0..2402696 100644
+--- a/kernel/rcutorture.c
++++ b/kernel/rcutorture.c
+@@ -118,12 +118,12 @@ static DEFINE_PER_CPU(long [RCU_TORTURE_PIPE_LEN + 1], rcu_torture_count) =
+       { 0 };
+ static DEFINE_PER_CPU(long [RCU_TORTURE_PIPE_LEN + 1], rcu_torture_batch) =
+       { 0 };
+-static atomic_t rcu_torture_wcount[RCU_TORTURE_PIPE_LEN + 1];
+-static atomic_t n_rcu_torture_alloc;
+-static atomic_t n_rcu_torture_alloc_fail;
+-static atomic_t n_rcu_torture_free;
+-static atomic_t n_rcu_torture_mberror;
+-static atomic_t n_rcu_torture_error;
++static atomic_unchecked_t rcu_torture_wcount[RCU_TORTURE_PIPE_LEN + 1];
++static atomic_unchecked_t n_rcu_torture_alloc;
++static atomic_unchecked_t n_rcu_torture_alloc_fail;
++static atomic_unchecked_t n_rcu_torture_free;
++static atomic_unchecked_t n_rcu_torture_mberror;
++static atomic_unchecked_t n_rcu_torture_error;
+ static long n_rcu_torture_timers;
+ static struct list_head rcu_torture_removed;
+ static cpumask_var_t shuffle_tmp_mask;
+@@ -187,11 +187,11 @@ rcu_torture_alloc(void)
+       spin_lock_bh(&rcu_torture_lock);
+       if (list_empty(&rcu_torture_freelist)) {
+-              atomic_inc(&n_rcu_torture_alloc_fail);
++              atomic_inc_unchecked(&n_rcu_torture_alloc_fail);
+               spin_unlock_bh(&rcu_torture_lock);
+               return NULL;
+       }
+-      atomic_inc(&n_rcu_torture_alloc);
++      atomic_inc_unchecked(&n_rcu_torture_alloc);
+       p = rcu_torture_freelist.next;
+       list_del_init(p);
+       spin_unlock_bh(&rcu_torture_lock);
+@@ -204,7 +204,7 @@ rcu_torture_alloc(void)
+ static void
+ rcu_torture_free(struct rcu_torture *p)
+ {
+-      atomic_inc(&n_rcu_torture_free);
++      atomic_inc_unchecked(&n_rcu_torture_free);
+       spin_lock_bh(&rcu_torture_lock);
+       list_add_tail(&p->rtort_free, &rcu_torture_freelist);
+       spin_unlock_bh(&rcu_torture_lock);
+@@ -319,7 +319,7 @@ rcu_torture_cb(struct rcu_head *p)
+       i = rp->rtort_pipe_count;
+       if (i > RCU_TORTURE_PIPE_LEN)
+               i = RCU_TORTURE_PIPE_LEN;
+-      atomic_inc(&rcu_torture_wcount[i]);
++      atomic_inc_unchecked(&rcu_torture_wcount[i]);
+       if (++rp->rtort_pipe_count >= RCU_TORTURE_PIPE_LEN) {
+               rp->rtort_mbtest = 0;
+               rcu_torture_free(rp);
+@@ -359,7 +359,7 @@ static void rcu_sync_torture_deferred_free(struct rcu_torture *p)
+               i = rp->rtort_pipe_count;
+               if (i > RCU_TORTURE_PIPE_LEN)
+                       i = RCU_TORTURE_PIPE_LEN;
+-              atomic_inc(&rcu_torture_wcount[i]);
++              atomic_inc_unchecked(&rcu_torture_wcount[i]);
+               if (++rp->rtort_pipe_count >= RCU_TORTURE_PIPE_LEN) {
+                       rp->rtort_mbtest = 0;
+                       list_del(&rp->rtort_free);
+@@ -653,7 +653,7 @@ rcu_torture_writer(void *arg)
+                       i = old_rp->rtort_pipe_count;
+                       if (i > RCU_TORTURE_PIPE_LEN)
+                               i = RCU_TORTURE_PIPE_LEN;
+-                      atomic_inc(&rcu_torture_wcount[i]);
++                      atomic_inc_unchecked(&rcu_torture_wcount[i]);
+                       old_rp->rtort_pipe_count++;
+                       cur_ops->deferred_free(old_rp);
+               }
+@@ -718,7 +718,7 @@ static void rcu_torture_timer(unsigned long unused)
+               return;
+       }
+       if (p->rtort_mbtest == 0)
+-              atomic_inc(&n_rcu_torture_mberror);
++              atomic_inc_unchecked(&n_rcu_torture_mberror);
+       spin_lock(&rand_lock);
+       cur_ops->read_delay(&rand);
+       n_rcu_torture_timers++;
+@@ -776,7 +776,7 @@ rcu_torture_reader(void *arg)
+                       continue;
+               }
+               if (p->rtort_mbtest == 0)
+-                      atomic_inc(&n_rcu_torture_mberror);
++                      atomic_inc_unchecked(&n_rcu_torture_mberror);
+               cur_ops->read_delay(&rand);
+               preempt_disable();
+               pipe_count = p->rtort_pipe_count;
+@@ -834,17 +834,17 @@ rcu_torture_printk(char *page)
+                      rcu_torture_current,
+                      rcu_torture_current_version,
+                      list_empty(&rcu_torture_freelist),
+-                     atomic_read(&n_rcu_torture_alloc),
+-                     atomic_read(&n_rcu_torture_alloc_fail),
+-                     atomic_read(&n_rcu_torture_free),
+-                     atomic_read(&n_rcu_torture_mberror),
++                     atomic_read_unchecked(&n_rcu_torture_alloc),
++                     atomic_read_unchecked(&n_rcu_torture_alloc_fail),
++                     atomic_read_unchecked(&n_rcu_torture_free),
++                     atomic_read_unchecked(&n_rcu_torture_mberror),
+                      n_rcu_torture_timers);
+-      if (atomic_read(&n_rcu_torture_mberror) != 0)
++      if (atomic_read_unchecked(&n_rcu_torture_mberror) != 0)
+               cnt += sprintf(&page[cnt], " !!!");
+       cnt += sprintf(&page[cnt], "\n%s%s ", torture_type, TORTURE_FLAG);
+       if (i > 1) {
+               cnt += sprintf(&page[cnt], "!!! ");
+-              atomic_inc(&n_rcu_torture_error);
++              atomic_inc_unchecked(&n_rcu_torture_error);
+               WARN_ON_ONCE(1);
+       }
+       cnt += sprintf(&page[cnt], "Reader Pipe: ");
+@@ -858,7 +858,7 @@ rcu_torture_printk(char *page)
+       cnt += sprintf(&page[cnt], "Free-Block Circulation: ");
+       for (i = 0; i < RCU_TORTURE_PIPE_LEN + 1; i++) {
+               cnt += sprintf(&page[cnt], " %d",
+-                             atomic_read(&rcu_torture_wcount[i]));
++                             atomic_read_unchecked(&rcu_torture_wcount[i]));
+       }
+       cnt += sprintf(&page[cnt], "\n");
+       if (cur_ops->stats)
+@@ -1084,7 +1084,7 @@ rcu_torture_cleanup(void)
+       if (cur_ops->cleanup)
+               cur_ops->cleanup();
+-      if (atomic_read(&n_rcu_torture_error))
++      if (atomic_read_unchecked(&n_rcu_torture_error))
+               rcu_torture_print_module_parms("End of test: FAILURE");
+       else
+               rcu_torture_print_module_parms("End of test: SUCCESS");
+@@ -1138,13 +1138,13 @@ rcu_torture_init(void)
+       rcu_torture_current = NULL;
+       rcu_torture_current_version = 0;
+-      atomic_set(&n_rcu_torture_alloc, 0);
+-      atomic_set(&n_rcu_torture_alloc_fail, 0);
+-      atomic_set(&n_rcu_torture_free, 0);
+-      atomic_set(&n_rcu_torture_mberror, 0);
+-      atomic_set(&n_rcu_torture_error, 0);
++      atomic_set_unchecked(&n_rcu_torture_alloc, 0);
++      atomic_set_unchecked(&n_rcu_torture_alloc_fail, 0);
++      atomic_set_unchecked(&n_rcu_torture_free, 0);
++      atomic_set_unchecked(&n_rcu_torture_mberror, 0);
++      atomic_set_unchecked(&n_rcu_torture_error, 0);
+       for (i = 0; i < RCU_TORTURE_PIPE_LEN + 1; i++)
+-              atomic_set(&rcu_torture_wcount[i], 0);
++              atomic_set_unchecked(&rcu_torture_wcount[i], 0);
+       for_each_possible_cpu(cpu) {
+               for (i = 0; i < RCU_TORTURE_PIPE_LEN + 1; i++) {
+                       per_cpu(rcu_torture_count, cpu)[i] = 0;
+diff --git a/kernel/rcutree.c b/kernel/rcutree.c
+index 683c4f3..97f54c6 100644
+--- a/kernel/rcutree.c
++++ b/kernel/rcutree.c
+@@ -1303,7 +1303,7 @@ __rcu_process_callbacks(struct rcu_state *rsp, struct rcu_data *rdp)
+ /*
+  * Do softirq processing for the current CPU.
+  */
+-static void rcu_process_callbacks(struct softirq_action *unused)
++static void rcu_process_callbacks(void)
+ {
+       /*
+        * Memory references from any prior RCU read-side critical sections
+diff --git a/kernel/rcutree_plugin.h b/kernel/rcutree_plugin.h
+index c03edf7..ac1b341 100644
+--- a/kernel/rcutree_plugin.h
++++ b/kernel/rcutree_plugin.h
+@@ -145,7 +145,7 @@ static void rcu_preempt_note_context_switch(int cpu)
+  */
+ void __rcu_read_lock(void)
+ {
+-      ACCESS_ONCE(current->rcu_read_lock_nesting)++;
++      ACCESS_ONCE_RW(current->rcu_read_lock_nesting)++;
+       barrier();  /* needed if we ever invoke rcu_read_lock in rcutree.c */
+ }
+ EXPORT_SYMBOL_GPL(__rcu_read_lock);
+@@ -251,7 +251,7 @@ void __rcu_read_unlock(void)
+       struct task_struct *t = current;
+       barrier();  /* needed if we ever invoke rcu_read_unlock in rcutree.c */
+-      if (--ACCESS_ONCE(t->rcu_read_lock_nesting) == 0 &&
++      if (--ACCESS_ONCE_RW(t->rcu_read_lock_nesting) == 0 &&
+           unlikely(ACCESS_ONCE(t->rcu_read_unlock_special)))
+               rcu_read_unlock_special(t);
+ }
+diff --git a/kernel/relay.c b/kernel/relay.c
+index 760c262..a9fd241 100644
+--- a/kernel/relay.c
++++ b/kernel/relay.c
+@@ -1222,7 +1222,7 @@ static int subbuf_splice_actor(struct file *in,
+                              unsigned int flags,
+                              int *nonpad_ret)
+ {
+-      unsigned int pidx, poff, total_len, subbuf_pages, nr_pages, ret;
++      unsigned int pidx, poff, total_len, subbuf_pages, nr_pages;
+       struct rchan_buf *rbuf = in->private_data;
+       unsigned int subbuf_size = rbuf->chan->subbuf_size;
+       uint64_t pos = (uint64_t) *ppos;
+@@ -1241,6 +1241,9 @@ static int subbuf_splice_actor(struct file *in,
+               .ops = &relay_pipe_buf_ops,
+               .spd_release = relay_page_release,
+       };
++      ssize_t ret;
++
++      pax_track_stack();
+       if (rbuf->subbufs_produced == rbuf->subbufs_consumed)
+               return 0;
+diff --git a/kernel/resource.c b/kernel/resource.c
+index fb11a58..4e61ae1 100644
+--- a/kernel/resource.c
++++ b/kernel/resource.c
+@@ -132,8 +132,18 @@ static const struct file_operations proc_iomem_operations = {
+ static int __init ioresources_init(void)
+ {
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++#ifdef CONFIG_GRKERNSEC_PROC_USER
++      proc_create("ioports", S_IRUSR, NULL, &proc_ioports_operations);
++      proc_create("iomem", S_IRUSR, NULL, &proc_iomem_operations);
++#elif defined(CONFIG_GRKERNSEC_PROC_USERGROUP)
++      proc_create("ioports", S_IRUSR | S_IRGRP, NULL, &proc_ioports_operations);
++      proc_create("iomem", S_IRUSR | S_IRGRP, NULL, &proc_iomem_operations);
++#endif
++#else
+       proc_create("ioports", 0, NULL, &proc_ioports_operations);
+       proc_create("iomem", 0, NULL, &proc_iomem_operations);
++#endif
+       return 0;
+ }
+ __initcall(ioresources_init);
+diff --git a/kernel/rtmutex-tester.c b/kernel/rtmutex-tester.c
+index a56f629..1fc4989 100644
+--- a/kernel/rtmutex-tester.c
++++ b/kernel/rtmutex-tester.c
+@@ -21,7 +21,7 @@
+ #define MAX_RT_TEST_MUTEXES   8
+ static spinlock_t rttest_lock;
+-static atomic_t rttest_event;
++static atomic_unchecked_t rttest_event;
+ struct test_thread_data {
+       int                     opcode;
+@@ -64,7 +64,7 @@ static int handle_op(struct test_thread_data *td, int lockwakeup)
+       case RTTEST_LOCKCONT:
+               td->mutexes[td->opdata] = 1;
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               return 0;
+       case RTTEST_RESET:
+@@ -82,7 +82,7 @@ static int handle_op(struct test_thread_data *td, int lockwakeup)
+               return 0;
+       case RTTEST_RESETEVENT:
+-              atomic_set(&rttest_event, 0);
++              atomic_set_unchecked(&rttest_event, 0);
+               return 0;
+       default:
+@@ -99,9 +99,9 @@ static int handle_op(struct test_thread_data *td, int lockwakeup)
+                       return ret;
+               td->mutexes[id] = 1;
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               rt_mutex_lock(&mutexes[id]);
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               td->mutexes[id] = 4;
+               return 0;
+@@ -112,9 +112,9 @@ static int handle_op(struct test_thread_data *td, int lockwakeup)
+                       return ret;
+               td->mutexes[id] = 1;
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               ret = rt_mutex_lock_interruptible(&mutexes[id], 0);
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               td->mutexes[id] = ret ? 0 : 4;
+               return ret ? -EINTR : 0;
+@@ -123,9 +123,9 @@ static int handle_op(struct test_thread_data *td, int lockwakeup)
+               if (id < 0 || id >= MAX_RT_TEST_MUTEXES || td->mutexes[id] != 4)
+                       return ret;
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               rt_mutex_unlock(&mutexes[id]);
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               td->mutexes[id] = 0;
+               return 0;
+@@ -187,7 +187,7 @@ void schedule_rt_mutex_test(struct rt_mutex *mutex)
+                       break;
+               td->mutexes[dat] = 2;
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               break;
+       case RTTEST_LOCKBKL:
+@@ -208,7 +208,7 @@ void schedule_rt_mutex_test(struct rt_mutex *mutex)
+                       return;
+               td->mutexes[dat] = 3;
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               break;
+       case RTTEST_LOCKNOWAIT:
+@@ -220,7 +220,7 @@ void schedule_rt_mutex_test(struct rt_mutex *mutex)
+                       return;
+               td->mutexes[dat] = 1;
+-              td->event = atomic_add_return(1, &rttest_event);
++              td->event = atomic_add_return_unchecked(1, &rttest_event);
+               return;
+       case RTTEST_LOCKBKL:
+diff --git a/kernel/rtmutex.c b/kernel/rtmutex.c
+index 29bd4ba..8c5de90 100644
+--- a/kernel/rtmutex.c
++++ b/kernel/rtmutex.c
+@@ -511,7 +511,7 @@ static void wakeup_next_waiter(struct rt_mutex *lock)
+        */
+       spin_lock_irqsave(&pendowner->pi_lock, flags);
+-      WARN_ON(!pendowner->pi_blocked_on);
++      BUG_ON(!pendowner->pi_blocked_on);
+       WARN_ON(pendowner->pi_blocked_on != waiter);
+       WARN_ON(pendowner->pi_blocked_on->lock != lock);
+diff --git a/kernel/sched.c b/kernel/sched.c
+index 0591df8..e3af3a4 100644
+--- a/kernel/sched.c
++++ b/kernel/sched.c
+@@ -5043,7 +5043,7 @@ out:
+  * In CONFIG_NO_HZ case, the idle load balance owner will do the
+  * rebalancing for all the cpus for whom scheduler ticks are stopped.
+  */
+-static void run_rebalance_domains(struct softirq_action *h)
++static void run_rebalance_domains(void)
+ {
+       int this_cpu = smp_processor_id();
+       struct rq *this_rq = cpu_rq(this_cpu);
+@@ -5690,6 +5690,19 @@ pick_next_task(struct rq *rq)
+       }
+ }
++#ifdef CONFIG_GRKERNSEC_SETXID
++extern void gr_delayed_cred_worker(void);
++static inline void gr_cred_schedule(void)
++{
++      if (unlikely(current->delayed_cred))
++              gr_delayed_cred_worker();
++}
++#else
++static inline void gr_cred_schedule(void)
++{
++}
++#endif
++
+ /*
+  * schedule() is the main scheduler function.
+  */
+@@ -5700,6 +5713,8 @@ asmlinkage void __sched schedule(void)
+       struct rq *rq;
+       int cpu;
++      pax_track_stack();
++
+ need_resched:
+       preempt_disable();
+       cpu = smp_processor_id();
+@@ -5713,6 +5728,8 @@ need_resched_nonpreemptible:
+       schedule_debug(prev);
++      gr_cred_schedule();
++
+       if (sched_feat(HRTICK))
+               hrtick_clear(rq);
+@@ -5770,7 +5787,7 @@ EXPORT_SYMBOL(schedule);
+  * Look out! "owner" is an entirely speculative pointer
+  * access and not reliable.
+  */
+-int mutex_spin_on_owner(struct mutex *lock, struct thread_info *owner)
++int mutex_spin_on_owner(struct mutex *lock, struct task_struct *owner)
+ {
+       unsigned int cpu;
+       struct rq *rq;
+@@ -5784,10 +5801,10 @@ int mutex_spin_on_owner(struct mutex *lock, struct thread_info *owner)
+        * DEBUG_PAGEALLOC could have unmapped it if
+        * the mutex owner just released it and exited.
+        */
+-      if (probe_kernel_address(&owner->cpu, cpu))
++      if (probe_kernel_address(&task_thread_info(owner)->cpu, cpu))
+               return 0;
+ #else
+-      cpu = owner->cpu;
++      cpu = task_thread_info(owner)->cpu;
+ #endif
+       /*
+@@ -5816,7 +5833,7 @@ int mutex_spin_on_owner(struct mutex *lock, struct thread_info *owner)
+               /*
+                * Is that owner really running on that cpu?
+                */
+-              if (task_thread_info(rq->curr) != owner || need_resched())
++              if (rq->curr != owner || need_resched())
+                       return 0;
+               cpu_relax();
+@@ -6359,6 +6376,8 @@ int can_nice(const struct task_struct *p, const int nice)
+       /* convert nice value [19,-20] to rlimit style value [1,40] */
+       int nice_rlim = 20 - nice;
++      gr_learn_resource(p, RLIMIT_NICE, nice_rlim, 1);
++
+       return (nice_rlim <= p->signal->rlim[RLIMIT_NICE].rlim_cur ||
+               capable(CAP_SYS_NICE));
+ }
+@@ -6392,7 +6411,8 @@ SYSCALL_DEFINE1(nice, int, increment)
+       if (nice > 19)
+               nice = 19;
+-      if (increment < 0 && !can_nice(current, nice))
++      if (increment < 0 && (!can_nice(current, nice) ||
++                            gr_handle_chroot_nice()))
+               return -EPERM;
+       retval = security_task_setnice(current, nice);
+@@ -8774,7 +8794,7 @@ static void init_sched_groups_power(int cpu, struct sched_domain *sd)
+       long power;
+       int weight;
+-      WARN_ON(!sd || !sd->groups);
++      BUG_ON(!sd || !sd->groups);
+       if (cpu != group_first_cpu(sd->groups))
+               return;
+diff --git a/kernel/signal.c b/kernel/signal.c
+index 2494827..cda80a0 100644
+--- a/kernel/signal.c
++++ b/kernel/signal.c
+@@ -41,12 +41,12 @@
+ static struct kmem_cache *sigqueue_cachep;
+-static void __user *sig_handler(struct task_struct *t, int sig)
++static __sighandler_t sig_handler(struct task_struct *t, int sig)
+ {
+       return t->sighand->action[sig - 1].sa.sa_handler;
+ }
+-static int sig_handler_ignored(void __user *handler, int sig)
++static int sig_handler_ignored(__sighandler_t handler, int sig)
+ {
+       /* Is it explicitly or implicitly ignored? */
+       return handler == SIG_IGN ||
+@@ -56,7 +56,7 @@ static int sig_handler_ignored(void __user *handler, int sig)
+ static int sig_task_ignored(struct task_struct *t, int sig,
+               int from_ancestor_ns)
+ {
+-      void __user *handler;
++      __sighandler_t handler;
+       handler = sig_handler(t, sig);
+@@ -207,6 +207,9 @@ static struct sigqueue *__sigqueue_alloc(struct task_struct *t, gfp_t flags,
+        */
+       user = get_uid(__task_cred(t)->user);
+       atomic_inc(&user->sigpending);
++
++      if (!override_rlimit)
++              gr_learn_resource(t, RLIMIT_SIGPENDING, atomic_read(&user->sigpending), 1);
+       if (override_rlimit ||
+           atomic_read(&user->sigpending) <=
+                       t->signal->rlim[RLIMIT_SIGPENDING].rlim_cur)
+@@ -327,7 +330,7 @@ flush_signal_handlers(struct task_struct *t, int force_default)
+ int unhandled_signal(struct task_struct *tsk, int sig)
+ {
+-      void __user *handler = tsk->sighand->action[sig-1].sa.sa_handler;
++      __sighandler_t handler = tsk->sighand->action[sig-1].sa.sa_handler;
+       if (is_global_init(tsk))
+               return 1;
+       if (handler != SIG_IGN && handler != SIG_DFL)
+@@ -627,6 +630,13 @@ static int check_kill_permission(int sig, struct siginfo *info,
+               }
+       }
++      /* allow glibc communication via tgkill to other threads in our
++         thread group */
++      if ((info == SEND_SIG_NOINFO || info->si_code != SI_TKILL ||
++           sig != (SIGRTMIN+1) || task_tgid_vnr(t) != info->si_pid)
++          && gr_handle_signal(t, sig))
++              return -EPERM;
++
+       return security_task_kill(t, info, sig, 0);
+ }
+@@ -968,7 +978,7 @@ __group_send_sig_info(int sig, struct siginfo *info, struct task_struct *p)
+       return send_signal(sig, info, p, 1);
+ }
+-static int
++int
+ specific_send_sig_info(int sig, struct siginfo *info, struct task_struct *t)
+ {
+       return send_signal(sig, info, t, 0);
+@@ -1005,6 +1015,7 @@ force_sig_info(int sig, struct siginfo *info, struct task_struct *t)
+       unsigned long int flags;
+       int ret, blocked, ignored;
+       struct k_sigaction *action;
++      int is_unhandled = 0;
+       spin_lock_irqsave(&t->sighand->siglock, flags);
+       action = &t->sighand->action[sig-1];
+@@ -1019,9 +1030,18 @@ force_sig_info(int sig, struct siginfo *info, struct task_struct *t)
+       }
+       if (action->sa.sa_handler == SIG_DFL)
+               t->signal->flags &= ~SIGNAL_UNKILLABLE;
++      if (action->sa.sa_handler == SIG_IGN || action->sa.sa_handler == SIG_DFL)
++              is_unhandled = 1;
+       ret = specific_send_sig_info(sig, info, t);
+       spin_unlock_irqrestore(&t->sighand->siglock, flags);
++      /* only deal with unhandled signals, java etc trigger SIGSEGV during
++         normal operation */
++      if (is_unhandled) {
++              gr_log_signal(sig, !is_si_special(info) ? info->si_addr : NULL, t);
++              gr_handle_crash(t, sig);
++      }
++
+       return ret;
+ }
+@@ -1081,8 +1101,11 @@ int group_send_sig_info(int sig, struct siginfo *info, struct task_struct *p)
+ {
+       int ret = check_kill_permission(sig, info, p);
+-      if (!ret && sig)
++      if (!ret && sig) {
+               ret = do_send_sig_info(sig, info, p, true);
++              if (!ret)
++                      gr_log_signal(sig, !is_si_special(info) ? info->si_addr : NULL, p);
++      }
+       return ret;
+ }
+@@ -1644,6 +1667,8 @@ void ptrace_notify(int exit_code)
+ {
+       siginfo_t info;
++      pax_track_stack();
++
+       BUG_ON((exit_code & (0x7f | ~0xffff)) != SIGTRAP);
+       memset(&info, 0, sizeof info);
+@@ -2275,7 +2300,15 @@ do_send_specific(pid_t tgid, pid_t pid, int sig, struct siginfo *info)
+       int error = -ESRCH;
+       rcu_read_lock();
+-      p = find_task_by_vpid(pid);
++#ifdef CONFIG_GRKERNSEC_CHROOT_FINDTASK
++      /* allow glibc communication via tgkill to other threads in our
++         thread group */
++      if (grsec_enable_chroot_findtask && info->si_code == SI_TKILL &&
++          sig == (SIGRTMIN+1) && tgid == info->si_pid)            
++              p = find_task_by_vpid_unrestricted(pid);
++      else
++#endif
++              p = find_task_by_vpid(pid);
+       if (p && (tgid <= 0 || task_tgid_vnr(p) == tgid)) {
+               error = check_kill_permission(sig, info, p);
+               /*
+diff --git a/kernel/smp.c b/kernel/smp.c
+index aa9cff3..631a0de 100644
+--- a/kernel/smp.c
++++ b/kernel/smp.c
+@@ -522,22 +522,22 @@ int smp_call_function(void (*func)(void *), void *info, int wait)
+ }
+ EXPORT_SYMBOL(smp_call_function);
+-void ipi_call_lock(void)
++void ipi_call_lock(void) __acquires(call_function.lock)
+ {
+       spin_lock(&call_function.lock);
+ }
+-void ipi_call_unlock(void)
++void ipi_call_unlock(void) __releases(call_function.lock)
+ {
+       spin_unlock(&call_function.lock);
+ }
+-void ipi_call_lock_irq(void)
++void ipi_call_lock_irq(void) __acquires(call_function.lock)
+ {
+       spin_lock_irq(&call_function.lock);
+ }
+-void ipi_call_unlock_irq(void)
++void ipi_call_unlock_irq(void) __releases(call_function.lock)
+ {
+       spin_unlock_irq(&call_function.lock);
+ }
+diff --git a/kernel/softirq.c b/kernel/softirq.c
+index 04a0252..580c512 100644
+--- a/kernel/softirq.c
++++ b/kernel/softirq.c
+@@ -56,7 +56,7 @@ static struct softirq_action softirq_vec[NR_SOFTIRQS] __cacheline_aligned_in_smp
+ static DEFINE_PER_CPU(struct task_struct *, ksoftirqd);
+-char *softirq_to_name[NR_SOFTIRQS] = {
++const char * const softirq_to_name[NR_SOFTIRQS] = {
+       "HI", "TIMER", "NET_TX", "NET_RX", "BLOCK", "BLOCK_IOPOLL",
+       "TASKLET", "SCHED", "HRTIMER",  "RCU"
+ };
+@@ -206,7 +206,7 @@ EXPORT_SYMBOL(local_bh_enable_ip);
+ asmlinkage void __do_softirq(void)
+ {
+-      struct softirq_action *h;
++      const struct softirq_action *h;
+       __u32 pending;
+       int max_restart = MAX_SOFTIRQ_RESTART;
+       int cpu;
+@@ -233,7 +233,7 @@ restart:
+                       kstat_incr_softirqs_this_cpu(h - softirq_vec);
+                       trace_softirq_entry(h, softirq_vec);
+-                      h->action(h);
++                      h->action();
+                       trace_softirq_exit(h, softirq_vec);
+                       if (unlikely(prev_count != preempt_count())) {
+                               printk(KERN_ERR "huh, entered softirq %td %s %p"
+@@ -363,9 +363,11 @@ void raise_softirq(unsigned int nr)
+       local_irq_restore(flags);
+ }
+-void open_softirq(int nr, void (*action)(struct softirq_action *))
++void open_softirq(int nr, void (*action)(void))
+ {
+-      softirq_vec[nr].action = action;
++      pax_open_kernel();
++      *(void **)&softirq_vec[nr].action = action;
++      pax_close_kernel();
+ }
+ /*
+@@ -419,7 +421,7 @@ void __tasklet_hi_schedule_first(struct tasklet_struct *t)
+ EXPORT_SYMBOL(__tasklet_hi_schedule_first);
+-static void tasklet_action(struct softirq_action *a)
++static void tasklet_action(void)
+ {
+       struct tasklet_struct *list;
+@@ -454,7 +456,7 @@ static void tasklet_action(struct softirq_action *a)
+       }
+ }
+-static void tasklet_hi_action(struct softirq_action *a)
++static void tasklet_hi_action(void)
+ {
+       struct tasklet_struct *list;
+diff --git a/kernel/sys.c b/kernel/sys.c
+index e9512b1..8a10cb3 100644
+--- a/kernel/sys.c
++++ b/kernel/sys.c
+@@ -133,6 +133,12 @@ static int set_one_prio(struct task_struct *p, int niceval, int error)
+               error = -EACCES;
+               goto out;
+       }
++
++      if (gr_handle_chroot_setpriority(p, niceval)) {
++              error = -EACCES;
++              goto out;
++      }
++
+       no_nice = security_task_setnice(p, niceval);
+       if (no_nice) {
+               error = no_nice;
+@@ -190,10 +196,10 @@ SYSCALL_DEFINE3(setpriority, int, which, int, who, int, niceval)
+                                !(user = find_user(who)))
+                               goto out_unlock;        /* No processes for this user */
+-                      do_each_thread(g, p)
++                      do_each_thread(g, p) {
+                               if (__task_cred(p)->uid == who)
+                                       error = set_one_prio(p, niceval, error);
+-                      while_each_thread(g, p);
++                      } while_each_thread(g, p);
+                       if (who != cred->uid)
+                               free_uid(user);         /* For find_user() */
+                       break;
+@@ -253,13 +259,13 @@ SYSCALL_DEFINE2(getpriority, int, which, int, who)
+                                !(user = find_user(who)))
+                               goto out_unlock;        /* No processes for this user */
+-                      do_each_thread(g, p)
++                      do_each_thread(g, p) {
+                               if (__task_cred(p)->uid == who) {
+                                       niceval = 20 - task_nice(p);
+                                       if (niceval > retval)
+                                               retval = niceval;
+                               }
+-                      while_each_thread(g, p);
++                      } while_each_thread(g, p);
+                       if (who != cred->uid)
+                               free_uid(user);         /* for find_user() */
+                       break;
+@@ -509,6 +515,9 @@ SYSCALL_DEFINE2(setregid, gid_t, rgid, gid_t, egid)
+                       goto error;
+       }
++      if (gr_check_group_change(new->gid, new->egid, -1))
++              goto error;
++
+       if (rgid != (gid_t) -1 ||
+           (egid != (gid_t) -1 && egid != old->gid))
+               new->sgid = new->egid;
+@@ -542,6 +551,10 @@ SYSCALL_DEFINE1(setgid, gid_t, gid)
+               goto error;
+       retval = -EPERM;
++
++      if (gr_check_group_change(gid, gid, gid))
++              goto error;
++
+       if (capable(CAP_SETGID))
+               new->gid = new->egid = new->sgid = new->fsgid = gid;
+       else if (gid == old->gid || gid == old->sgid)
+@@ -559,7 +572,7 @@ error:
+ /*
+  * change the user struct in a credentials set to match the new UID
+  */
+-static int set_user(struct cred *new)
++int set_user(struct cred *new)
+ {
+       struct user_struct *new_user;
+@@ -567,12 +580,19 @@ static int set_user(struct cred *new)
+       if (!new_user)
+               return -EAGAIN;
++      /*
++       * We don't fail in case of NPROC limit excess here because too many
++       * poorly written programs don't check set*uid() return code, assuming
++       * it never fails if called by root.  We may still enforce NPROC limit
++       * for programs doing set*uid()+execve() by harmlessly deferring the
++       * failure to the execve() stage.
++       */
+       if (atomic_read(&new_user->processes) >=
+                               current->signal->rlim[RLIMIT_NPROC].rlim_cur &&
+-                      new_user != INIT_USER) {
+-              free_uid(new_user);
+-              return -EAGAIN;
+-      }
++                      new_user != INIT_USER)
++              current->flags |= PF_NPROC_EXCEEDED;
++      else
++              current->flags &= ~PF_NPROC_EXCEEDED;
+       free_uid(new->user);
+       new->user = new_user;
+@@ -627,6 +647,9 @@ SYSCALL_DEFINE2(setreuid, uid_t, ruid, uid_t, euid)
+                       goto error;
+       }
++      if (gr_check_user_change(new->uid, new->euid, -1))
++              goto error;
++
+       if (new->uid != old->uid) {
+               retval = set_user(new);
+               if (retval < 0)
+@@ -675,6 +698,12 @@ SYSCALL_DEFINE1(setuid, uid_t, uid)
+               goto error;
+       retval = -EPERM;
++
++      if (gr_check_crash_uid(uid))
++              goto error;
++      if (gr_check_user_change(uid, uid, uid))
++              goto error;
++
+       if (capable(CAP_SETUID)) {
+               new->suid = new->uid = uid;
+               if (uid != old->uid) {
+@@ -721,9 +750,18 @@ SYSCALL_DEFINE3(setresuid, uid_t, ruid, uid_t, euid, uid_t, suid)
+       retval = -EPERM;
+       if (!capable(CAP_SETUID)) {
+-              if (ruid != (uid_t) -1 && ruid != old->uid &&
+-                  ruid != old->euid  && ruid != old->suid)
+-                      goto error;
++              // if RBAC is enabled, require CAP_SETUID to change
++              // uid to euid (from a suid binary, for instance)
++              // this is a hardening of normal permissions, not
++              // weakening
++              if (gr_acl_is_enabled()) {
++                      if (ruid != (uid_t) -1 && ruid != old->uid)
++                              goto error;
++              } else {
++                      if (ruid != (uid_t) -1 && ruid != old->uid &&
++                          ruid != old->euid  && ruid != old->suid)
++                              goto error;
++              }
+               if (euid != (uid_t) -1 && euid != old->uid &&
+                   euid != old->euid  && euid != old->suid)
+                       goto error;
+@@ -732,6 +770,9 @@ SYSCALL_DEFINE3(setresuid, uid_t, ruid, uid_t, euid, uid_t, suid)
+                       goto error;
+       }
++      if (gr_check_user_change(ruid, euid, -1))
++              goto error;
++
+       if (ruid != (uid_t) -1) {
+               new->uid = ruid;
+               if (ruid != old->uid) {
+@@ -789,9 +830,18 @@ SYSCALL_DEFINE3(setresgid, gid_t, rgid, gid_t, egid, gid_t, sgid)
+       retval = -EPERM;
+       if (!capable(CAP_SETGID)) {
+-              if (rgid != (gid_t) -1 && rgid != old->gid &&
+-                  rgid != old->egid  && rgid != old->sgid)
+-                      goto error;
++              // if RBAC is enabled, require CAP_SETGID to change
++              // gid to egid (from a sgid binary, for instance)
++              // this is a hardening of normal permissions, not
++              // weakening
++              if (gr_acl_is_enabled()) {
++                      if (rgid != (gid_t) -1 && rgid != old->gid)
++                              goto error;
++              } else {
++                      if (rgid != (gid_t) -1 && rgid != old->gid &&
++                          rgid != old->egid  && rgid != old->sgid)
++                              goto error;
++              }
+               if (egid != (gid_t) -1 && egid != old->gid &&
+                   egid != old->egid  && egid != old->sgid)
+                       goto error;
+@@ -800,6 +850,9 @@ SYSCALL_DEFINE3(setresgid, gid_t, rgid, gid_t, egid, gid_t, sgid)
+                       goto error;
+       }
++      if (gr_check_group_change(rgid, egid, -1))
++              goto error;
++
+       if (rgid != (gid_t) -1)
+               new->gid = rgid;
+       if (egid != (gid_t) -1)
+@@ -849,6 +902,9 @@ SYSCALL_DEFINE1(setfsuid, uid_t, uid)
+       if (security_task_setuid(uid, (uid_t)-1, (uid_t)-1, LSM_SETID_FS) < 0)
+               goto error;
++      if (gr_check_user_change(-1, -1, uid))
++              goto error;
++
+       if (uid == old->uid  || uid == old->euid  ||
+           uid == old->suid || uid == old->fsuid ||
+           capable(CAP_SETUID)) {
+@@ -889,6 +945,9 @@ SYSCALL_DEFINE1(setfsgid, gid_t, gid)
+       if (gid == old->gid  || gid == old->egid  ||
+           gid == old->sgid || gid == old->fsgid ||
+           capable(CAP_SETGID)) {
++              if (gr_check_group_change(-1, -1, gid))
++                      goto error;
++
+               if (gid != old_fsgid) {
+                       new->fsgid = gid;
+                       goto change_okay;
+@@ -1454,7 +1513,7 @@ SYSCALL_DEFINE5(prctl, int, option, unsigned long, arg2, unsigned long, arg3,
+                       error = get_dumpable(me->mm);
+                       break;
+               case PR_SET_DUMPABLE:
+-                      if (arg2 < 0 || arg2 > 1) {
++                      if (arg2 > 1) {
+                               error = -EINVAL;
+                               break;
+                       }
+diff --git a/kernel/sysctl.c b/kernel/sysctl.c
+index b8bd058..ab6a76be 100644
+--- a/kernel/sysctl.c
++++ b/kernel/sysctl.c
+@@ -63,6 +63,13 @@
+ static int deprecated_sysctl_warning(struct __sysctl_args *args);
+ #if defined(CONFIG_SYSCTL)
++#include <linux/grsecurity.h>
++#include <linux/grinternal.h>
++
++extern __u32 gr_handle_sysctl(const ctl_table *table, const int op);
++extern int gr_handle_sysctl_mod(const char *dirname, const char *name,
++                              const int op);
++extern int gr_handle_chroot_sysctl(const int op);
+ /* External variables not in a header file. */
+ extern int C_A_D;
+@@ -168,6 +175,7 @@ static int proc_do_cad_pid(struct ctl_table *table, int write,
+ static int proc_taint(struct ctl_table *table, int write,
+                              void __user *buffer, size_t *lenp, loff_t *ppos);
+ #endif
++extern ctl_table grsecurity_table[];
+ static struct ctl_table root_table[];
+ static struct ctl_table_root sysctl_table_root;
+@@ -200,6 +208,21 @@ extern struct ctl_table epoll_table[];
+ int sysctl_legacy_va_layout;
+ #endif
++#ifdef CONFIG_PAX_SOFTMODE
++static ctl_table pax_table[] = {
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "softmode",
++              .data           = &pax_softmode,
++              .maxlen         = sizeof(unsigned int),
++              .mode           = 0600,
++              .proc_handler   = &proc_dointvec,
++      },
++
++      { .ctl_name = 0 }
++};
++#endif
++
+ extern int prove_locking;
+ extern int lock_stat;
+@@ -251,6 +274,24 @@ static int max_wakeup_granularity_ns = NSEC_PER_SEC;      /* 1 second */
+ #endif
+ static struct ctl_table kern_table[] = {
++#if defined(CONFIG_GRKERNSEC_SYSCTL) || defined(CONFIG_GRKERNSEC_ROFS)
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "grsecurity",
++              .mode           = 0500,
++              .child          = grsecurity_table,
++      },
++#endif
++
++#ifdef CONFIG_PAX_SOFTMODE
++      {
++              .ctl_name       = CTL_UNNUMBERED,
++              .procname       = "pax",
++              .mode           = 0500,
++              .child          = pax_table,
++      },
++#endif
++
+       {
+               .ctl_name       = CTL_UNNUMBERED,
+               .procname       = "sched_child_runs_first",
+@@ -567,8 +608,8 @@ static struct ctl_table kern_table[] = {
+               .data           = &modprobe_path,
+               .maxlen         = KMOD_PATH_LEN,
+               .mode           = 0644,
+-              .proc_handler   = &proc_dostring,
+-              .strategy       = &sysctl_string,
++              .proc_handler   = &proc_dostring_modpriv,
++              .strategy       = &sysctl_string_modpriv,
+       },
+       {
+               .ctl_name       = CTL_UNNUMBERED,
+@@ -1247,6 +1288,13 @@ static struct ctl_table vm_table[] = {
+               .mode           = 0644,
+               .proc_handler   = &proc_dointvec
+       },
++      {
++              .procname       = "heap_stack_gap",
++              .data           = &sysctl_heap_stack_gap,
++              .maxlen         = sizeof(sysctl_heap_stack_gap),
++              .mode           = 0644,
++              .proc_handler   = proc_doulongvec_minmax,
++      },
+ #else
+       {
+               .ctl_name       = CTL_UNNUMBERED,
+@@ -1803,6 +1851,8 @@ static int do_sysctl_strategy(struct ctl_table_root *root,
+       return 0;
+ }
++static int sysctl_perm_nochk(struct ctl_table_root *root, struct ctl_table *table, int op);
++
+ static int parse_table(int __user *name, int nlen,
+                      void __user *oldval, size_t __user *oldlenp,
+                      void __user *newval, size_t newlen,
+@@ -1821,7 +1871,7 @@ repeat:
+               if (n == table->ctl_name) {
+                       int error;
+                       if (table->child) {
+-                              if (sysctl_perm(root, table, MAY_EXEC))
++                              if (sysctl_perm_nochk(root, table, MAY_EXEC))
+                                       return -EPERM;
+                               name++;
+                               nlen--;
+@@ -1906,6 +1956,33 @@ int sysctl_perm(struct ctl_table_root *root, struct ctl_table *table, int op)
+       int error;
+       int mode;
++      if (table->parent != NULL && table->parent->procname != NULL &&
++         table->procname != NULL &&
++          gr_handle_sysctl_mod(table->parent->procname, table->procname, op))
++              return -EACCES;
++      if (gr_handle_chroot_sysctl(op))
++              return -EACCES;
++      error = gr_handle_sysctl(table, op);
++      if (error)
++              return error;
++
++      error = security_sysctl(table, op & (MAY_READ | MAY_WRITE | MAY_EXEC));
++      if (error)
++              return error;
++
++      if (root->permissions)
++              mode = root->permissions(root, current->nsproxy, table);
++      else
++              mode = table->mode;
++
++      return test_perm(mode, op);
++}
++
++int sysctl_perm_nochk(struct ctl_table_root *root, struct ctl_table *table, int op)
++{
++      int error;
++      int mode;
++
+       error = security_sysctl(table, op & (MAY_READ | MAY_WRITE | MAY_EXEC));
+       if (error)
+               return error;
+@@ -2335,6 +2412,16 @@ int proc_dostring(struct ctl_table *table, int write,
+                              buffer, lenp, ppos);
+ }
++int proc_dostring_modpriv(struct ctl_table *table, int write,
++                void __user *buffer, size_t *lenp, loff_t *ppos)
++{
++      if (write && !capable(CAP_SYS_MODULE))
++              return -EPERM;
++
++      return _proc_do_string(table->data, table->maxlen, write,
++                             buffer, lenp, ppos);
++}
++
+ static int do_proc_dointvec_conv(int *negp, unsigned long *lvalp,
+                                int *valp,
+@@ -2609,7 +2696,7 @@ static int __do_proc_doulongvec_minmax(void *data, struct ctl_table *table, int
+       vleft = table->maxlen / sizeof(unsigned long);
+       left = *lenp;
+       
+-      for (; left && vleft--; i++, min++, max++, first=0) {
++      for (; left && vleft--; i++, first=0) {
+               if (write) {
+                       while (left) {
+                               char c;
+@@ -2910,6 +2997,12 @@ int proc_dostring(struct ctl_table *table, int write,
+       return -ENOSYS;
+ }
++int proc_dostring_modpriv(struct ctl_table *table, int write,
++                void __user *buffer, size_t *lenp, loff_t *ppos)
++{
++      return -ENOSYS;
++}
++
+ int proc_dointvec(struct ctl_table *table, int write,
+                 void __user *buffer, size_t *lenp, loff_t *ppos)
+ {
+@@ -3038,6 +3131,16 @@ int sysctl_string(struct ctl_table *table,
+       return 1;
+ }
++int sysctl_string_modpriv(struct ctl_table *table,
++                void __user *oldval, size_t __user *oldlenp,
++                void __user *newval, size_t newlen)
++{
++      if (newval && newlen && !capable(CAP_SYS_MODULE))
++              return -EPERM;
++
++      return sysctl_string(table, oldval, oldlenp, newval, newlen);
++}
++
+ /*
+  * This function makes sure that all of the integers in the vector
+  * are between the minimum and maximum values given in the arrays
+@@ -3182,6 +3285,13 @@ int sysctl_string(struct ctl_table *table,
+       return -ENOSYS;
+ }
++int sysctl_string_modpriv(struct ctl_table *table,
++                void __user *oldval, size_t __user *oldlenp,
++                void __user *newval, size_t newlen)
++{
++      return -ENOSYS;
++}
++
+ int sysctl_intvec(struct ctl_table *table,
+               void __user *oldval, size_t __user *oldlenp,
+               void __user *newval, size_t newlen)
+@@ -3246,6 +3356,7 @@ EXPORT_SYMBOL(proc_dointvec_minmax);
+ EXPORT_SYMBOL(proc_dointvec_userhz_jiffies);
+ EXPORT_SYMBOL(proc_dointvec_ms_jiffies);
+ EXPORT_SYMBOL(proc_dostring);
++EXPORT_SYMBOL(proc_dostring_modpriv);
+ EXPORT_SYMBOL(proc_doulongvec_minmax);
+ EXPORT_SYMBOL(proc_doulongvec_ms_jiffies_minmax);
+ EXPORT_SYMBOL(register_sysctl_table);
+@@ -3254,5 +3365,6 @@ EXPORT_SYMBOL(sysctl_intvec);
+ EXPORT_SYMBOL(sysctl_jiffies);
+ EXPORT_SYMBOL(sysctl_ms_jiffies);
+ EXPORT_SYMBOL(sysctl_string);
++EXPORT_SYMBOL(sysctl_string_modpriv);
+ EXPORT_SYMBOL(sysctl_data);
+ EXPORT_SYMBOL(unregister_sysctl_table);
+diff --git a/kernel/sysctl_check.c b/kernel/sysctl_check.c
+index 469193c..ea3ecb2 100644
+--- a/kernel/sysctl_check.c
++++ b/kernel/sysctl_check.c
+@@ -1489,10 +1489,12 @@ int sysctl_check_table(struct nsproxy *namespaces, struct ctl_table *table)
+               } else {
+                       if ((table->strategy == sysctl_data) ||
+                           (table->strategy == sysctl_string) ||
++                          (table->strategy == sysctl_string_modpriv) ||
+                           (table->strategy == sysctl_intvec) ||
+                           (table->strategy == sysctl_jiffies) ||
+                           (table->strategy == sysctl_ms_jiffies) ||
+                           (table->proc_handler == proc_dostring) ||
++                          (table->proc_handler == proc_dostring_modpriv) ||
+                           (table->proc_handler == proc_dointvec) ||
+                           (table->proc_handler == proc_dointvec_minmax) ||
+                           (table->proc_handler == proc_dointvec_jiffies) ||
+diff --git a/kernel/taskstats.c b/kernel/taskstats.c
+index a4ef542..798bcd7 100644
+--- a/kernel/taskstats.c
++++ b/kernel/taskstats.c
+@@ -26,9 +26,12 @@
+ #include <linux/cgroup.h>
+ #include <linux/fs.h>
+ #include <linux/file.h>
++#include <linux/grsecurity.h>
+ #include <net/genetlink.h>
+ #include <asm/atomic.h>
++extern int gr_is_taskstats_denied(int pid);
++
+ /*
+  * Maximum length of a cpumask that can be specified in
+  * the TASKSTATS_CMD_ATTR_REGISTER/DEREGISTER_CPUMASK attribute
+@@ -442,6 +445,9 @@ static int taskstats_user_cmd(struct sk_buff *skb, struct genl_info *info)
+       size_t size;
+       cpumask_var_t mask;
++      if (gr_is_taskstats_denied(current->pid))
++              return -EACCES;
++
+       if (!alloc_cpumask_var(&mask, GFP_KERNEL))
+               return -ENOMEM;
+diff --git a/kernel/time.c b/kernel/time.c
+index 33df60e..ca768bd 100644
+--- a/kernel/time.c
++++ b/kernel/time.c
+@@ -165,6 +165,11 @@ int do_sys_settimeofday(struct timespec *tv, struct timezone *tz)
+               return error;
+       if (tz) {
++              /* we log in do_settimeofday called below, so don't log twice
++              */
++              if (!tv)
++                      gr_log_timechange();
++
+               /* SMP safe, global irq locking makes it work. */
+               sys_tz = *tz;
+               update_vsyscall_tz();
+@@ -240,7 +245,7 @@ EXPORT_SYMBOL(current_fs_time);
+  * Avoid unnecessary multiplications/divisions in the
+  * two most common HZ cases:
+  */
+-unsigned int inline jiffies_to_msecs(const unsigned long j)
++inline unsigned int jiffies_to_msecs(const unsigned long j)
+ {
+ #if HZ <= MSEC_PER_SEC && !(MSEC_PER_SEC % HZ)
+       return (MSEC_PER_SEC / HZ) * j;
+@@ -256,7 +261,7 @@ unsigned int inline jiffies_to_msecs(const unsigned long j)
+ }
+ EXPORT_SYMBOL(jiffies_to_msecs);
+-unsigned int inline jiffies_to_usecs(const unsigned long j)
++inline unsigned int jiffies_to_usecs(const unsigned long j)
+ {
+ #if HZ <= USEC_PER_SEC && !(USEC_PER_SEC % HZ)
+       return (USEC_PER_SEC / HZ) * j;
+diff --git a/kernel/time/tick-broadcast.c b/kernel/time/tick-broadcast.c
+index 57b953f..06f149f 100644
+--- a/kernel/time/tick-broadcast.c
++++ b/kernel/time/tick-broadcast.c
+@@ -116,7 +116,7 @@ int tick_device_uses_broadcast(struct clock_event_device *dev, int cpu)
+                * then clear the broadcast bit.
+                */
+               if (!(dev->features & CLOCK_EVT_FEAT_C3STOP)) {
+-                      int cpu = smp_processor_id();
++                      cpu = smp_processor_id();
+                       cpumask_clear_cpu(cpu, tick_get_broadcast_mask());
+                       tick_broadcast_clear_oneshot(cpu);
+diff --git a/kernel/time/timekeeping.c b/kernel/time/timekeeping.c
+index 4a71cff..ffb5548 100644
+--- a/kernel/time/timekeeping.c
++++ b/kernel/time/timekeeping.c
+@@ -14,6 +14,7 @@
+ #include <linux/init.h>
+ #include <linux/mm.h>
+ #include <linux/sched.h>
++#include <linux/grsecurity.h>
+ #include <linux/sysdev.h>
+ #include <linux/clocksource.h>
+ #include <linux/jiffies.h>
+@@ -180,7 +181,7 @@ void update_xtime_cache(u64 nsec)
+        */
+       struct timespec ts = xtime;
+       timespec_add_ns(&ts, nsec);
+-      ACCESS_ONCE(xtime_cache) = ts;
++      ACCESS_ONCE_RW(xtime_cache) = ts;
+ }
+ /* must hold xtime_lock */
+@@ -337,6 +338,8 @@ int do_settimeofday(struct timespec *tv)
+       if ((unsigned long)tv->tv_nsec >= NSEC_PER_SEC)
+               return -EINVAL;
++      gr_log_timechange();
++
+       write_seqlock_irqsave(&xtime_lock, flags);
+       timekeeping_forward_now();
+diff --git a/kernel/time/timer_list.c b/kernel/time/timer_list.c
+index 54c0dda..e9095d9 100644
+--- a/kernel/time/timer_list.c
++++ b/kernel/time/timer_list.c
+@@ -38,12 +38,16 @@ DECLARE_PER_CPU(struct hrtimer_cpu_base, hrtimer_bases);
+ static void print_name_offset(struct seq_file *m, void *sym)
+ {
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      SEQ_printf(m, "<%p>", NULL);
++#else
+       char symname[KSYM_NAME_LEN];
+       if (lookup_symbol_name((unsigned long)sym, symname) < 0)
+               SEQ_printf(m, "<%p>", sym);
+       else
+               SEQ_printf(m, "%s", symname);
++#endif
+ }
+ static void
+@@ -112,7 +116,11 @@ next_one:
+ static void
+ print_base(struct seq_file *m, struct hrtimer_clock_base *base, u64 now)
+ {
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      SEQ_printf(m, "  .base:       %p\n", NULL);
++#else
+       SEQ_printf(m, "  .base:       %p\n", base);
++#endif
+       SEQ_printf(m, "  .index:      %d\n",
+                       base->index);
+       SEQ_printf(m, "  .resolution: %Lu nsecs\n",
+@@ -289,7 +297,11 @@ static int __init init_timer_list_procfs(void)
+ {
+       struct proc_dir_entry *pe;
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++      pe = proc_create("timer_list", 0400, NULL, &timer_list_fops);
++#else
+       pe = proc_create("timer_list", 0444, NULL, &timer_list_fops);
++#endif
+       if (!pe)
+               return -ENOMEM;
+       return 0;
+diff --git a/kernel/time/timer_stats.c b/kernel/time/timer_stats.c
+index ee5681f..634089b 100644
+--- a/kernel/time/timer_stats.c
++++ b/kernel/time/timer_stats.c
+@@ -116,7 +116,7 @@ static ktime_t time_start, time_stop;
+ static unsigned long nr_entries;
+ static struct entry entries[MAX_ENTRIES];
+-static atomic_t overflow_count;
++static atomic_unchecked_t overflow_count;
+ /*
+  * The entries are in a hash-table, for fast lookup:
+@@ -140,7 +140,7 @@ static void reset_entries(void)
+       nr_entries = 0;
+       memset(entries, 0, sizeof(entries));
+       memset(tstat_hash_table, 0, sizeof(tstat_hash_table));
+-      atomic_set(&overflow_count, 0);
++      atomic_set_unchecked(&overflow_count, 0);
+ }
+ static struct entry *alloc_entry(void)
+@@ -261,7 +261,7 @@ void timer_stats_update_stats(void *timer, pid_t pid, void *startf,
+       if (likely(entry))
+               entry->count++;
+       else
+-              atomic_inc(&overflow_count);
++              atomic_inc_unchecked(&overflow_count);
+  out_unlock:
+       spin_unlock_irqrestore(lock, flags);
+@@ -269,12 +269,16 @@ void timer_stats_update_stats(void *timer, pid_t pid, void *startf,
+ static void print_name_offset(struct seq_file *m, unsigned long addr)
+ {
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      seq_printf(m, "<%p>", NULL);
++#else
+       char symname[KSYM_NAME_LEN];
+       if (lookup_symbol_name(addr, symname) < 0)
+               seq_printf(m, "<%p>", (void *)addr);
+       else
+               seq_printf(m, "%s", symname);
++#endif
+ }
+ static int tstats_show(struct seq_file *m, void *v)
+@@ -300,9 +304,9 @@ static int tstats_show(struct seq_file *m, void *v)
+       seq_puts(m, "Timer Stats Version: v0.2\n");
+       seq_printf(m, "Sample period: %ld.%03ld s\n", period.tv_sec, ms);
+-      if (atomic_read(&overflow_count))
++      if (atomic_read_unchecked(&overflow_count))
+               seq_printf(m, "Overflow: %d entries\n",
+-                      atomic_read(&overflow_count));
++                      atomic_read_unchecked(&overflow_count));
+       for (i = 0; i < nr_entries; i++) {
+               entry = entries + i;
+@@ -415,7 +419,11 @@ static int __init init_tstats_procfs(void)
+ {
+       struct proc_dir_entry *pe;
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++      pe = proc_create("timer_stats", 0600, NULL, &tstats_fops);
++#else
+       pe = proc_create("timer_stats", 0644, NULL, &tstats_fops);
++#endif
+       if (!pe)
+               return -ENOMEM;
+       return 0;
+diff --git a/kernel/timer.c b/kernel/timer.c
+index cb3c1f1..8bf5526 100644
+--- a/kernel/timer.c
++++ b/kernel/timer.c
+@@ -1213,7 +1213,7 @@ void update_process_times(int user_tick)
+ /*
+  * This function runs timers and the timer-tq in bottom half context.
+  */
+-static void run_timer_softirq(struct softirq_action *h)
++static void run_timer_softirq(void)
+ {
+       struct tvec_base *base = __get_cpu_var(tvec_bases);
+diff --git a/kernel/trace/blktrace.c b/kernel/trace/blktrace.c
+index d9d6206..f19467e 100644
+--- a/kernel/trace/blktrace.c
++++ b/kernel/trace/blktrace.c
+@@ -313,7 +313,7 @@ static ssize_t blk_dropped_read(struct file *filp, char __user *buffer,
+       struct blk_trace *bt = filp->private_data;
+       char buf[16];
+-      snprintf(buf, sizeof(buf), "%u\n", atomic_read(&bt->dropped));
++      snprintf(buf, sizeof(buf), "%u\n", atomic_read_unchecked(&bt->dropped));
+       return simple_read_from_buffer(buffer, count, ppos, buf, strlen(buf));
+ }
+@@ -376,7 +376,7 @@ static int blk_subbuf_start_callback(struct rchan_buf *buf, void *subbuf,
+               return 1;
+       bt = buf->chan->private_data;
+-      atomic_inc(&bt->dropped);
++      atomic_inc_unchecked(&bt->dropped);
+       return 0;
+ }
+@@ -477,7 +477,7 @@ int do_blk_trace_setup(struct request_queue *q, char *name, dev_t dev,
+       bt->dir = dir;
+       bt->dev = dev;
+-      atomic_set(&bt->dropped, 0);
++      atomic_set_unchecked(&bt->dropped, 0);
+       ret = -EIO;
+       bt->dropped_file = debugfs_create_file("dropped", 0444, dir, bt,
+diff --git a/kernel/trace/ftrace.c b/kernel/trace/ftrace.c
+index 4872937..c794d40 100644
+--- a/kernel/trace/ftrace.c
++++ b/kernel/trace/ftrace.c
+@@ -1100,13 +1100,18 @@ ftrace_code_disable(struct module *mod, struct dyn_ftrace *rec)
+       ip = rec->ip;
++      ret = ftrace_arch_code_modify_prepare();
++      FTRACE_WARN_ON(ret);
++      if (ret)
++              return 0;
++
+       ret = ftrace_make_nop(mod, rec, MCOUNT_ADDR);
++      FTRACE_WARN_ON(ftrace_arch_code_modify_post_process());
+       if (ret) {
+               ftrace_bug(ret, ip);
+               rec->flags |= FTRACE_FL_FAILED;
+-              return 0;
+       }
+-      return 1;
++      return ret ? 0 : 1;
+ }
+ /*
+diff --git a/kernel/trace/ring_buffer.c b/kernel/trace/ring_buffer.c
+index e749a05..19c6e94 100644
+--- a/kernel/trace/ring_buffer.c
++++ b/kernel/trace/ring_buffer.c
+@@ -606,7 +606,7 @@ static struct list_head *rb_list_head(struct list_head *list)
+  * the reader page). But if the next page is a header page,
+  * its flags will be non zero.
+  */
+-static int inline
++static inline int
+ rb_is_head_page(struct ring_buffer_per_cpu *cpu_buffer,
+               struct buffer_page *page, struct list_head *list)
+ {
+diff --git a/kernel/trace/trace.c b/kernel/trace/trace.c
+index a2a2d1f..7f32b09 100644
+--- a/kernel/trace/trace.c
++++ b/kernel/trace/trace.c
+@@ -3193,6 +3193,8 @@ static ssize_t tracing_splice_read_pipe(struct file *filp,
+       size_t rem;
+       unsigned int i;
++      pax_track_stack();
++
+       /* copy the tracer to avoid using a global lock all around */
+       mutex_lock(&trace_types_lock);
+       if (unlikely(old_tracer != current_trace && current_trace)) {
+@@ -3659,6 +3661,8 @@ tracing_buffers_splice_read(struct file *file, loff_t *ppos,
+       int entries, size, i;
+       size_t ret;
++      pax_track_stack();
++
+       if (*ppos & (PAGE_SIZE - 1)) {
+               WARN_ONCE(1, "Ftrace: previous read must page-align\n");
+               return -EINVAL;
+@@ -3816,10 +3820,9 @@ static const struct file_operations tracing_dyn_info_fops = {
+ };
+ #endif
+-static struct dentry *d_tracer;
+-
+ struct dentry *tracing_init_dentry(void)
+ {
++      static struct dentry *d_tracer;
+       static int once;
+       if (d_tracer)
+@@ -3839,10 +3842,9 @@ struct dentry *tracing_init_dentry(void)
+       return d_tracer;
+ }
+-static struct dentry *d_percpu;
+-
+ struct dentry *tracing_dentry_percpu(void)
+ {
++      static struct dentry *d_percpu;
+       static int once;
+       struct dentry *d_tracer;
+diff --git a/kernel/trace/trace_events.c b/kernel/trace/trace_events.c
+index d128f65..f37b4af 100644
+--- a/kernel/trace/trace_events.c
++++ b/kernel/trace/trace_events.c
+@@ -951,13 +951,10 @@ static LIST_HEAD(ftrace_module_file_list);
+  * Modules must own their file_operations to keep up with
+  * reference counting.
+  */
++
+ struct ftrace_module_file_ops {
+       struct list_head                list;
+       struct module                   *mod;
+-      struct file_operations          id;
+-      struct file_operations          enable;
+-      struct file_operations          format;
+-      struct file_operations          filter;
+ };
+ static void remove_subsystem_dir(const char *name)
+@@ -1004,17 +1001,12 @@ trace_create_file_ops(struct module *mod)
+       file_ops->mod = mod;
+-      file_ops->id = ftrace_event_id_fops;
+-      file_ops->id.owner = mod;
+-
+-      file_ops->enable = ftrace_enable_fops;
+-      file_ops->enable.owner = mod;
+-
+-      file_ops->filter = ftrace_event_filter_fops;
+-      file_ops->filter.owner = mod;
+-
+-      file_ops->format = ftrace_event_format_fops;
+-      file_ops->format.owner = mod;
++      pax_open_kernel();
++      *(void **)&mod->trace_id.owner = mod;
++      *(void **)&mod->trace_enable.owner = mod;
++      *(void **)&mod->trace_filter.owner = mod;
++      *(void **)&mod->trace_format.owner = mod;
++      pax_close_kernel();
+       list_add(&file_ops->list, &ftrace_module_file_list);
+@@ -1063,8 +1055,8 @@ static void trace_module_add_events(struct module *mod)
+               call->mod = mod;
+               list_add(&call->list, &ftrace_events);
+               event_create_dir(call, d_events,
+-                               &file_ops->id, &file_ops->enable,
+-                               &file_ops->filter, &file_ops->format);
++                               &mod->trace_id, &mod->trace_enable,
++                               &mod->trace_filter, &mod->trace_format);
+       }
+ }
+diff --git a/kernel/trace/trace_mmiotrace.c b/kernel/trace/trace_mmiotrace.c
+index 0acd834..b800b56 100644
+--- a/kernel/trace/trace_mmiotrace.c
++++ b/kernel/trace/trace_mmiotrace.c
+@@ -23,7 +23,7 @@ struct header_iter {
+ static struct trace_array *mmio_trace_array;
+ static bool overrun_detected;
+ static unsigned long prev_overruns;
+-static atomic_t dropped_count;
++static atomic_unchecked_t dropped_count;
+ static void mmio_reset_data(struct trace_array *tr)
+ {
+@@ -126,7 +126,7 @@ static void mmio_close(struct trace_iterator *iter)
+ static unsigned long count_overruns(struct trace_iterator *iter)
+ {
+-      unsigned long cnt = atomic_xchg(&dropped_count, 0);
++      unsigned long cnt = atomic_xchg_unchecked(&dropped_count, 0);
+       unsigned long over = ring_buffer_overruns(iter->tr->buffer);
+       if (over > prev_overruns)
+@@ -316,7 +316,7 @@ static void __trace_mmiotrace_rw(struct trace_array *tr,
+       event = trace_buffer_lock_reserve(buffer, TRACE_MMIO_RW,
+                                         sizeof(*entry), 0, pc);
+       if (!event) {
+-              atomic_inc(&dropped_count);
++              atomic_inc_unchecked(&dropped_count);
+               return;
+       }
+       entry   = ring_buffer_event_data(event);
+@@ -346,7 +346,7 @@ static void __trace_mmiotrace_map(struct trace_array *tr,
+       event = trace_buffer_lock_reserve(buffer, TRACE_MMIO_MAP,
+                                         sizeof(*entry), 0, pc);
+       if (!event) {
+-              atomic_inc(&dropped_count);
++              atomic_inc_unchecked(&dropped_count);
+               return;
+       }
+       entry   = ring_buffer_event_data(event);
+diff --git a/kernel/trace/trace_output.c b/kernel/trace/trace_output.c
+index b6c12c6..41fdc53 100644
+--- a/kernel/trace/trace_output.c
++++ b/kernel/trace/trace_output.c
+@@ -237,7 +237,7 @@ int trace_seq_path(struct trace_seq *s, struct path *path)
+               return 0;
+       p = d_path(path, s->buffer + s->len, PAGE_SIZE - s->len);
+       if (!IS_ERR(p)) {
+-              p = mangle_path(s->buffer + s->len, p, "\n");
++              p = mangle_path(s->buffer + s->len, p, "\n\\");
+               if (p) {
+                       s->len = p - s->buffer;
+                       return 1;
+diff --git a/kernel/trace/trace_stack.c b/kernel/trace/trace_stack.c
+index 8504ac7..ecf0adb 100644
+--- a/kernel/trace/trace_stack.c
++++ b/kernel/trace/trace_stack.c
+@@ -50,7 +50,7 @@ static inline void check_stack(void)
+               return;
+       /* we do not handle interrupt stacks yet */
+-      if (!object_is_on_stack(&this_size))
++      if (!object_starts_on_stack(&this_size))
+               return;
+       local_irq_save(flags);
+diff --git a/kernel/trace/trace_workqueue.c b/kernel/trace/trace_workqueue.c
+index 40cafb0..d5ead43 100644
+--- a/kernel/trace/trace_workqueue.c
++++ b/kernel/trace/trace_workqueue.c
+@@ -21,7 +21,7 @@ struct cpu_workqueue_stats {
+       int                         cpu;
+       pid_t                       pid;
+ /* Can be inserted from interrupt or user context, need to be atomic */
+-      atomic_t                    inserted;
++      atomic_unchecked_t          inserted;
+ /*
+  *  Don't need to be atomic, works are serialized in a single workqueue thread
+  *  on a single CPU.
+@@ -58,7 +58,7 @@ probe_workqueue_insertion(struct task_struct *wq_thread,
+       spin_lock_irqsave(&workqueue_cpu_stat(cpu)->lock, flags);
+       list_for_each_entry(node, &workqueue_cpu_stat(cpu)->list, list) {
+               if (node->pid == wq_thread->pid) {
+-                      atomic_inc(&node->inserted);
++                      atomic_inc_unchecked(&node->inserted);
+                       goto found;
+               }
+       }
+@@ -205,7 +205,7 @@ static int workqueue_stat_show(struct seq_file *s, void *p)
+               tsk = get_pid_task(pid, PIDTYPE_PID);
+               if (tsk) {
+                       seq_printf(s, "%3d %6d     %6u       %s\n", cws->cpu,
+-                                 atomic_read(&cws->inserted), cws->executed,
++                                 atomic_read_unchecked(&cws->inserted), cws->executed,
+                                  tsk->comm);
+                       put_task_struct(tsk);
+               }
+diff --git a/kernel/user.c b/kernel/user.c
+index 1b91701..8795237 100644
+--- a/kernel/user.c
++++ b/kernel/user.c
+@@ -159,6 +159,7 @@ struct user_struct *alloc_uid(struct user_namespace *ns, uid_t uid)
+               spin_lock_irq(&uidhash_lock);
+               up = uid_hash_find(uid, hashent);
+               if (up) {
++                      put_user_ns(ns);
+                       key_put(new->uid_keyring);
+                       key_put(new->session_keyring);
+                       kmem_cache_free(uid_cachep, new);
+diff --git a/lib/Kconfig.debug b/lib/Kconfig.debug
+index 234ceb1..ad74049 100644
+--- a/lib/Kconfig.debug
++++ b/lib/Kconfig.debug
+@@ -905,7 +905,7 @@ config LATENCYTOP
+       select STACKTRACE
+       select SCHEDSTATS
+       select SCHED_DEBUG
+-      depends on HAVE_LATENCYTOP_SUPPORT
++      depends on HAVE_LATENCYTOP_SUPPORT && !GRKERNSEC_HIDESYM
+       help
+         Enable this option if you want to use the LatencyTOP tool
+         to find out which userspace is blocking on what kernel operations.
+diff --git a/lib/bitmap.c b/lib/bitmap.c
+index 7025658..8d14cab 100644
+--- a/lib/bitmap.c
++++ b/lib/bitmap.c
+@@ -341,7 +341,7 @@ int __bitmap_parse(const char *buf, unsigned int buflen,
+ {
+       int c, old_c, totaldigits, ndigits, nchunks, nbits;
+       u32 chunk;
+-      const char __user *ubuf = buf;
++      const char __user *ubuf = (const char __force_user *)buf;
+       bitmap_zero(maskp, nmaskbits);
+@@ -426,7 +426,7 @@ int bitmap_parse_user(const char __user *ubuf,
+ {
+       if (!access_ok(VERIFY_READ, ubuf, ulen))
+               return -EFAULT;
+-      return __bitmap_parse((const char *)ubuf, ulen, 1, maskp, nmaskbits);
++      return __bitmap_parse((const char __force_kernel *)ubuf, ulen, 1, maskp, nmaskbits);
+ }
+ EXPORT_SYMBOL(bitmap_parse_user);
+diff --git a/lib/bug.c b/lib/bug.c
+index 300e41a..2779eb0 100644
+--- a/lib/bug.c
++++ b/lib/bug.c
+@@ -135,6 +135,8 @@ enum bug_trap_type report_bug(unsigned long bugaddr, struct pt_regs *regs)
+               return BUG_TRAP_TYPE_NONE;
+       bug = find_bug(bugaddr);
++      if (!bug)
++              return BUG_TRAP_TYPE_NONE;
+       printk(KERN_EMERG "------------[ cut here ]------------\n");
+diff --git a/lib/debugobjects.c b/lib/debugobjects.c
+index 2b413db..e21d207 100644
+--- a/lib/debugobjects.c
++++ b/lib/debugobjects.c
+@@ -277,7 +277,7 @@ static void debug_object_is_on_stack(void *addr, int onstack)
+       if (limit > 4)
+               return;
+-      is_on_stack = object_is_on_stack(addr);
++      is_on_stack = object_starts_on_stack(addr);
+       if (is_on_stack == onstack)
+               return;
+diff --git a/lib/devres.c b/lib/devres.c
+index 72c8909..7543868 100644
+--- a/lib/devres.c
++++ b/lib/devres.c
+@@ -80,7 +80,7 @@ void devm_iounmap(struct device *dev, void __iomem *addr)
+ {
+       iounmap(addr);
+       WARN_ON(devres_destroy(dev, devm_ioremap_release, devm_ioremap_match,
+-                             (void *)addr));
++                             (void __force *)addr));
+ }
+ EXPORT_SYMBOL(devm_iounmap);
+@@ -140,7 +140,7 @@ void devm_ioport_unmap(struct device *dev, void __iomem *addr)
+ {
+       ioport_unmap(addr);
+       WARN_ON(devres_destroy(dev, devm_ioport_map_release,
+-                             devm_ioport_map_match, (void *)addr));
++                             devm_ioport_map_match, (void __force *)addr));
+ }
+ EXPORT_SYMBOL(devm_ioport_unmap);
+diff --git a/lib/dma-debug.c b/lib/dma-debug.c
+index 084e879..0674448 100644
+--- a/lib/dma-debug.c
++++ b/lib/dma-debug.c
+@@ -861,7 +861,7 @@ out:
+ static void check_for_stack(struct device *dev, void *addr)
+ {
+-      if (object_is_on_stack(addr))
++      if (object_starts_on_stack(addr))
+               err_printk(dev, NULL, "DMA-API: device driver maps memory from"
+                               "stack [addr=%p]\n", addr);
+ }
+diff --git a/lib/idr.c b/lib/idr.c
+index eda7ba3..915dfae 100644
+--- a/lib/idr.c
++++ b/lib/idr.c
+@@ -156,7 +156,7 @@ static int sub_alloc(struct idr *idp, int *starting_id, struct idr_layer **pa)
+                       id = (id | ((1 << (IDR_BITS * l)) - 1)) + 1;
+                       /* if already at the top layer, we need to grow */
+-                      if (id >= 1 << (idp->layers * IDR_BITS)) {
++                      if (id >= (1 << (idp->layers * IDR_BITS))) {
+                               *starting_id = id;
+                               return IDR_NEED_TO_GROW;
+                       }
+diff --git a/lib/inflate.c b/lib/inflate.c
+index d102559..4215f31 100644
+--- a/lib/inflate.c
++++ b/lib/inflate.c
+@@ -266,7 +266,7 @@ static void free(void *where)
+               malloc_ptr = free_mem_ptr;
+ }
+ #else
+-#define malloc(a) kmalloc(a, GFP_KERNEL)
++#define malloc(a) kmalloc((a), GFP_KERNEL)
+ #define free(a) kfree(a)
+ #endif
+diff --git a/lib/is_single_threaded.c b/lib/is_single_threaded.c
+index bd2bea9..6b3c95e 100644
+--- a/lib/is_single_threaded.c
++++ b/lib/is_single_threaded.c
+@@ -22,6 +22,9 @@ bool current_is_single_threaded(void)
+       struct task_struct *p, *t;
+       bool ret;
++      if (!mm)
++              return true;
++
+       if (atomic_read(&task->signal->live) != 1)
+               return false;
+diff --git a/lib/kobject.c b/lib/kobject.c
+index b512b74..8115eb1 100644
+--- a/lib/kobject.c
++++ b/lib/kobject.c
+@@ -700,7 +700,7 @@ static ssize_t kobj_attr_store(struct kobject *kobj, struct attribute *attr,
+       return ret;
+ }
+-struct sysfs_ops kobj_sysfs_ops = {
++const struct sysfs_ops kobj_sysfs_ops = {
+       .show   = kobj_attr_show,
+       .store  = kobj_attr_store,
+ };
+@@ -789,7 +789,7 @@ static struct kobj_type kset_ktype = {
+  * If the kset was not able to be created, NULL will be returned.
+  */
+ static struct kset *kset_create(const char *name,
+-                              struct kset_uevent_ops *uevent_ops,
++                              const struct kset_uevent_ops *uevent_ops,
+                               struct kobject *parent_kobj)
+ {
+       struct kset *kset;
+@@ -832,7 +832,7 @@ static struct kset *kset_create(const char *name,
+  * If the kset was not able to be created, NULL will be returned.
+  */
+ struct kset *kset_create_and_add(const char *name,
+-                               struct kset_uevent_ops *uevent_ops,
++                               const struct kset_uevent_ops *uevent_ops,
+                                struct kobject *parent_kobj)
+ {
+       struct kset *kset;
+diff --git a/lib/kobject_uevent.c b/lib/kobject_uevent.c
+index 507b821..0bf8ed0 100644
+--- a/lib/kobject_uevent.c
++++ b/lib/kobject_uevent.c
+@@ -95,7 +95,7 @@ int kobject_uevent_env(struct kobject *kobj, enum kobject_action action,
+       const char *subsystem;
+       struct kobject *top_kobj;
+       struct kset *kset;
+-      struct kset_uevent_ops *uevent_ops;
++      const struct kset_uevent_ops *uevent_ops;
+       u64 seq;
+       int i = 0;
+       int retval = 0;
+diff --git a/lib/kref.c b/lib/kref.c
+index 9ecd6e8..12c94c1 100644
+--- a/lib/kref.c
++++ b/lib/kref.c
+@@ -61,7 +61,7 @@ void kref_get(struct kref *kref)
+  */
+ int kref_put(struct kref *kref, void (*release)(struct kref *kref))
+ {
+-      WARN_ON(release == NULL);
++      BUG_ON(release == NULL);
+       WARN_ON(release == (void (*)(struct kref *))kfree);
+       if (atomic_dec_and_test(&kref->refcount)) {
+diff --git a/lib/parser.c b/lib/parser.c
+index b00d020..1b34325 100644
+--- a/lib/parser.c
++++ b/lib/parser.c
+@@ -126,7 +126,7 @@ static int match_number(substring_t *s, int *result, int base)
+       char *buf;
+       int ret;
+-      buf = kmalloc(s->to - s->from + 1, GFP_KERNEL);
++      buf = kmalloc((s->to - s->from) + 1, GFP_KERNEL);
+       if (!buf)
+               return -ENOMEM;
+       memcpy(buf, s->from, s->to - s->from);
+diff --git a/lib/radix-tree.c b/lib/radix-tree.c
+index 92cdd99..a8149d7 100644
+--- a/lib/radix-tree.c
++++ b/lib/radix-tree.c
+@@ -81,7 +81,7 @@ struct radix_tree_preload {
+       int nr;
+       struct radix_tree_node *nodes[RADIX_TREE_MAX_PATH];
+ };
+-static DEFINE_PER_CPU(struct radix_tree_preload, radix_tree_preloads) = { 0, };
++static DEFINE_PER_CPU(struct radix_tree_preload, radix_tree_preloads);
+ static inline gfp_t root_gfp_mask(struct radix_tree_root *root)
+ {
+diff --git a/lib/random32.c b/lib/random32.c
+index 217d5c4..45aba8a 100644
+--- a/lib/random32.c
++++ b/lib/random32.c
+@@ -61,7 +61,7 @@ static u32 __random32(struct rnd_state *state)
+  */
+ static inline u32 __seed(u32 x, u32 m)
+ {
+-      return (x < m) ? x + m : x;
++      return (x <= m) ? x + m + 1 : x;
+ }
+ /**
+diff --git a/lib/vsprintf.c b/lib/vsprintf.c
+index 33bed5e..1477e46 100644
+--- a/lib/vsprintf.c
++++ b/lib/vsprintf.c
+@@ -16,6 +16,9 @@
+  * - scnprintf and vscnprintf
+  */
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++#define __INCLUDED_BY_HIDESYM 1
++#endif
+ #include <stdarg.h>
+ #include <linux/module.h>
+ #include <linux/types.h>
+@@ -546,12 +549,12 @@ static char *number(char *buf, char *end, unsigned long long num,
+       return buf;
+ }
+-static char *string(char *buf, char *end, char *s, struct printf_spec spec)
++static char *string(char *buf, char *end, const char *s, struct printf_spec spec)
+ {
+       int len, i;
+       if ((unsigned long)s < PAGE_SIZE)
+-              s = "<NULL>";
++              s = "(null)";
+       len = strnlen(s, spec.precision);
+@@ -581,7 +584,7 @@ static char *symbol_string(char *buf, char *end, void *ptr,
+       unsigned long value = (unsigned long) ptr;
+ #ifdef CONFIG_KALLSYMS
+       char sym[KSYM_SYMBOL_LEN];
+-      if (ext != 'f' && ext != 's')
++      if (ext != 'f' && ext != 's' && ext != 'a')
+               sprint_symbol(sym, value);
+       else
+               kallsyms_lookup(value, NULL, NULL, NULL, sym);
+@@ -801,6 +804,8 @@ static char *ip4_addr_string(char *buf, char *end, const u8 *addr,
+  * - 'f' For simple symbolic function names without offset
+  * - 'S' For symbolic direct pointers with offset
+  * - 's' For symbolic direct pointers without offset
++ * - 'A' For symbolic direct pointers with offset approved for use with GRKERNSEC_HIDESYM
++ * - 'a' For symbolic direct pointers without offset approved for use with GRKERNSEC_HIDESYM
+  * - 'R' For a struct resource pointer, it prints the range of
+  *       addresses (not the name nor the flags)
+  * - 'M' For a 6-byte MAC address, it prints the address in the
+@@ -822,7 +827,7 @@ static char *pointer(const char *fmt, char *buf, char *end, void *ptr,
+                       struct printf_spec spec)
+ {
+       if (!ptr)
+-              return string(buf, end, "(null)", spec);
++              return string(buf, end, "(nil)", spec);
+       switch (*fmt) {
+       case 'F':
+@@ -831,6 +836,14 @@ static char *pointer(const char *fmt, char *buf, char *end, void *ptr,
+       case 's':
+               /* Fallthrough */
+       case 'S':
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++              break;
++#else
++              return symbol_string(buf, end, ptr, spec, *fmt);
++#endif
++      case 'a':
++              /* Fallthrough */
++      case 'A':
+               return symbol_string(buf, end, ptr, spec, *fmt);
+       case 'R':
+               return resource_string(buf, end, ptr, spec);
+@@ -1445,7 +1458,7 @@ do {                                                                     \
+                       size_t len;
+                       if ((unsigned long)save_str > (unsigned long)-PAGE_SIZE
+                                       || (unsigned long)save_str < PAGE_SIZE)
+-                              save_str = "<NULL>";
++                              save_str = "(null)";
+                       len = strlen(save_str);
+                       if (str + len + 1 < end)
+                               memcpy(str, save_str, len + 1);
+@@ -1555,11 +1568,11 @@ int bstr_printf(char *buf, size_t size, const char *fmt, const u32 *bin_buf)
+       typeof(type) value;                                             \
+       if (sizeof(type) == 8) {                                        \
+               args = PTR_ALIGN(args, sizeof(u32));                    \
+-              *(u32 *)&value = *(u32 *)args;                          \
+-              *((u32 *)&value + 1) = *(u32 *)(args + 4);              \
++              *(u32 *)&value = *(const u32 *)args;                    \
++              *((u32 *)&value + 1) = *(const u32 *)(args + 4);        \
+       } else {                                                        \
+               args = PTR_ALIGN(args, sizeof(type));                   \
+-              value = *(typeof(type) *)args;                          \
++              value = *(const typeof(type) *)args;                    \
+       }                                                               \
+       args += sizeof(type);                                           \
+       value;                                                          \
+@@ -1622,7 +1635,7 @@ int bstr_printf(char *buf, size_t size, const char *fmt, const u32 *bin_buf)
+                       const char *str_arg = args;
+                       size_t len = strlen(str_arg);
+                       args += len + 1;
+-                      str = string(str, end, (char *)str_arg, spec);
++                      str = string(str, end, str_arg, spec);
+                       break;
+               }
+diff --git a/localversion-grsec b/localversion-grsec
+new file mode 100644
+index 0000000..7cd6065
+--- /dev/null
++++ b/localversion-grsec
+@@ -0,0 +1 @@
++-grsec
+diff --git a/mm/Kconfig b/mm/Kconfig
+index 2c19c0b..f3c3f83 100644
+--- a/mm/Kconfig
++++ b/mm/Kconfig
+@@ -228,7 +228,7 @@ config KSM
+ config DEFAULT_MMAP_MIN_ADDR
+         int "Low address space to protect from user allocation"
+       depends on MMU
+-        default 4096
++        default 65536
+         help
+         This is the portion of low virtual memory which should be protected
+         from userspace allocation.  Keeping a user from writing to low pages
+diff --git a/mm/backing-dev.c b/mm/backing-dev.c
+index 67a33a5..094dcf1 100644
+--- a/mm/backing-dev.c
++++ b/mm/backing-dev.c
+@@ -272,7 +272,7 @@ static void bdi_task_init(struct backing_dev_info *bdi,
+       list_add_tail_rcu(&wb->list, &bdi->wb_list);
+       spin_unlock(&bdi->wb_lock);
+-      tsk->flags |= PF_FLUSHER | PF_SWAPWRITE;
++      tsk->flags |= PF_SWAPWRITE;
+       set_freezable();
+       /*
+@@ -484,7 +484,7 @@ static void bdi_add_to_pending(struct rcu_head *head)
+  * Add the default flusher task that gets created for any bdi
+  * that has dirty data pending writeout
+  */
+-void static bdi_add_default_flusher_task(struct backing_dev_info *bdi)
++static void bdi_add_default_flusher_task(struct backing_dev_info *bdi)
+ {
+       if (!bdi_cap_writeback_dirty(bdi))
+               return;
+diff --git a/mm/filemap.c b/mm/filemap.c
+index a1fe378..e26702f 100644
+--- a/mm/filemap.c
++++ b/mm/filemap.c
+@@ -1631,7 +1631,7 @@ int generic_file_mmap(struct file * file, struct vm_area_struct * vma)
+       struct address_space *mapping = file->f_mapping;
+       if (!mapping->a_ops->readpage)
+-              return -ENOEXEC;
++              return -ENODEV;
+       file_accessed(file);
+       vma->vm_ops = &generic_file_vm_ops;
+       vma->vm_flags |= VM_CAN_NONLINEAR;
+@@ -2024,6 +2024,7 @@ inline int generic_write_checks(struct file *file, loff_t *pos, size_t *count, i
+                         *pos = i_size_read(inode);
+               if (limit != RLIM_INFINITY) {
++                      gr_learn_resource(current, RLIMIT_FSIZE,*pos, 0);
+                       if (*pos >= limit) {
+                               send_sig(SIGXFSZ, current, 0);
+                               return -EFBIG;
+diff --git a/mm/fremap.c b/mm/fremap.c
+index b6ec85a..a24ac22 100644
+--- a/mm/fremap.c
++++ b/mm/fremap.c
+@@ -153,6 +153,11 @@ SYSCALL_DEFINE5(remap_file_pages, unsigned long, start, unsigned long, size,
+  retry:
+       vma = find_vma(mm, start);
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma && (mm->pax_flags & MF_PAX_SEGMEXEC) && (vma->vm_flags & VM_MAYEXEC))
++              goto out;
++#endif
++
+       /*
+        * Make sure the vma is shared, that it supports prefaulting,
+        * and that the remapped range is valid and fully within
+@@ -221,7 +226,7 @@ SYSCALL_DEFINE5(remap_file_pages, unsigned long, start, unsigned long, size,
+               /*
+                * drop PG_Mlocked flag for over-mapped range
+                */
+-              unsigned int saved_flags = vma->vm_flags;
++              unsigned long saved_flags = vma->vm_flags;
+               munlock_vma_pages_range(vma, start, start + size);
+               vma->vm_flags = saved_flags;
+       }
+diff --git a/mm/highmem.c b/mm/highmem.c
+index 9c1e627..5ca9447 100644
+--- a/mm/highmem.c
++++ b/mm/highmem.c
+@@ -116,9 +116,10 @@ static void flush_all_zero_pkmaps(void)
+                * So no dangers, even with speculative execution.
+                */
+               page = pte_page(pkmap_page_table[i]);
++              pax_open_kernel();
+               pte_clear(&init_mm, (unsigned long)page_address(page),
+                         &pkmap_page_table[i]);
+-
++              pax_close_kernel();
+               set_page_address(page, NULL);
+               need_flush = 1;
+       }
+@@ -177,9 +178,11 @@ start:
+               }
+       }
+       vaddr = PKMAP_ADDR(last_pkmap_nr);
++
++      pax_open_kernel();
+       set_pte_at(&init_mm, vaddr,
+                  &(pkmap_page_table[last_pkmap_nr]), mk_pte(page, kmap_prot));
+-
++      pax_close_kernel();
+       pkmap_count[last_pkmap_nr] = 1;
+       set_page_address(page, (void *)vaddr);
+diff --git a/mm/hugetlb.c b/mm/hugetlb.c
+index 5e1e508..ac70275 100644
+--- a/mm/hugetlb.c
++++ b/mm/hugetlb.c
+@@ -869,6 +869,7 @@ free:
+               list_del(&page->lru);
+               enqueue_huge_page(h, page);
+       }
++      spin_unlock(&hugetlb_lock);
+       /* Free unnecessary surplus pages to the buddy allocator */
+       if (!list_empty(&surplus_list)) {
+@@ -1933,6 +1934,26 @@ static int unmap_ref_private(struct mm_struct *mm, struct vm_area_struct *vma,
+       return 1;
+ }
++#ifdef CONFIG_PAX_SEGMEXEC
++static void pax_mirror_huge_pte(struct vm_area_struct *vma, unsigned long address, struct page *page_m)
++{
++      struct mm_struct *mm = vma->vm_mm;
++      struct vm_area_struct *vma_m;
++      unsigned long address_m;
++      pte_t *ptep_m;
++
++      vma_m = pax_find_mirror_vma(vma);
++      if (!vma_m)
++              return;
++
++      BUG_ON(address >= SEGMEXEC_TASK_SIZE);
++      address_m = address + SEGMEXEC_TASK_SIZE;
++      ptep_m = huge_pte_offset(mm, address_m & HPAGE_MASK);
++      get_page(page_m);
++      set_huge_pte_at(mm, address_m, ptep_m, make_huge_pte(vma_m, page_m, 0));
++}
++#endif
++
+ static int hugetlb_cow(struct mm_struct *mm, struct vm_area_struct *vma,
+                       unsigned long address, pte_t *ptep, pte_t pte,
+                       struct page *pagecache_page)
+@@ -2004,6 +2025,11 @@ retry_avoidcopy:
+               huge_ptep_clear_flush(vma, address, ptep);
+               set_huge_pte_at(mm, address, ptep,
+                               make_huge_pte(vma, new_page, 1));
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              pax_mirror_huge_pte(vma, address, new_page);
++#endif
++
+               /* Make the old page be freed below */
+               new_page = old_page;
+       }
+@@ -2135,6 +2161,10 @@ retry:
+                               && (vma->vm_flags & VM_SHARED)));
+       set_huge_pte_at(mm, address, ptep, new_pte);
++#ifdef CONFIG_PAX_SEGMEXEC
++      pax_mirror_huge_pte(vma, address, page);
++#endif
++
+       if ((flags & FAULT_FLAG_WRITE) && !(vma->vm_flags & VM_SHARED)) {
+               /* Optimization, do the COW without a second fault */
+               ret = hugetlb_cow(mm, vma, address, ptep, new_pte, page);
+@@ -2163,6 +2193,28 @@ int hugetlb_fault(struct mm_struct *mm, struct vm_area_struct *vma,
+       static DEFINE_MUTEX(hugetlb_instantiation_mutex);
+       struct hstate *h = hstate_vma(vma);
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m;
++
++      vma_m = pax_find_mirror_vma(vma);
++      if (vma_m) {
++              unsigned long address_m;
++
++              if (vma->vm_start > vma_m->vm_start) {
++                      address_m = address;
++                      address -= SEGMEXEC_TASK_SIZE;
++                      vma = vma_m;
++                      h = hstate_vma(vma);
++              } else
++                      address_m = address + SEGMEXEC_TASK_SIZE;
++
++              if (!huge_pte_alloc(mm, address_m, huge_page_size(h)))
++                      return VM_FAULT_OOM;
++              address_m &= HPAGE_MASK;
++              unmap_hugepage_range(vma, address_m, address_m + HPAGE_SIZE, NULL);
++      }
++#endif
++
+       ptep = huge_pte_alloc(mm, address, huge_page_size(h));
+       if (!ptep)
+               return VM_FAULT_OOM;
+diff --git a/mm/internal.h b/mm/internal.h
+index f03e8e2..7354343 100644
+--- a/mm/internal.h
++++ b/mm/internal.h
+@@ -49,6 +49,7 @@ extern void putback_lru_page(struct page *page);
+  * in mm/page_alloc.c
+  */
+ extern void __free_pages_bootmem(struct page *page, unsigned int order);
++extern void free_compound_page(struct page *page);
+ extern void prep_compound_page(struct page *page, unsigned long order);
+diff --git a/mm/kmemleak.c b/mm/kmemleak.c
+index c346660..b47382f 100644
+--- a/mm/kmemleak.c
++++ b/mm/kmemleak.c
+@@ -358,7 +358,7 @@ static void print_unreferenced(struct seq_file *seq,
+       for (i = 0; i < object->trace_len; i++) {
+               void *ptr = (void *)object->trace[i];
+-              seq_printf(seq, "    [<%p>] %pS\n", ptr, ptr);
++              seq_printf(seq, "    [<%p>] %pA\n", ptr, ptr);
+       }
+ }
+diff --git a/mm/maccess.c b/mm/maccess.c
+index 9073695..1127f348 100644
+--- a/mm/maccess.c
++++ b/mm/maccess.c
+@@ -14,7 +14,7 @@
+  * Safely read from address @src to the buffer at @dst.  If a kernel fault
+  * happens, handle that and return -EFAULT.
+  */
+-long probe_kernel_read(void *dst, void *src, size_t size)
++long probe_kernel_read(void *dst, const void *src, size_t size)
+ {
+       long ret;
+       mm_segment_t old_fs = get_fs();
+@@ -22,7 +22,7 @@ long probe_kernel_read(void *dst, void *src, size_t size)
+       set_fs(KERNEL_DS);
+       pagefault_disable();
+       ret = __copy_from_user_inatomic(dst,
+-                      (__force const void __user *)src, size);
++                      (const void __force_user *)src, size);
+       pagefault_enable();
+       set_fs(old_fs);
+@@ -39,14 +39,14 @@ EXPORT_SYMBOL_GPL(probe_kernel_read);
+  * Safely write to address @dst from the buffer at @src.  If a kernel fault
+  * happens, handle that and return -EFAULT.
+  */
+-long notrace __weak probe_kernel_write(void *dst, void *src, size_t size)
++long notrace __weak probe_kernel_write(void *dst, const void *src, size_t size)
+ {
+       long ret;
+       mm_segment_t old_fs = get_fs();
+       set_fs(KERNEL_DS);
+       pagefault_disable();
+-      ret = __copy_to_user_inatomic((__force void __user *)dst, src, size);
++      ret = __copy_to_user_inatomic((void __force_user *)dst, src, size);
+       pagefault_enable();
+       set_fs(old_fs);
+diff --git a/mm/madvise.c b/mm/madvise.c
+index 35b1479..499f7d4 100644
+--- a/mm/madvise.c
++++ b/mm/madvise.c
+@@ -44,6 +44,10 @@ static long madvise_behavior(struct vm_area_struct * vma,
+       pgoff_t pgoff;
+       unsigned long new_flags = vma->vm_flags;
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m;
++#endif
++
+       switch (behavior) {
+       case MADV_NORMAL:
+               new_flags = new_flags & ~VM_RAND_READ & ~VM_SEQ_READ;
+@@ -103,6 +107,13 @@ success:
+       /*
+        * vm_flags is protected by the mmap_sem held in write mode.
+        */
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      vma_m = pax_find_mirror_vma(vma);
++      if (vma_m)
++              vma_m->vm_flags = new_flags & ~(VM_WRITE | VM_MAYWRITE | VM_ACCOUNT);
++#endif
++
+       vma->vm_flags = new_flags;
+ out:
+@@ -161,6 +172,11 @@ static long madvise_dontneed(struct vm_area_struct * vma,
+                            struct vm_area_struct ** prev,
+                            unsigned long start, unsigned long end)
+ {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m;
++#endif
++
+       *prev = vma;
+       if (vma->vm_flags & (VM_LOCKED|VM_HUGETLB|VM_PFNMAP))
+               return -EINVAL;
+@@ -173,6 +189,21 @@ static long madvise_dontneed(struct vm_area_struct * vma,
+               zap_page_range(vma, start, end - start, &details);
+       } else
+               zap_page_range(vma, start, end - start, NULL);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      vma_m = pax_find_mirror_vma(vma);
++      if (vma_m) {
++              if (unlikely(vma->vm_flags & VM_NONLINEAR)) {
++                      struct zap_details details = {
++                              .nonlinear_vma = vma_m,
++                              .last_index = ULONG_MAX,
++                      };
++                      zap_page_range(vma, start + SEGMEXEC_TASK_SIZE, end - start, &details);
++              } else
++                      zap_page_range(vma, start + SEGMEXEC_TASK_SIZE, end - start, NULL);
++      }
++#endif
++
+       return 0;
+ }
+@@ -359,6 +390,16 @@ SYSCALL_DEFINE3(madvise, unsigned long, start, size_t, len_in, int, behavior)
+       if (end < start)
+               goto out;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (current->mm->pax_flags & MF_PAX_SEGMEXEC) {
++              if (end > SEGMEXEC_TASK_SIZE)
++                      goto out;
++      } else
++#endif
++
++      if (end > TASK_SIZE)
++              goto out;
++
+       error = 0;
+       if (end == start)
+               goto out;
+diff --git a/mm/memory-failure.c b/mm/memory-failure.c
+index 8aeba53..b4a4198 100644
+--- a/mm/memory-failure.c
++++ b/mm/memory-failure.c
+@@ -46,7 +46,7 @@ int sysctl_memory_failure_early_kill __read_mostly = 0;
+ int sysctl_memory_failure_recovery __read_mostly = 1;
+-atomic_long_t mce_bad_pages __read_mostly = ATOMIC_LONG_INIT(0);
++atomic_long_unchecked_t mce_bad_pages __read_mostly = ATOMIC_LONG_INIT(0);
+ /*
+  * Send all the processes who have the page mapped an ``action optional''
+@@ -64,7 +64,7 @@ static int kill_proc_ao(struct task_struct *t, unsigned long addr, int trapno,
+       si.si_signo = SIGBUS;
+       si.si_errno = 0;
+       si.si_code = BUS_MCEERR_AO;
+-      si.si_addr = (void *)addr;
++      si.si_addr = (void __user *)addr;
+ #ifdef __ARCH_SI_TRAPNO
+       si.si_trapno = trapno;
+ #endif
+@@ -745,7 +745,7 @@ int __memory_failure(unsigned long pfn, int trapno, int ref)
+               return 0;
+       }
+-      atomic_long_add(1, &mce_bad_pages);
++      atomic_long_add_unchecked(1, &mce_bad_pages);
+       /*
+        * We need/can do nothing about count=0 pages.
+diff --git a/mm/memory.c b/mm/memory.c
+index 6c836d3..48f3264 100644
+--- a/mm/memory.c
++++ b/mm/memory.c
+@@ -187,8 +187,12 @@ static inline void free_pmd_range(struct mmu_gather *tlb, pud_t *pud,
+               return;
+       pmd = pmd_offset(pud, start);
++
++#if !defined(CONFIG_X86_32) || !defined(CONFIG_PAX_PER_CPU_PGD)
+       pud_clear(pud);
+       pmd_free_tlb(tlb, pmd, start);
++#endif
++
+ }
+ static inline void free_pud_range(struct mmu_gather *tlb, pgd_t *pgd,
+@@ -219,9 +223,12 @@ static inline void free_pud_range(struct mmu_gather *tlb, pgd_t *pgd,
+       if (end - 1 > ceiling - 1)
+               return;
++#if !defined(CONFIG_X86_64) || !defined(CONFIG_PAX_PER_CPU_PGD)
+       pud = pud_offset(pgd, start);
+       pgd_clear(pgd);
+       pud_free_tlb(tlb, pud, start);
++#endif
++
+ }
+ /*
+@@ -1251,10 +1258,10 @@ int __get_user_pages(struct task_struct *tsk, struct mm_struct *mm,
+                       (VM_MAYREAD | VM_MAYWRITE) : (VM_READ | VM_WRITE);
+       i = 0;
+-      do {
++      while (nr_pages) {
+               struct vm_area_struct *vma;
+-              vma = find_extend_vma(mm, start);
++              vma = find_vma(mm, start);
+               if (!vma && in_gate_area(tsk, start)) {
+                       unsigned long pg = start & PAGE_MASK;
+                       struct vm_area_struct *gate_vma = get_gate_vma(tsk);
+@@ -1306,7 +1313,7 @@ int __get_user_pages(struct task_struct *tsk, struct mm_struct *mm,
+                       continue;
+               }
+-              if (!vma ||
++              if (!vma || start < vma->vm_start ||
+                   (vma->vm_flags & (VM_IO | VM_PFNMAP)) ||
+                   !(vm_flags & vma->vm_flags))
+                       return i ? : -EFAULT;
+@@ -1381,7 +1388,7 @@ int __get_user_pages(struct task_struct *tsk, struct mm_struct *mm,
+                       start += PAGE_SIZE;
+                       nr_pages--;
+               } while (nr_pages && start < vma->vm_end);
+-      } while (nr_pages);
++      }
+       return i;
+ }
+@@ -1526,6 +1533,10 @@ static int insert_page(struct vm_area_struct *vma, unsigned long addr,
+       page_add_file_rmap(page);
+       set_pte_at(mm, addr, pte, mk_pte(page, prot));
++#ifdef CONFIG_PAX_SEGMEXEC
++      pax_mirror_file_pte(vma, addr, page, ptl);
++#endif
++
+       retval = 0;
+       pte_unmap_unlock(pte, ptl);
+       return retval;
+@@ -1560,10 +1571,22 @@ out:
+ int vm_insert_page(struct vm_area_struct *vma, unsigned long addr,
+                       struct page *page)
+ {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m;
++#endif
++
+       if (addr < vma->vm_start || addr >= vma->vm_end)
+               return -EFAULT;
+       if (!page_count(page))
+               return -EINVAL;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      vma_m = pax_find_mirror_vma(vma);
++      if (vma_m)
++              vma_m->vm_flags |= VM_INSERTPAGE;
++#endif
++
+       vma->vm_flags |= VM_INSERTPAGE;
+       return insert_page(vma, addr, page, vma->vm_page_prot);
+ }
+@@ -1649,6 +1672,7 @@ int vm_insert_mixed(struct vm_area_struct *vma, unsigned long addr,
+                       unsigned long pfn)
+ {
+       BUG_ON(!(vma->vm_flags & VM_MIXEDMAP));
++      BUG_ON(vma->vm_mirror);
+       if (addr < vma->vm_start || addr >= vma->vm_end)
+               return -EFAULT;
+@@ -1977,6 +2001,186 @@ static inline void cow_user_page(struct page *dst, struct page *src, unsigned lo
+               copy_user_highpage(dst, src, va, vma);
+ }
++#ifdef CONFIG_PAX_SEGMEXEC
++static void pax_unmap_mirror_pte(struct vm_area_struct *vma, unsigned long address, pmd_t *pmd)
++{
++      struct mm_struct *mm = vma->vm_mm;
++      spinlock_t *ptl;
++      pte_t *pte, entry;
++
++      pte = pte_offset_map_lock(mm, pmd, address, &ptl);
++      entry = *pte;
++      if (!pte_present(entry)) {
++              if (!pte_none(entry)) {
++                      BUG_ON(pte_file(entry));
++                      free_swap_and_cache(pte_to_swp_entry(entry));
++                      pte_clear_not_present_full(mm, address, pte, 0);
++              }
++      } else {
++              struct page *page;
++
++              flush_cache_page(vma, address, pte_pfn(entry));
++              entry = ptep_clear_flush(vma, address, pte);
++              BUG_ON(pte_dirty(entry));
++              page = vm_normal_page(vma, address, entry);
++              if (page) {
++                      update_hiwater_rss(mm);
++                      if (PageAnon(page))
++                              dec_mm_counter(mm, anon_rss);
++                      else
++                              dec_mm_counter(mm, file_rss);
++                      page_remove_rmap(page);
++                      page_cache_release(page);
++              }
++      }
++      pte_unmap_unlock(pte, ptl);
++}
++
++/* PaX: if vma is mirrored, synchronize the mirror's PTE
++ *
++ * the ptl of the lower mapped page is held on entry and is not released on exit
++ * or inside to ensure atomic changes to the PTE states (swapout, mremap, munmap, etc)
++ */
++static void pax_mirror_anon_pte(struct vm_area_struct *vma, unsigned long address, struct page *page_m, spinlock_t *ptl)
++{
++      struct mm_struct *mm = vma->vm_mm;
++      unsigned long address_m;
++      spinlock_t *ptl_m;
++      struct vm_area_struct *vma_m;
++      pmd_t *pmd_m;
++      pte_t *pte_m, entry_m;
++
++      BUG_ON(!page_m || !PageAnon(page_m));
++
++      vma_m = pax_find_mirror_vma(vma);
++      if (!vma_m)
++              return;
++
++      BUG_ON(!PageLocked(page_m));
++      BUG_ON(address >= SEGMEXEC_TASK_SIZE);
++      address_m = address + SEGMEXEC_TASK_SIZE;
++      pmd_m = pmd_offset(pud_offset(pgd_offset(mm, address_m), address_m), address_m);
++      pte_m = pte_offset_map_nested(pmd_m, address_m);
++      ptl_m = pte_lockptr(mm, pmd_m);
++      if (ptl != ptl_m) {
++              spin_lock_nested(ptl_m, SINGLE_DEPTH_NESTING);
++              if (!pte_none(*pte_m))
++                      goto out;
++      }
++
++      entry_m = pfn_pte(page_to_pfn(page_m), vma_m->vm_page_prot);
++      page_cache_get(page_m);
++      page_add_anon_rmap(page_m, vma_m, address_m);
++      inc_mm_counter(mm, anon_rss);
++      set_pte_at(mm, address_m, pte_m, entry_m);
++      update_mmu_cache(vma_m, address_m, entry_m);
++out:
++      if (ptl != ptl_m)
++              spin_unlock(ptl_m);
++      pte_unmap_nested(pte_m);
++      unlock_page(page_m);
++}
++
++void pax_mirror_file_pte(struct vm_area_struct *vma, unsigned long address, struct page *page_m, spinlock_t *ptl)
++{
++      struct mm_struct *mm = vma->vm_mm;
++      unsigned long address_m;
++      spinlock_t *ptl_m;
++      struct vm_area_struct *vma_m;
++      pmd_t *pmd_m;
++      pte_t *pte_m, entry_m;
++
++      BUG_ON(!page_m || PageAnon(page_m));
++
++      vma_m = pax_find_mirror_vma(vma);
++      if (!vma_m)
++              return;
++
++      BUG_ON(address >= SEGMEXEC_TASK_SIZE);
++      address_m = address + SEGMEXEC_TASK_SIZE;
++      pmd_m = pmd_offset(pud_offset(pgd_offset(mm, address_m), address_m), address_m);
++      pte_m = pte_offset_map_nested(pmd_m, address_m);
++      ptl_m = pte_lockptr(mm, pmd_m);
++      if (ptl != ptl_m) {
++              spin_lock_nested(ptl_m, SINGLE_DEPTH_NESTING);
++              if (!pte_none(*pte_m))
++                      goto out;
++      }
++
++      entry_m = pfn_pte(page_to_pfn(page_m), vma_m->vm_page_prot);
++      page_cache_get(page_m);
++      page_add_file_rmap(page_m);
++      inc_mm_counter(mm, file_rss);
++      set_pte_at(mm, address_m, pte_m, entry_m);
++      update_mmu_cache(vma_m, address_m, entry_m);
++out:
++      if (ptl != ptl_m)
++              spin_unlock(ptl_m);
++      pte_unmap_nested(pte_m);
++}
++
++static void pax_mirror_pfn_pte(struct vm_area_struct *vma, unsigned long address, unsigned long pfn_m, spinlock_t *ptl)
++{
++      struct mm_struct *mm = vma->vm_mm;
++      unsigned long address_m;
++      spinlock_t *ptl_m;
++      struct vm_area_struct *vma_m;
++      pmd_t *pmd_m;
++      pte_t *pte_m, entry_m;
++
++      vma_m = pax_find_mirror_vma(vma);
++      if (!vma_m)
++              return;
++
++      BUG_ON(address >= SEGMEXEC_TASK_SIZE);
++      address_m = address + SEGMEXEC_TASK_SIZE;
++      pmd_m = pmd_offset(pud_offset(pgd_offset(mm, address_m), address_m), address_m);
++      pte_m = pte_offset_map_nested(pmd_m, address_m);
++      ptl_m = pte_lockptr(mm, pmd_m);
++      if (ptl != ptl_m) {
++              spin_lock_nested(ptl_m, SINGLE_DEPTH_NESTING);
++              if (!pte_none(*pte_m))
++                      goto out;
++      }
++
++      entry_m = pfn_pte(pfn_m, vma_m->vm_page_prot);
++      set_pte_at(mm, address_m, pte_m, entry_m);
++out:
++      if (ptl != ptl_m)
++              spin_unlock(ptl_m);
++      pte_unmap_nested(pte_m);
++}
++
++static void pax_mirror_pte(struct vm_area_struct *vma, unsigned long address, pte_t *pte, pmd_t *pmd, spinlock_t *ptl)
++{
++      struct page *page_m;
++      pte_t entry;
++
++      if (!(vma->vm_mm->pax_flags & MF_PAX_SEGMEXEC))
++              goto out;
++
++      entry = *pte;
++      page_m  = vm_normal_page(vma, address, entry);
++      if (!page_m)
++              pax_mirror_pfn_pte(vma, address, pte_pfn(entry), ptl);
++      else if (PageAnon(page_m)) {
++              if (pax_find_mirror_vma(vma)) {
++                      pte_unmap_unlock(pte, ptl);
++                      lock_page(page_m);
++                      pte = pte_offset_map_lock(vma->vm_mm, pmd, address, &ptl);
++                      if (pte_same(entry, *pte))
++                              pax_mirror_anon_pte(vma, address, page_m, ptl);
++                      else
++                              unlock_page(page_m);
++              }
++      } else
++              pax_mirror_file_pte(vma, address, page_m, ptl);
++
++out:
++      pte_unmap_unlock(pte, ptl);
++}
++#endif
++
+ /*
+  * This routine handles present pages, when users try to write
+  * to a shared page. It is done by copying the page to a new address
+@@ -2156,6 +2360,12 @@ gotten:
+        */
+       page_table = pte_offset_map_lock(mm, pmd, address, &ptl);
+       if (likely(pte_same(*page_table, orig_pte))) {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              if (pax_find_mirror_vma(vma))
++                      BUG_ON(!trylock_page(new_page));
++#endif
++
+               if (old_page) {
+                       if (!PageAnon(old_page)) {
+                               dec_mm_counter(mm, file_rss);
+@@ -2207,6 +2417,10 @@ gotten:
+                       page_remove_rmap(old_page);
+               }
++#ifdef CONFIG_PAX_SEGMEXEC
++              pax_mirror_anon_pte(vma, address, new_page, ptl);
++#endif
++
+               /* Free the old page.. */
+               new_page = old_page;
+               ret |= VM_FAULT_WRITE;
+@@ -2606,6 +2820,11 @@ static int do_swap_page(struct mm_struct *mm, struct vm_area_struct *vma,
+       swap_free(entry);
+       if (vm_swap_full() || (vma->vm_flags & VM_LOCKED) || PageMlocked(page))
+               try_to_free_swap(page);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((flags & FAULT_FLAG_WRITE) || !pax_find_mirror_vma(vma))
++#endif
++
+       unlock_page(page);
+       if (flags & FAULT_FLAG_WRITE) {
+@@ -2617,6 +2836,11 @@ static int do_swap_page(struct mm_struct *mm, struct vm_area_struct *vma,
+       /* No need to invalidate - it was non-present before */
+       update_mmu_cache(vma, address, pte);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      pax_mirror_anon_pte(vma, address, page, ptl);
++#endif
++
+ unlock:
+       pte_unmap_unlock(page_table, ptl);
+ out:
+@@ -2632,40 +2856,6 @@ out_release:
+ }
+ /*
+- * This is like a special single-page "expand_{down|up}wards()",
+- * except we must first make sure that 'address{-|+}PAGE_SIZE'
+- * doesn't hit another vma.
+- */
+-static inline int check_stack_guard_page(struct vm_area_struct *vma, unsigned long address)
+-{
+-      address &= PAGE_MASK;
+-      if ((vma->vm_flags & VM_GROWSDOWN) && address == vma->vm_start) {
+-              struct vm_area_struct *prev = vma->vm_prev;
+-
+-              /*
+-               * Is there a mapping abutting this one below?
+-               *
+-               * That's only ok if it's the same stack mapping
+-               * that has gotten split..
+-               */
+-              if (prev && prev->vm_end == address)
+-                      return prev->vm_flags & VM_GROWSDOWN ? 0 : -ENOMEM;
+-
+-              expand_stack(vma, address - PAGE_SIZE);
+-      }
+-      if ((vma->vm_flags & VM_GROWSUP) && address + PAGE_SIZE == vma->vm_end) {
+-              struct vm_area_struct *next = vma->vm_next;
+-
+-              /* As VM_GROWSDOWN but s/below/above/ */
+-              if (next && next->vm_start == address + PAGE_SIZE)
+-                      return next->vm_flags & VM_GROWSUP ? 0 : -ENOMEM;
+-
+-              expand_upwards(vma, address + PAGE_SIZE);
+-      }
+-      return 0;
+-}
+-
+-/*
+  * We enter with non-exclusive mmap_sem (to exclude vma changes,
+  * but allow concurrent faults), and pte mapped but not yet locked.
+  * We return with mmap_sem still held, but pte unmapped and unlocked.
+@@ -2674,27 +2864,23 @@ static int do_anonymous_page(struct mm_struct *mm, struct vm_area_struct *vma,
+               unsigned long address, pte_t *page_table, pmd_t *pmd,
+               unsigned int flags)
+ {
+-      struct page *page;
++      struct page *page = NULL;
+       spinlock_t *ptl;
+       pte_t entry;
+-      pte_unmap(page_table);
+-
+-      /* Check if we need to add a guard page to the stack */
+-      if (check_stack_guard_page(vma, address) < 0)
+-              return VM_FAULT_SIGBUS;
+-
+-      /* Use the zero-page for reads */
+       if (!(flags & FAULT_FLAG_WRITE)) {
+               entry = pte_mkspecial(pfn_pte(my_zero_pfn(address),
+                                               vma->vm_page_prot));
+-              page_table = pte_offset_map_lock(mm, pmd, address, &ptl);
++              ptl = pte_lockptr(mm, pmd);
++              spin_lock(ptl);
+               if (!pte_none(*page_table))
+                       goto unlock;
+               goto setpte;
+       }
+       /* Allocate our own private page. */
++      pte_unmap(page_table);
++
+       if (unlikely(anon_vma_prepare(vma)))
+               goto oom;
+       page = alloc_zeroed_user_highpage_movable(vma, address);
+@@ -2713,6 +2899,11 @@ static int do_anonymous_page(struct mm_struct *mm, struct vm_area_struct *vma,
+       if (!pte_none(*page_table))
+               goto release;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (pax_find_mirror_vma(vma))
++              BUG_ON(!trylock_page(page));
++#endif
++
+       inc_mm_counter(mm, anon_rss);
+       page_add_new_anon_rmap(page, vma, address);
+ setpte:
+@@ -2720,6 +2911,12 @@ setpte:
+       /* No need to invalidate - it was non-present before */
+       update_mmu_cache(vma, address, entry);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (page)
++              pax_mirror_anon_pte(vma, address, page, ptl);
++#endif
++
+ unlock:
+       pte_unmap_unlock(page_table, ptl);
+       return 0;
+@@ -2862,6 +3059,12 @@ static int __do_fault(struct mm_struct *mm, struct vm_area_struct *vma,
+        */
+       /* Only go through if we didn't race with anybody else... */
+       if (likely(pte_same(*page_table, orig_pte))) {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              if (anon && pax_find_mirror_vma(vma))
++                      BUG_ON(!trylock_page(page));
++#endif
++
+               flush_icache_page(vma, page);
+               entry = mk_pte(page, vma->vm_page_prot);
+               if (flags & FAULT_FLAG_WRITE)
+@@ -2881,6 +3084,14 @@ static int __do_fault(struct mm_struct *mm, struct vm_area_struct *vma,
+               /* no need to invalidate: a not-present page won't be cached */
+               update_mmu_cache(vma, address, entry);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              if (anon)
++                      pax_mirror_anon_pte(vma, address, page, ptl);
++              else
++                      pax_mirror_file_pte(vma, address, page, ptl);
++#endif
++
+       } else {
+               if (charged)
+                       mem_cgroup_uncharge_page(page);
+@@ -3028,6 +3239,12 @@ static inline int handle_pte_fault(struct mm_struct *mm,
+               if (flags & FAULT_FLAG_WRITE)
+                       flush_tlb_page(vma, address);
+       }
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      pax_mirror_pte(vma, address, pte, pmd, ptl);
++      return 0;
++#endif
++
+ unlock:
+       pte_unmap_unlock(pte, ptl);
+       return 0;
+@@ -3044,6 +3261,10 @@ int handle_mm_fault(struct mm_struct *mm, struct vm_area_struct *vma,
+       pmd_t *pmd;
+       pte_t *pte;
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m;
++#endif
++
+       __set_current_state(TASK_RUNNING);
+       count_vm_event(PGFAULT);
+@@ -3051,6 +3272,34 @@ int handle_mm_fault(struct mm_struct *mm, struct vm_area_struct *vma,
+       if (unlikely(is_vm_hugetlb_page(vma)))
+               return hugetlb_fault(mm, vma, address, flags);
++#ifdef CONFIG_PAX_SEGMEXEC
++      vma_m = pax_find_mirror_vma(vma);
++      if (vma_m) {
++              unsigned long address_m;
++              pgd_t *pgd_m;
++              pud_t *pud_m;
++              pmd_t *pmd_m;
++
++              if (vma->vm_start > vma_m->vm_start) {
++                      address_m = address;
++                      address -= SEGMEXEC_TASK_SIZE;
++                      vma = vma_m;
++              } else
++                      address_m = address + SEGMEXEC_TASK_SIZE;
++
++              pgd_m = pgd_offset(mm, address_m);
++              pud_m = pud_alloc(mm, pgd_m, address_m);
++              if (!pud_m)
++                      return VM_FAULT_OOM;
++              pmd_m = pmd_alloc(mm, pud_m, address_m);
++              if (!pmd_m)
++                      return VM_FAULT_OOM;
++              if (!pmd_present(*pmd_m) && __pte_alloc(mm, pmd_m, address_m))
++                      return VM_FAULT_OOM;
++              pax_unmap_mirror_pte(vma_m, address_m, pmd_m);
++      }
++#endif
++
+       pgd = pgd_offset(mm, address);
+       pud = pud_alloc(mm, pgd, address);
+       if (!pud)
+@@ -3148,7 +3397,7 @@ static int __init gate_vma_init(void)
+       gate_vma.vm_start = FIXADDR_USER_START;
+       gate_vma.vm_end = FIXADDR_USER_END;
+       gate_vma.vm_flags = VM_READ | VM_MAYREAD | VM_EXEC | VM_MAYEXEC;
+-      gate_vma.vm_page_prot = __P101;
++      gate_vma.vm_page_prot = vm_get_page_prot(gate_vma.vm_flags);
+       /*
+        * Make sure the vDSO gets into every core dump.
+        * Dumping its contents makes post-mortem fully interpretable later
+diff --git a/mm/mempolicy.c b/mm/mempolicy.c
+index 3c6e3e2..b1ddbb8 100644
+--- a/mm/mempolicy.c
++++ b/mm/mempolicy.c
+@@ -573,6 +573,10 @@ static int mbind_range(struct vm_area_struct *vma, unsigned long start,
+       struct vm_area_struct *next;
+       int err;
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m;
++#endif
++
+       err = 0;
+       for (; vma && vma->vm_start < end; vma = next) {
+               next = vma->vm_next;
+@@ -584,6 +588,16 @@ static int mbind_range(struct vm_area_struct *vma, unsigned long start,
+                       err = policy_vma(vma, new);
+               if (err)
+                       break;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              vma_m = pax_find_mirror_vma(vma);
++              if (vma_m) {
++                      err = policy_vma(vma_m, new);
++                      if (err)
++                              break;
++              }
++#endif
++
+       }
+       return err;
+ }
+@@ -1002,6 +1016,17 @@ static long do_mbind(unsigned long start, unsigned long len,
+       if (end < start)
+               return -EINVAL;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC) {
++              if (end > SEGMEXEC_TASK_SIZE)
++                      return -EINVAL;
++      } else
++#endif
++
++      if (end > TASK_SIZE)
++              return -EINVAL;
++
+       if (end == start)
+               return 0;
+@@ -1207,6 +1232,14 @@ SYSCALL_DEFINE4(migrate_pages, pid_t, pid, unsigned long, maxnode,
+       if (!mm)
+               return -EINVAL;
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (mm != current->mm &&
++          (mm->pax_flags & MF_PAX_RANDMMAP || mm->pax_flags & MF_PAX_SEGMEXEC)) {
++              err = -EPERM;
++              goto out;
++      }
++#endif
++
+       /*
+        * Check if this process has the right to modify the specified
+        * process. The right exists if the process has administrative
+@@ -1216,8 +1249,7 @@ SYSCALL_DEFINE4(migrate_pages, pid_t, pid, unsigned long, maxnode,
+       rcu_read_lock();
+       tcred = __task_cred(task);
+       if (cred->euid != tcred->suid && cred->euid != tcred->uid &&
+-          cred->uid  != tcred->suid && cred->uid  != tcred->uid &&
+-          !capable(CAP_SYS_NICE)) {
++          cred->uid  != tcred->suid && !capable(CAP_SYS_NICE)) {
+               rcu_read_unlock();
+               err = -EPERM;
+               goto out;
+@@ -2367,6 +2399,12 @@ static inline void check_huge_range(struct vm_area_struct *vma,
+ }
+ #endif
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++#define PAX_RAND_FLAGS(_mm) (_mm != NULL && _mm != current->mm && \
++                           (_mm->pax_flags & MF_PAX_RANDMMAP || \
++                            _mm->pax_flags & MF_PAX_SEGMEXEC))
++#endif
++
+ /*
+  * Display pages allocated per node and memory policy via /proc.
+  */
+@@ -2381,6 +2419,13 @@ int show_numa_map(struct seq_file *m, void *v)
+       int n;
+       char buffer[50];
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (current->exec_id != m->exec_id) {
++              gr_log_badprocpid("numa_maps");
++              return 0;
++      }
++#endif
++
+       if (!mm)
+               return 0;
+@@ -2392,11 +2437,15 @@ int show_numa_map(struct seq_file *m, void *v)
+       mpol_to_str(buffer, sizeof(buffer), pol, 0);
+       mpol_cond_put(pol);
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      seq_printf(m, "%08lx %s", PAX_RAND_FLAGS(vma->vm_mm) ? 0UL : vma->vm_start, buffer);
++#else
+       seq_printf(m, "%08lx %s", vma->vm_start, buffer);
++#endif
+       if (file) {
+               seq_printf(m, " file=");
+-              seq_path(m, &file->f_path, "\n\t= ");
++              seq_path(m, &file->f_path, "\n\t\\= ");
+       } else if (vma->vm_start <= mm->brk && vma->vm_end >= mm->start_brk) {
+               seq_printf(m, " heap");
+       } else if (vma->vm_start <= mm->start_stack &&
+diff --git a/mm/migrate.c b/mm/migrate.c
+index aaca868..2ebecdc 100644
+--- a/mm/migrate.c
++++ b/mm/migrate.c
+@@ -916,6 +916,8 @@ static int do_pages_move(struct mm_struct *mm, struct task_struct *task,
+       unsigned long chunk_start;
+       int err;
++      pax_track_stack();
++
+       task_nodes = cpuset_mems_allowed(task);
+       err = -ENOMEM;
+@@ -1106,6 +1108,14 @@ SYSCALL_DEFINE6(move_pages, pid_t, pid, unsigned long, nr_pages,
+       if (!mm)
+               return -EINVAL;
++#ifdef CONFIG_GRKERNSEC_PROC_MEMMAP
++      if (mm != current->mm &&
++          (mm->pax_flags & MF_PAX_RANDMMAP || mm->pax_flags & MF_PAX_SEGMEXEC)) {
++              err = -EPERM;
++              goto out;
++      }
++#endif
++
+       /*
+        * Check if this process has the right to modify the specified
+        * process. The right exists if the process has administrative
+@@ -1115,8 +1125,7 @@ SYSCALL_DEFINE6(move_pages, pid_t, pid, unsigned long, nr_pages,
+       rcu_read_lock();
+       tcred = __task_cred(task);
+       if (cred->euid != tcred->suid && cred->euid != tcred->uid &&
+-          cred->uid  != tcred->suid && cred->uid  != tcred->uid &&
+-          !capable(CAP_SYS_NICE)) {
++          cred->uid  != tcred->suid && !capable(CAP_SYS_NICE)) {
+               rcu_read_unlock();
+               err = -EPERM;
+               goto out;
+diff --git a/mm/mlock.c b/mm/mlock.c
+index 2d846cf..98134d2 100644
+--- a/mm/mlock.c
++++ b/mm/mlock.c
+@@ -13,6 +13,7 @@
+ #include <linux/pagemap.h>
+ #include <linux/mempolicy.h>
+ #include <linux/syscalls.h>
++#include <linux/security.h>
+ #include <linux/sched.h>
+ #include <linux/module.h>
+ #include <linux/rmap.h>
+@@ -138,13 +139,6 @@ void munlock_vma_page(struct page *page)
+       }
+ }
+-static inline int stack_guard_page(struct vm_area_struct *vma, unsigned long addr)
+-{
+-      return (vma->vm_flags & VM_GROWSDOWN) &&
+-              (vma->vm_start == addr) &&
+-              !vma_stack_continue(vma->vm_prev, addr);
+-}
+-
+ /**
+  * __mlock_vma_pages_range() -  mlock a range of pages in the vma.
+  * @vma:   target vma
+@@ -177,12 +171,6 @@ static long __mlock_vma_pages_range(struct vm_area_struct *vma,
+       if (vma->vm_flags & VM_WRITE)
+               gup_flags |= FOLL_WRITE;
+-      /* We don't try to access the guard page of a stack vma */
+-      if (stack_guard_page(vma, start)) {
+-              addr += PAGE_SIZE;
+-              nr_pages--;
+-      }
+-
+       while (nr_pages > 0) {
+               int i;
+@@ -440,7 +428,7 @@ static int do_mlock(unsigned long start, size_t len, int on)
+ {
+       unsigned long nstart, end, tmp;
+       struct vm_area_struct * vma, * prev;
+-      int error;
++      int error = -EINVAL;
+       len = PAGE_ALIGN(len);
+       end = start + len;
+@@ -448,6 +436,9 @@ static int do_mlock(unsigned long start, size_t len, int on)
+               return -EINVAL;
+       if (end == start)
+               return 0;
++      if (end > TASK_SIZE)
++              return -EINVAL;
++
+       vma = find_vma_prev(current->mm, start, &prev);
+       if (!vma || vma->vm_start > start)
+               return -ENOMEM;
+@@ -458,6 +449,11 @@ static int do_mlock(unsigned long start, size_t len, int on)
+       for (nstart = start ; ; ) {
+               unsigned int newflags;
++#ifdef CONFIG_PAX_SEGMEXEC
++              if ((current->mm->pax_flags & MF_PAX_SEGMEXEC) && (vma->vm_start >= SEGMEXEC_TASK_SIZE))
++                      break;
++#endif
++
+               /* Here we know that  vma->vm_start <= nstart < vma->vm_end. */
+               newflags = vma->vm_flags | VM_LOCKED;
+@@ -507,6 +503,7 @@ SYSCALL_DEFINE2(mlock, unsigned long, start, size_t, len)
+       lock_limit >>= PAGE_SHIFT;
+       /* check against resource limits */
++      gr_learn_resource(current, RLIMIT_MEMLOCK, (current->mm->locked_vm << PAGE_SHIFT) + len, 1);
+       if ((locked <= lock_limit) || capable(CAP_IPC_LOCK))
+               error = do_mlock(start, len, 1);
+       up_write(&current->mm->mmap_sem);
+@@ -528,17 +525,23 @@ SYSCALL_DEFINE2(munlock, unsigned long, start, size_t, len)
+ static int do_mlockall(int flags)
+ {
+       struct vm_area_struct * vma, * prev = NULL;
+-      unsigned int def_flags = 0;
+       if (flags & MCL_FUTURE)
+-              def_flags = VM_LOCKED;
+-      current->mm->def_flags = def_flags;
++              current->mm->def_flags |= VM_LOCKED;
++      else
++              current->mm->def_flags &= ~VM_LOCKED;
+       if (flags == MCL_FUTURE)
+               goto out;
+       for (vma = current->mm->mmap; vma ; vma = prev->vm_next) {
+-              unsigned int newflags;
++              unsigned long newflags;
++#ifdef CONFIG_PAX_SEGMEXEC
++              if ((current->mm->pax_flags & MF_PAX_SEGMEXEC) && (vma->vm_start >= SEGMEXEC_TASK_SIZE))
++                      break;
++#endif
++
++              BUG_ON(vma->vm_end > TASK_SIZE);
+               newflags = vma->vm_flags | VM_LOCKED;
+               if (!(flags & MCL_CURRENT))
+                       newflags &= ~VM_LOCKED;
+@@ -570,6 +573,7 @@ SYSCALL_DEFINE1(mlockall, int, flags)
+       lock_limit >>= PAGE_SHIFT;
+       ret = -ENOMEM;
++      gr_learn_resource(current, RLIMIT_MEMLOCK, current->mm->total_vm << PAGE_SHIFT, 1);
+       if (!(flags & MCL_CURRENT) || (current->mm->total_vm <= lock_limit) ||
+           capable(CAP_IPC_LOCK))
+               ret = do_mlockall(flags);
+diff --git a/mm/mmap.c b/mm/mmap.c
+index 4b80cbf..c5ce1df 100644
+--- a/mm/mmap.c
++++ b/mm/mmap.c
+@@ -45,6 +45,16 @@
+ #define arch_rebalance_pgtables(addr, len)            (addr)
+ #endif
++static inline void verify_mm_writelocked(struct mm_struct *mm)
++{
++#if defined(CONFIG_DEBUG_VM) || defined(CONFIG_PAX)
++      if (unlikely(down_read_trylock(&mm->mmap_sem))) {
++              up_read(&mm->mmap_sem);
++              BUG();
++      }
++#endif
++}
++
+ static void unmap_region(struct mm_struct *mm,
+               struct vm_area_struct *vma, struct vm_area_struct *prev,
+               unsigned long start, unsigned long end);
+@@ -70,22 +80,32 @@ static void unmap_region(struct mm_struct *mm,
+  *            x: (no) no      x: (no) yes     x: (no) yes     x: (yes) yes
+  *
+  */
+-pgprot_t protection_map[16] = {
++pgprot_t protection_map[16] __read_only = {
+       __P000, __P001, __P010, __P011, __P100, __P101, __P110, __P111,
+       __S000, __S001, __S010, __S011, __S100, __S101, __S110, __S111
+ };
+ pgprot_t vm_get_page_prot(unsigned long vm_flags)
+ {
+-      return __pgprot(pgprot_val(protection_map[vm_flags &
++      pgprot_t prot = __pgprot(pgprot_val(protection_map[vm_flags &
+                               (VM_READ|VM_WRITE|VM_EXEC|VM_SHARED)]) |
+                       pgprot_val(arch_vm_get_page_prot(vm_flags)));
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_X86_32)
++      if (!nx_enabled &&
++          (vm_flags & (VM_PAGEEXEC | VM_EXEC)) == VM_PAGEEXEC &&
++          (vm_flags & (VM_READ | VM_WRITE)))
++              prot = __pgprot(pte_val(pte_exprotect(__pte(pgprot_val(prot)))));
++#endif
++
++      return prot;
+ }
+ EXPORT_SYMBOL(vm_get_page_prot);
+ int sysctl_overcommit_memory = OVERCOMMIT_GUESS;  /* heuristic overcommit */
+ int sysctl_overcommit_ratio = 50;     /* default is 50% */
+ int sysctl_max_map_count __read_mostly = DEFAULT_MAX_MAP_COUNT;
++unsigned long sysctl_heap_stack_gap __read_mostly = 64*1024;
+ struct percpu_counter vm_committed_as;
+ /*
+@@ -231,6 +251,7 @@ static struct vm_area_struct *remove_vma(struct vm_area_struct *vma)
+       struct vm_area_struct *next = vma->vm_next;
+       might_sleep();
++      BUG_ON(vma->vm_mirror);
+       if (vma->vm_ops && vma->vm_ops->close)
+               vma->vm_ops->close(vma);
+       if (vma->vm_file) {
+@@ -267,6 +288,7 @@ SYSCALL_DEFINE1(brk, unsigned long, brk)
+        * not page aligned -Ram Gupta
+        */
+       rlim = current->signal->rlim[RLIMIT_DATA].rlim_cur;
++      gr_learn_resource(current, RLIMIT_DATA, (brk - mm->start_brk) + (mm->end_data - mm->start_data), 1);
+       if (rlim < RLIM_INFINITY && (brk - mm->start_brk) +
+                       (mm->end_data - mm->start_data) > rlim)
+               goto out;
+@@ -704,6 +726,12 @@ static int
+ can_vma_merge_before(struct vm_area_struct *vma, unsigned long vm_flags,
+       struct anon_vma *anon_vma, struct file *file, pgoff_t vm_pgoff)
+ {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((vma->vm_mm->pax_flags & MF_PAX_SEGMEXEC) && vma->vm_start == SEGMEXEC_TASK_SIZE)
++              return 0;
++#endif
++
+       if (is_mergeable_vma(vma, file, vm_flags) &&
+           is_mergeable_anon_vma(anon_vma, vma->anon_vma)) {
+               if (vma->vm_pgoff == vm_pgoff)
+@@ -723,6 +751,12 @@ static int
+ can_vma_merge_after(struct vm_area_struct *vma, unsigned long vm_flags,
+       struct anon_vma *anon_vma, struct file *file, pgoff_t vm_pgoff)
+ {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((vma->vm_mm->pax_flags & MF_PAX_SEGMEXEC) && vma->vm_end == SEGMEXEC_TASK_SIZE)
++              return 0;
++#endif
++
+       if (is_mergeable_vma(vma, file, vm_flags) &&
+           is_mergeable_anon_vma(anon_vma, vma->anon_vma)) {
+               pgoff_t vm_pglen;
+@@ -765,12 +799,19 @@ can_vma_merge_after(struct vm_area_struct *vma, unsigned long vm_flags,
+ struct vm_area_struct *vma_merge(struct mm_struct *mm,
+                       struct vm_area_struct *prev, unsigned long addr,
+                       unsigned long end, unsigned long vm_flags,
+-                      struct anon_vma *anon_vma, struct file *file,
++                      struct anon_vma *anon_vma, struct file *file,
+                       pgoff_t pgoff, struct mempolicy *policy)
+ {
+       pgoff_t pglen = (end - addr) >> PAGE_SHIFT;
+       struct vm_area_struct *area, *next;
++#ifdef CONFIG_PAX_SEGMEXEC
++      unsigned long addr_m = addr + SEGMEXEC_TASK_SIZE, end_m = end + SEGMEXEC_TASK_SIZE;
++      struct vm_area_struct *area_m = NULL, *next_m = NULL, *prev_m = NULL;
++
++      BUG_ON((mm->pax_flags & MF_PAX_SEGMEXEC) && SEGMEXEC_TASK_SIZE < end);
++#endif
++
+       /*
+        * We later require that vma->vm_flags == vm_flags,
+        * so this tests vma->vm_flags & VM_SPECIAL, too.
+@@ -786,6 +827,15 @@ struct vm_area_struct *vma_merge(struct mm_struct *mm,
+       if (next && next->vm_end == end)                /* cases 6, 7, 8 */
+               next = next->vm_next;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (prev)
++              prev_m = pax_find_mirror_vma(prev);
++      if (area)
++              area_m = pax_find_mirror_vma(area);
++      if (next)
++              next_m = pax_find_mirror_vma(next);
++#endif
++
+       /*
+        * Can it merge with the predecessor?
+        */
+@@ -805,9 +855,24 @@ struct vm_area_struct *vma_merge(struct mm_struct *mm,
+                                                       /* cases 1, 6 */
+                       vma_adjust(prev, prev->vm_start,
+                               next->vm_end, prev->vm_pgoff, NULL);
+-              } else                                  /* cases 2, 5, 7 */
++
++#ifdef CONFIG_PAX_SEGMEXEC
++                      if (prev_m)
++                              vma_adjust(prev_m, prev_m->vm_start,
++                                      next_m->vm_end, prev_m->vm_pgoff, NULL);
++#endif
++
++              } else {                                /* cases 2, 5, 7 */
+                       vma_adjust(prev, prev->vm_start,
+                               end, prev->vm_pgoff, NULL);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++                      if (prev_m)
++                              vma_adjust(prev_m, prev_m->vm_start,
++                                      end_m, prev_m->vm_pgoff, NULL);
++#endif
++
++              }
+               return prev;
+       }
+@@ -818,12 +883,27 @@ struct vm_area_struct *vma_merge(struct mm_struct *mm,
+                       mpol_equal(policy, vma_policy(next)) &&
+                       can_vma_merge_before(next, vm_flags,
+                                       anon_vma, file, pgoff+pglen)) {
+-              if (prev && addr < prev->vm_end)        /* case 4 */
++              if (prev && addr < prev->vm_end) {      /* case 4 */
+                       vma_adjust(prev, prev->vm_start,
+                               addr, prev->vm_pgoff, NULL);
+-              else                                    /* cases 3, 8 */
++
++#ifdef CONFIG_PAX_SEGMEXEC
++                      if (prev_m)
++                              vma_adjust(prev_m, prev_m->vm_start,
++                                      addr_m, prev_m->vm_pgoff, NULL);
++#endif
++
++              } else {                                /* cases 3, 8 */
+                       vma_adjust(area, addr, next->vm_end,
+                               next->vm_pgoff - pglen, NULL);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++                      if (area_m)
++                              vma_adjust(area_m, addr_m, next_m->vm_end,
++                                      next_m->vm_pgoff - pglen, NULL);
++#endif
++
++              }
+               return area;
+       }
+@@ -898,14 +978,11 @@ none:
+ void vm_stat_account(struct mm_struct *mm, unsigned long flags,
+                                               struct file *file, long pages)
+ {
+-      const unsigned long stack_flags
+-              = VM_STACK_FLAGS & (VM_GROWSUP|VM_GROWSDOWN);
+-
+       if (file) {
+               mm->shared_vm += pages;
+               if ((flags & (VM_EXEC|VM_WRITE)) == VM_EXEC)
+                       mm->exec_vm += pages;
+-      } else if (flags & stack_flags)
++      } else if (flags & (VM_GROWSUP|VM_GROWSDOWN))
+               mm->stack_vm += pages;
+       if (flags & (VM_RESERVED|VM_IO))
+               mm->reserved_vm += pages;
+@@ -932,7 +1009,7 @@ unsigned long do_mmap_pgoff(struct file *file, unsigned long addr,
+        * (the exception is when the underlying filesystem is noexec
+        *  mounted, in which case we dont add PROT_EXEC.)
+        */
+-      if ((prot & PROT_READ) && (current->personality & READ_IMPLIES_EXEC))
++      if ((prot & (PROT_READ | PROT_WRITE)) && (current->personality & READ_IMPLIES_EXEC))
+               if (!(file && (file->f_path.mnt->mnt_flags & MNT_NOEXEC)))
+                       prot |= PROT_EXEC;
+@@ -958,7 +1035,7 @@ unsigned long do_mmap_pgoff(struct file *file, unsigned long addr,
+       /* Obtain the address to map to. we verify (or select) it and ensure
+        * that it represents a valid section of the address space.
+        */
+-      addr = get_unmapped_area(file, addr, len, pgoff, flags);
++      addr = get_unmapped_area(file, addr, len, pgoff, flags | ((prot & PROT_EXEC) ? MAP_EXECUTABLE : 0));
+       if (addr & ~PAGE_MASK)
+               return addr;
+@@ -969,6 +1046,36 @@ unsigned long do_mmap_pgoff(struct file *file, unsigned long addr,
+       vm_flags = calc_vm_prot_bits(prot) | calc_vm_flag_bits(flags) |
+                       mm->def_flags | VM_MAYREAD | VM_MAYWRITE | VM_MAYEXEC;
++#ifdef CONFIG_PAX_MPROTECT
++      if (mm->pax_flags & MF_PAX_MPROTECT) {
++#ifndef CONFIG_PAX_MPROTECT_COMPAT
++              if ((vm_flags & (VM_WRITE | VM_EXEC)) == (VM_WRITE | VM_EXEC)) {
++                      gr_log_rwxmmap(file);
++
++#ifdef CONFIG_PAX_EMUPLT
++                      vm_flags &= ~VM_EXEC;
++#else
++                      return -EPERM;
++#endif
++
++              }
++
++              if (!(vm_flags & VM_EXEC))
++                      vm_flags &= ~VM_MAYEXEC;
++#else
++              if ((vm_flags & (VM_WRITE | VM_EXEC)) != VM_EXEC)
++                      vm_flags &= ~(VM_EXEC | VM_MAYEXEC);
++#endif
++              else
++                      vm_flags &= ~VM_MAYWRITE;
++      }
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_X86_32)
++      if ((mm->pax_flags & MF_PAX_PAGEEXEC) && file)
++              vm_flags &= ~VM_PAGEEXEC;
++#endif
++
+       if (flags & MAP_LOCKED)
+               if (!can_do_mlock())
+                       return -EPERM;
+@@ -980,6 +1087,7 @@ unsigned long do_mmap_pgoff(struct file *file, unsigned long addr,
+               locked += mm->locked_vm;
+               lock_limit = current->signal->rlim[RLIMIT_MEMLOCK].rlim_cur;
+               lock_limit >>= PAGE_SHIFT;
++              gr_learn_resource(current, RLIMIT_MEMLOCK, locked << PAGE_SHIFT, 1);
+               if (locked > lock_limit && !capable(CAP_IPC_LOCK))
+                       return -EAGAIN;
+       }
+@@ -1053,6 +1161,9 @@ unsigned long do_mmap_pgoff(struct file *file, unsigned long addr,
+       if (error)
+               return error;
++      if (!gr_acl_handle_mmap(file, prot))
++              return -EACCES;
++
+       return mmap_region(file, addr, len, flags, vm_flags, pgoff);
+ }
+ EXPORT_SYMBOL(do_mmap_pgoff);
+@@ -1065,10 +1176,10 @@ EXPORT_SYMBOL(do_mmap_pgoff);
+  */
+ int vma_wants_writenotify(struct vm_area_struct *vma)
+ {
+-      unsigned int vm_flags = vma->vm_flags;
++      unsigned long vm_flags = vma->vm_flags;
+       /* If it was private or non-writable, the write bit is already clear */
+-      if ((vm_flags & (VM_WRITE|VM_SHARED)) != ((VM_WRITE|VM_SHARED)))
++      if ((vm_flags & (VM_WRITE|VM_SHARED)) != (VM_WRITE|VM_SHARED))
+               return 0;
+       /* The backer wishes to know when pages are first written to? */
+@@ -1117,14 +1228,24 @@ unsigned long mmap_region(struct file *file, unsigned long addr,
+       unsigned long charged = 0;
+       struct inode *inode =  file ? file->f_path.dentry->d_inode : NULL;
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m = NULL;
++#endif
++
++      /*
++       * mm->mmap_sem is required to protect against another thread
++       * changing the mappings in case we sleep.
++       */
++      verify_mm_writelocked(mm);
++
+       /* Clear old maps */
+       error = -ENOMEM;
+-munmap_back:
+       vma = find_vma_prepare(mm, addr, &prev, &rb_link, &rb_parent);
+       if (vma && vma->vm_start < addr + len) {
+               if (do_munmap(mm, addr, len))
+                       return -ENOMEM;
+-              goto munmap_back;
++              vma = find_vma_prepare(mm, addr, &prev, &rb_link, &rb_parent);
++              BUG_ON(vma && vma->vm_start < addr + len);
+       }
+       /* Check against address space limit. */
+@@ -1173,6 +1294,16 @@ munmap_back:
+               goto unacct_error;
+       }
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && (vm_flags & VM_EXEC)) {
++              vma_m = kmem_cache_zalloc(vm_area_cachep, GFP_KERNEL);
++              if (!vma_m) {
++                      error = -ENOMEM;
++                      goto free_vma;
++              }
++      }
++#endif
++
+       vma->vm_mm = mm;
+       vma->vm_start = addr;
+       vma->vm_end = addr + len;
+@@ -1195,6 +1326,19 @@ munmap_back:
+               error = file->f_op->mmap(file, vma);
+               if (error)
+                       goto unmap_and_free_vma;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              if (vma_m && (vm_flags & VM_EXECUTABLE))
++                      added_exe_file_vma(mm);
++#endif
++
++#if defined(CONFIG_PAX_PAGEEXEC) && defined(CONFIG_X86_32)
++              if ((mm->pax_flags & MF_PAX_PAGEEXEC) && !(vma->vm_flags & VM_SPECIAL)) {
++                      vma->vm_flags |= VM_PAGEEXEC;
++                      vma->vm_page_prot = vm_get_page_prot(vma->vm_flags);
++              }
++#endif
++
+               if (vm_flags & VM_EXECUTABLE)
+                       added_exe_file_vma(mm);
+@@ -1218,6 +1362,11 @@ munmap_back:
+       vma_link(mm, vma, prev, rb_link, rb_parent);
+       file = vma->vm_file;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma_m)
++              pax_mirror_vma(vma_m, vma);
++#endif
++
+       /* Once vma denies write, undo our temporary denial count */
+       if (correct_wcount)
+               atomic_inc(&inode->i_writecount);
+@@ -1226,6 +1375,7 @@ out:
+       mm->total_vm += len >> PAGE_SHIFT;
+       vm_stat_account(mm, vm_flags, file, len >> PAGE_SHIFT);
++      track_exec_limit(mm, addr, addr + len, vm_flags);
+       if (vm_flags & VM_LOCKED) {
+               /*
+                * makes pages present; downgrades, drops, reacquires mmap_sem
+@@ -1248,6 +1398,12 @@ unmap_and_free_vma:
+       unmap_region(mm, vma, prev, vma->vm_start, vma->vm_end);
+       charged = 0;
+ free_vma:
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma_m)
++              kmem_cache_free(vm_area_cachep, vma_m);
++#endif
++
+       kmem_cache_free(vm_area_cachep, vma);
+ unacct_error:
+       if (charged)
+@@ -1255,6 +1411,44 @@ unacct_error:
+       return error;
+ }
++bool check_heap_stack_gap(const struct vm_area_struct *vma, unsigned long addr, unsigned long len)
++{
++      if (!vma) {
++#ifdef CONFIG_STACK_GROWSUP
++              if (addr > sysctl_heap_stack_gap)
++                      vma = find_vma(current->mm, addr - sysctl_heap_stack_gap);
++              else
++                      vma = find_vma(current->mm, 0);
++              if (vma && (vma->vm_flags & VM_GROWSUP))
++                      return false;
++#endif
++              return true;
++      }
++
++      if (addr + len > vma->vm_start)
++              return false;
++
++      if (vma->vm_flags & VM_GROWSDOWN)
++              return sysctl_heap_stack_gap <= vma->vm_start - addr - len;
++#ifdef CONFIG_STACK_GROWSUP
++      else if (vma->vm_prev && (vma->vm_prev->vm_flags & VM_GROWSUP))
++              return addr - vma->vm_prev->vm_end <= sysctl_heap_stack_gap;
++#endif
++
++      return true;
++}
++
++unsigned long skip_heap_stack_gap(const struct vm_area_struct *vma, unsigned long len)
++{
++      if (vma->vm_start < len)
++              return -ENOMEM;
++      if (!(vma->vm_flags & VM_GROWSDOWN))
++              return vma->vm_start - len;
++      if (sysctl_heap_stack_gap <= vma->vm_start - len)
++              return vma->vm_start - len - sysctl_heap_stack_gap;
++      return -ENOMEM;
++}
++
+ /* Get an address range which is currently unmapped.
+  * For shmat() with addr=0.
+  *
+@@ -1281,18 +1475,23 @@ arch_get_unmapped_area(struct file *filp, unsigned long addr,
+       if (flags & MAP_FIXED)
+               return addr;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       if (addr) {
+               addr = PAGE_ALIGN(addr);
+-              vma = find_vma(mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                  (!vma || addr + len <= vma->vm_start))
+-                      return addr;
++              if (TASK_SIZE - len >= addr) {
++                      vma = find_vma(mm, addr);
++                      if (check_heap_stack_gap(vma, addr, len))
++                              return addr;
++              }
+       }
+       if (len > mm->cached_hole_size) {
+-              start_addr = addr = mm->free_area_cache;
++              start_addr = addr = mm->free_area_cache;
+       } else {
+-              start_addr = addr = TASK_UNMAPPED_BASE;
+-              mm->cached_hole_size = 0;
++              start_addr = addr = mm->mmap_base;
++              mm->cached_hole_size = 0;
+       }
+ full_search:
+@@ -1303,34 +1502,40 @@ full_search:
+                        * Start a new search - just in case we missed
+                        * some holes.
+                        */
+-                      if (start_addr != TASK_UNMAPPED_BASE) {
+-                              addr = TASK_UNMAPPED_BASE;
+-                              start_addr = addr;
++                      if (start_addr != mm->mmap_base) {
++                              start_addr = addr = mm->mmap_base;
+                               mm->cached_hole_size = 0;
+                               goto full_search;
+                       }
+                       return -ENOMEM;
+               }
+-              if (!vma || addr + len <= vma->vm_start) {
+-                      /*
+-                       * Remember the place where we stopped the search:
+-                       */
+-                      mm->free_area_cache = addr + len;
+-                      return addr;
+-              }
++              if (check_heap_stack_gap(vma, addr, len))
++                      break;
+               if (addr + mm->cached_hole_size < vma->vm_start)
+                       mm->cached_hole_size = vma->vm_start - addr;
+               addr = vma->vm_end;
+       }
++
++      /*
++       * Remember the place where we stopped the search:
++       */
++      mm->free_area_cache = addr + len;
++      return addr;
+ }
+ #endif        
+ void arch_unmap_area(struct mm_struct *mm, unsigned long addr)
+ {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && SEGMEXEC_TASK_SIZE <= addr)
++              return;
++#endif
++
+       /*
+        * Is this a new hole at the lowest possible address?
+        */
+-      if (addr >= TASK_UNMAPPED_BASE && addr < mm->free_area_cache) {
++      if (addr >= mm->mmap_base && addr < mm->free_area_cache) {
+               mm->free_area_cache = addr;
+               mm->cached_hole_size = ~0UL;
+       }
+@@ -1348,7 +1553,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+ {
+       struct vm_area_struct *vma;
+       struct mm_struct *mm = current->mm;
+-      unsigned long addr = addr0;
++      unsigned long base = mm->mmap_base, addr = addr0;
+       /* requested length too big for entire address space */
+       if (len > TASK_SIZE)
+@@ -1357,13 +1562,18 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       if (flags & MAP_FIXED)
+               return addr;
++#ifdef CONFIG_PAX_RANDMMAP
++      if (!(mm->pax_flags & MF_PAX_RANDMMAP))
++#endif
++
+       /* requesting a specific address */
+       if (addr) {
+               addr = PAGE_ALIGN(addr);
+-              vma = find_vma(mm, addr);
+-              if (TASK_SIZE - len >= addr &&
+-                              (!vma || addr + len <= vma->vm_start))
+-                      return addr;
++              if (TASK_SIZE - len >= addr) {
++                      vma = find_vma(mm, addr);
++                      if (check_heap_stack_gap(vma, addr, len))
++                              return addr;
++              }
+       }
+       /* check if free_area_cache is useful for us */
+@@ -1378,7 +1588,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+       /* make sure it can fit in the remaining address space */
+       if (addr > len) {
+               vma = find_vma(mm, addr-len);
+-              if (!vma || addr <= vma->vm_start)
++              if (check_heap_stack_gap(vma, addr - len, len))
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr-len);
+       }
+@@ -1395,7 +1605,7 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                * return with success:
+                */
+               vma = find_vma(mm, addr);
+-              if (!vma || addr+len <= vma->vm_start)
++              if (check_heap_stack_gap(vma, addr, len))
+                       /* remember the address as a hint for next time */
+                       return (mm->free_area_cache = addr);
+@@ -1404,8 +1614,8 @@ arch_get_unmapped_area_topdown(struct file *filp, const unsigned long addr0,
+                       mm->cached_hole_size = vma->vm_start - addr;
+               /* try just below the current vma->vm_start */
+-              addr = vma->vm_start-len;
+-      } while (len < vma->vm_start);
++              addr = skip_heap_stack_gap(vma, len);
++      } while (!IS_ERR_VALUE(addr));
+ bottomup:
+       /*
+@@ -1414,13 +1624,21 @@ bottomup:
+        * can happen with large stack limits and large mmap()
+        * allocations.
+        */
++      mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (mm->pax_flags & MF_PAX_RANDMMAP)
++              mm->mmap_base += mm->delta_mmap;
++#endif
++
++      mm->free_area_cache = mm->mmap_base;
+       mm->cached_hole_size = ~0UL;
+-      mm->free_area_cache = TASK_UNMAPPED_BASE;
+       addr = arch_get_unmapped_area(filp, addr0, len, pgoff, flags);
+       /*
+        * Restore the topdown base:
+        */
+-      mm->free_area_cache = mm->mmap_base;
++      mm->mmap_base = base;
++      mm->free_area_cache = base;
+       mm->cached_hole_size = ~0UL;
+       return addr;
+@@ -1429,6 +1647,12 @@ bottomup:
+ void arch_unmap_area_topdown(struct mm_struct *mm, unsigned long addr)
+ {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && SEGMEXEC_TASK_SIZE <= addr)
++              return;
++#endif
++
+       /*
+        * Is this a new hole at the highest possible address?
+        */
+@@ -1436,8 +1660,10 @@ void arch_unmap_area_topdown(struct mm_struct *mm, unsigned long addr)
+               mm->free_area_cache = addr;
+       /* dont allow allocations above current base */
+-      if (mm->free_area_cache > mm->mmap_base)
++      if (mm->free_area_cache > mm->mmap_base) {
+               mm->free_area_cache = mm->mmap_base;
++              mm->cached_hole_size = ~0UL;
++      }
+ }
+ unsigned long
+@@ -1545,6 +1771,27 @@ out:
+       return prev ? prev->vm_next : vma;
+ }
++#ifdef CONFIG_PAX_SEGMEXEC
++struct vm_area_struct *pax_find_mirror_vma(struct vm_area_struct *vma)
++{
++      struct vm_area_struct *vma_m;
++
++      BUG_ON(!vma || vma->vm_start >= vma->vm_end);
++      if (!(vma->vm_mm->pax_flags & MF_PAX_SEGMEXEC) || !(vma->vm_flags & VM_EXEC)) {
++              BUG_ON(vma->vm_mirror);
++              return NULL;
++      }
++      BUG_ON(vma->vm_start < SEGMEXEC_TASK_SIZE && SEGMEXEC_TASK_SIZE < vma->vm_end);
++      vma_m = vma->vm_mirror;
++      BUG_ON(!vma_m || vma_m->vm_mirror != vma);
++      BUG_ON(vma->vm_file != vma_m->vm_file);
++      BUG_ON(vma->vm_end - vma->vm_start != vma_m->vm_end - vma_m->vm_start);
++      BUG_ON(vma->vm_pgoff != vma_m->vm_pgoff || vma->anon_vma != vma_m->anon_vma);
++      BUG_ON((vma->vm_flags ^ vma_m->vm_flags) & ~(VM_WRITE | VM_MAYWRITE | VM_ACCOUNT | VM_LOCKED | VM_RESERVED));
++      return vma_m;
++}
++#endif
++
+ /*
+  * Verify that the stack growth is acceptable and
+  * update accounting. This is shared with both the
+@@ -1561,6 +1808,7 @@ static int acct_stack_growth(struct vm_area_struct *vma, unsigned long size, uns
+               return -ENOMEM;
+       /* Stack limit test */
++      gr_learn_resource(current, RLIMIT_STACK, size, 1);
+       if (size > rlim[RLIMIT_STACK].rlim_cur)
+               return -ENOMEM;
+@@ -1570,6 +1818,7 @@ static int acct_stack_growth(struct vm_area_struct *vma, unsigned long size, uns
+               unsigned long limit;
+               locked = mm->locked_vm + grow;
+               limit = rlim[RLIMIT_MEMLOCK].rlim_cur >> PAGE_SHIFT;
++              gr_learn_resource(current, RLIMIT_MEMLOCK, locked << PAGE_SHIFT, 1);
+               if (locked > limit && !capable(CAP_IPC_LOCK))
+                       return -ENOMEM;
+       }
+@@ -1600,37 +1849,48 @@ static int acct_stack_growth(struct vm_area_struct *vma, unsigned long size, uns
+  * PA-RISC uses this for its stack; IA64 for its Register Backing Store.
+  * vma is the last one with address > vma->vm_end.  Have to extend vma.
+  */
++#ifndef CONFIG_IA64
++static
++#endif
+ int expand_upwards(struct vm_area_struct *vma, unsigned long address)
+ {
+       int error;
++      bool locknext;
+       if (!(vma->vm_flags & VM_GROWSUP))
+               return -EFAULT;
++      /* Also guard against wrapping around to address 0. */
++      if (address < PAGE_ALIGN(address+1))
++              address = PAGE_ALIGN(address+1);
++      else
++              return -ENOMEM;
++
+       /*
+        * We must make sure the anon_vma is allocated
+        * so that the anon_vma locking is not a noop.
+        */
+       if (unlikely(anon_vma_prepare(vma)))
+               return -ENOMEM;
++      locknext = vma->vm_next && (vma->vm_next->vm_flags & VM_GROWSDOWN);
++      if (locknext && anon_vma_prepare(vma->vm_next))
++              return -ENOMEM;
+       anon_vma_lock(vma);
++      if (locknext)
++              anon_vma_lock(vma->vm_next);
+       /*
+        * vma->vm_start/vm_end cannot change under us because the caller
+        * is required to hold the mmap_sem in read mode.  We need the
+-       * anon_vma lock to serialize against concurrent expand_stacks.
+-       * Also guard against wrapping around to address 0.
++       * anon_vma locks to serialize against concurrent expand_stacks
++       * and expand_upwards.
+        */
+-      if (address < PAGE_ALIGN(address+4))
+-              address = PAGE_ALIGN(address+4);
+-      else {
+-              anon_vma_unlock(vma);
+-              return -ENOMEM;
+-      }
+       error = 0;
+       /* Somebody else might have raced and expanded it already */
+-      if (address > vma->vm_end) {
++      if (vma->vm_next && (vma->vm_next->vm_flags & (VM_READ | VM_WRITE | VM_EXEC)) && vma->vm_next->vm_start - address < sysctl_heap_stack_gap)
++              error = -ENOMEM;
++      else if (address > vma->vm_end && (!locknext || vma->vm_next->vm_start >= address)) {
+               unsigned long size, grow;
+               size = address - vma->vm_start;
+@@ -1643,6 +1903,8 @@ int expand_upwards(struct vm_area_struct *vma, unsigned long address)
+                               vma->vm_end = address;
+               }
+       }
++      if (locknext)
++              anon_vma_unlock(vma->vm_next);
+       anon_vma_unlock(vma);
+       return error;
+ }
+@@ -1655,6 +1917,8 @@ static int expand_downwards(struct vm_area_struct *vma,
+                                  unsigned long address)
+ {
+       int error;
++      bool lockprev = false;
++      struct vm_area_struct *prev;
+       /*
+        * We must make sure the anon_vma is allocated
+@@ -1668,6 +1932,15 @@ static int expand_downwards(struct vm_area_struct *vma,
+       if (error)
+               return error;
++      prev = vma->vm_prev;
++#if defined(CONFIG_STACK_GROWSUP) || defined(CONFIG_IA64)
++      lockprev = prev && (prev->vm_flags & VM_GROWSUP);
++#endif
++      if (lockprev && anon_vma_prepare(prev))
++              return -ENOMEM;
++      if (lockprev)
++              anon_vma_lock(prev);
++
+       anon_vma_lock(vma);
+       /*
+@@ -1677,9 +1950,17 @@ static int expand_downwards(struct vm_area_struct *vma,
+        */
+       /* Somebody else might have raced and expanded it already */
+-      if (address < vma->vm_start) {
++      if (prev && (prev->vm_flags & (VM_READ | VM_WRITE | VM_EXEC)) && address - prev->vm_end < sysctl_heap_stack_gap)
++              error = -ENOMEM;
++      else if (address < vma->vm_start && (!lockprev || prev->vm_end <= address)) {
+               unsigned long size, grow;
++#ifdef CONFIG_PAX_SEGMEXEC
++              struct vm_area_struct *vma_m;
++
++              vma_m = pax_find_mirror_vma(vma);
++#endif
++
+               size = vma->vm_end - address;
+               grow = (vma->vm_start - address) >> PAGE_SHIFT;
+@@ -1689,10 +1970,22 @@ static int expand_downwards(struct vm_area_struct *vma,
+                       if (!error) {
+                               vma->vm_start = address;
+                               vma->vm_pgoff -= grow;
++                              track_exec_limit(vma->vm_mm, vma->vm_start, vma->vm_end, vma->vm_flags);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++                              if (vma_m) {
++                                      vma_m->vm_start -= grow << PAGE_SHIFT;
++                                      vma_m->vm_pgoff -= grow;
++                              }
++#endif
++
++
+                       }
+               }
+       }
+       anon_vma_unlock(vma);
++      if (lockprev)
++              anon_vma_unlock(prev);
+       return error;
+ }
+@@ -1768,6 +2061,13 @@ static void remove_vma_list(struct mm_struct *mm, struct vm_area_struct *vma)
+       do {
+               long nrpages = vma_pages(vma);
++#ifdef CONFIG_PAX_SEGMEXEC
++              if ((mm->pax_flags & MF_PAX_SEGMEXEC) && (vma->vm_start >= SEGMEXEC_TASK_SIZE)) {
++                      vma = remove_vma(vma);
++                      continue;
++              }
++#endif
++
+               mm->total_vm -= nrpages;
+               vm_stat_account(mm, vma->vm_flags, vma->vm_file, -nrpages);
+               vma = remove_vma(vma);
+@@ -1813,6 +2113,16 @@ detach_vmas_to_be_unmapped(struct mm_struct *mm, struct vm_area_struct *vma,
+       insertion_point = (prev ? &prev->vm_next : &mm->mmap);
+       vma->vm_prev = NULL;
+       do {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              if (vma->vm_mirror) {
++                      BUG_ON(!vma->vm_mirror->vm_mirror || vma->vm_mirror->vm_mirror != vma);
++                      vma->vm_mirror->vm_mirror = NULL;
++                      vma->vm_mirror->vm_flags &= ~VM_EXEC;
++                      vma->vm_mirror = NULL;
++              }
++#endif
++
+               rb_erase(&vma->vm_rb, &mm->mm_rb);
+               mm->map_count--;
+               tail_vma = vma;
+@@ -1840,10 +2150,25 @@ int split_vma(struct mm_struct * mm, struct vm_area_struct * vma,
+       struct mempolicy *pol;
+       struct vm_area_struct *new;
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m, *new_m = NULL;
++      unsigned long addr_m = addr + SEGMEXEC_TASK_SIZE;
++#endif
++
+       if (is_vm_hugetlb_page(vma) && (addr &
+                                       ~(huge_page_mask(hstate_vma(vma)))))
+               return -EINVAL;
++#ifdef CONFIG_PAX_SEGMEXEC
++      vma_m = pax_find_mirror_vma(vma);
++
++      if (mm->pax_flags & MF_PAX_SEGMEXEC) {
++              BUG_ON(vma->vm_end > SEGMEXEC_TASK_SIZE);
++              if (mm->map_count >= sysctl_max_map_count-1)
++                      return -ENOMEM;
++      } else
++#endif
++
+       if (mm->map_count >= sysctl_max_map_count)
+               return -ENOMEM;
+@@ -1851,6 +2176,16 @@ int split_vma(struct mm_struct * mm, struct vm_area_struct * vma,
+       if (!new)
+               return -ENOMEM;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma_m) {
++              new_m = kmem_cache_alloc(vm_area_cachep, GFP_KERNEL);
++              if (!new_m) {
++                      kmem_cache_free(vm_area_cachep, new);
++                      return -ENOMEM;
++              }
++      }
++#endif
++
+       /* most fields are the same, copy all, and then fixup */
+       *new = *vma;
+@@ -1861,8 +2196,29 @@ int split_vma(struct mm_struct * mm, struct vm_area_struct * vma,
+               new->vm_pgoff += ((addr - vma->vm_start) >> PAGE_SHIFT);
+       }
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma_m) {
++              *new_m = *vma_m;
++              new_m->vm_mirror = new;
++              new->vm_mirror = new_m;
++
++              if (new_below)
++                      new_m->vm_end = addr_m;
++              else {
++                      new_m->vm_start = addr_m;
++                      new_m->vm_pgoff += ((addr_m - vma_m->vm_start) >> PAGE_SHIFT);
++              }
++      }
++#endif
++
+       pol = mpol_dup(vma_policy(vma));
+       if (IS_ERR(pol)) {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++              if (new_m)
++                      kmem_cache_free(vm_area_cachep, new_m);
++#endif
++
+               kmem_cache_free(vm_area_cachep, new);
+               return PTR_ERR(pol);
+       }
+@@ -1883,6 +2239,28 @@ int split_vma(struct mm_struct * mm, struct vm_area_struct * vma,
+       else
+               vma_adjust(vma, vma->vm_start, addr, vma->vm_pgoff, new);
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma_m) {
++              mpol_get(pol);
++              vma_set_policy(new_m, pol);
++
++              if (new_m->vm_file) {
++                      get_file(new_m->vm_file);
++                      if (vma_m->vm_flags & VM_EXECUTABLE)
++                              added_exe_file_vma(mm);
++              }
++
++              if (new_m->vm_ops && new_m->vm_ops->open)
++                      new_m->vm_ops->open(new_m);
++
++              if (new_below)
++                      vma_adjust(vma_m, addr_m, vma_m->vm_end, vma_m->vm_pgoff +
++                              ((addr_m - new_m->vm_start) >> PAGE_SHIFT), new_m);
++              else
++                      vma_adjust(vma_m, vma_m->vm_start, addr_m, vma_m->vm_pgoff, new_m);
++      }
++#endif
++
+       return 0;
+ }
+@@ -1891,11 +2269,30 @@ int split_vma(struct mm_struct * mm, struct vm_area_struct * vma,
+  * work.  This now handles partial unmappings.
+  * Jeremy Fitzhardinge <jeremy@goop.org>
+  */
++#ifdef CONFIG_PAX_SEGMEXEC
+ int do_munmap(struct mm_struct *mm, unsigned long start, size_t len)
+ {
++      int ret = __do_munmap(mm, start, len);
++      if (ret || !(mm->pax_flags & MF_PAX_SEGMEXEC))
++              return ret;
++
++      return __do_munmap(mm, start + SEGMEXEC_TASK_SIZE, len);
++}
++
++int __do_munmap(struct mm_struct *mm, unsigned long start, size_t len)
++#else
++int do_munmap(struct mm_struct *mm, unsigned long start, size_t len)
++#endif
++{
+       unsigned long end;
+       struct vm_area_struct *vma, *prev, *last;
++      /*
++       * mm->mmap_sem is required to protect against another thread
++       * changing the mappings in case we sleep.
++       */
++      verify_mm_writelocked(mm);
++
+       if ((start & ~PAGE_MASK) || start > TASK_SIZE || len > TASK_SIZE-start)
+               return -EINVAL;
+@@ -1959,6 +2356,8 @@ int do_munmap(struct mm_struct *mm, unsigned long start, size_t len)
+       /* Fix up all other VM information */
+       remove_vma_list(mm, vma);
++      track_exec_limit(mm, start, end, 0UL);
++
+       return 0;
+ }
+@@ -1971,22 +2370,18 @@ SYSCALL_DEFINE2(munmap, unsigned long, addr, size_t, len)
+       profile_munmap(addr);
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) &&
++          (len > SEGMEXEC_TASK_SIZE || addr > SEGMEXEC_TASK_SIZE-len))
++              return -EINVAL;
++#endif
++
+       down_write(&mm->mmap_sem);
+       ret = do_munmap(mm, addr, len);
+       up_write(&mm->mmap_sem);
+       return ret;
+ }
+-static inline void verify_mm_writelocked(struct mm_struct *mm)
+-{
+-#ifdef CONFIG_DEBUG_VM
+-      if (unlikely(down_read_trylock(&mm->mmap_sem))) {
+-              WARN_ON(1);
+-              up_read(&mm->mmap_sem);
+-      }
+-#endif
+-}
+-
+ /*
+  *  this is really a simplified "do_mmap".  it only handles
+  *  anonymous maps.  eventually we may be able to do some
+@@ -2000,6 +2395,7 @@ unsigned long do_brk(unsigned long addr, unsigned long len)
+       struct rb_node ** rb_link, * rb_parent;
+       pgoff_t pgoff = addr >> PAGE_SHIFT;
+       int error;
++      unsigned long charged;
+       len = PAGE_ALIGN(len);
+       if (!len)
+@@ -2011,16 +2407,30 @@ unsigned long do_brk(unsigned long addr, unsigned long len)
+       flags = VM_DATA_DEFAULT_FLAGS | VM_ACCOUNT | mm->def_flags;
++#if defined(CONFIG_PAX_PAGEEXEC) || defined(CONFIG_PAX_SEGMEXEC)
++      if (mm->pax_flags & (MF_PAX_PAGEEXEC | MF_PAX_SEGMEXEC)) {
++              flags &= ~VM_EXEC;
++
++#ifdef CONFIG_PAX_MPROTECT
++              if (mm->pax_flags & MF_PAX_MPROTECT)
++                      flags &= ~VM_MAYEXEC;
++#endif
++
++      }
++#endif
++
+       error = get_unmapped_area(NULL, addr, len, 0, MAP_FIXED);
+       if (error & ~PAGE_MASK)
+               return error;
++      charged = len >> PAGE_SHIFT;
++
+       /*
+        * mlock MCL_FUTURE?
+        */
+       if (mm->def_flags & VM_LOCKED) {
+               unsigned long locked, lock_limit;
+-              locked = len >> PAGE_SHIFT;
++              locked = charged;
+               locked += mm->locked_vm;
+               lock_limit = current->signal->rlim[RLIMIT_MEMLOCK].rlim_cur;
+               lock_limit >>= PAGE_SHIFT;
+@@ -2037,22 +2447,22 @@ unsigned long do_brk(unsigned long addr, unsigned long len)
+       /*
+        * Clear old maps.  this also does some error checking for us
+        */
+- munmap_back:
+       vma = find_vma_prepare(mm, addr, &prev, &rb_link, &rb_parent);
+       if (vma && vma->vm_start < addr + len) {
+               if (do_munmap(mm, addr, len))
+                       return -ENOMEM;
+-              goto munmap_back;
++              vma = find_vma_prepare(mm, addr, &prev, &rb_link, &rb_parent);
++              BUG_ON(vma && vma->vm_start < addr + len);
+       }
+       /* Check against address space limits *after* clearing old maps... */
+-      if (!may_expand_vm(mm, len >> PAGE_SHIFT))
++      if (!may_expand_vm(mm, charged))
+               return -ENOMEM;
+       if (mm->map_count > sysctl_max_map_count)
+               return -ENOMEM;
+-      if (security_vm_enough_memory(len >> PAGE_SHIFT))
++      if (security_vm_enough_memory(charged))
+               return -ENOMEM;
+       /* Can we just expand an old private anonymous mapping? */
+@@ -2066,7 +2476,7 @@ unsigned long do_brk(unsigned long addr, unsigned long len)
+        */
+       vma = kmem_cache_zalloc(vm_area_cachep, GFP_KERNEL);
+       if (!vma) {
+-              vm_unacct_memory(len >> PAGE_SHIFT);
++              vm_unacct_memory(charged);
+               return -ENOMEM;
+       }
+@@ -2078,11 +2488,12 @@ unsigned long do_brk(unsigned long addr, unsigned long len)
+       vma->vm_page_prot = vm_get_page_prot(flags);
+       vma_link(mm, vma, prev, rb_link, rb_parent);
+ out:
+-      mm->total_vm += len >> PAGE_SHIFT;
++      mm->total_vm += charged;
+       if (flags & VM_LOCKED) {
+               if (!mlock_vma_pages_range(vma, addr, addr + len))
+-                      mm->locked_vm += (len >> PAGE_SHIFT);
++                      mm->locked_vm += charged;
+       }
++      track_exec_limit(mm, addr, addr + len, flags);
+       return addr;
+ }
+@@ -2129,8 +2540,10 @@ void exit_mmap(struct mm_struct *mm)
+        * Walk the list again, actually closing and freeing it,
+        * with preemption enabled, without holding any MM locks.
+        */
+-      while (vma)
++      while (vma) {
++              vma->vm_mirror = NULL;
+               vma = remove_vma(vma);
++      }
+       BUG_ON(mm->nr_ptes > (FIRST_USER_ADDRESS+PMD_SIZE-1)>>PMD_SHIFT);
+ }
+@@ -2144,6 +2557,10 @@ int insert_vm_struct(struct mm_struct * mm, struct vm_area_struct * vma)
+       struct vm_area_struct * __vma, * prev;
+       struct rb_node ** rb_link, * rb_parent;
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m = NULL;
++#endif
++
+       /*
+        * The vm_pgoff of a purely anonymous vma should be irrelevant
+        * until its first write fault, when page's anon_vma and index
+@@ -2166,7 +2583,22 @@ int insert_vm_struct(struct mm_struct * mm, struct vm_area_struct * vma)
+       if ((vma->vm_flags & VM_ACCOUNT) &&
+            security_vm_enough_memory_mm(mm, vma_pages(vma)))
+               return -ENOMEM;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && (vma->vm_flags & VM_EXEC)) {
++              vma_m = kmem_cache_zalloc(vm_area_cachep, GFP_KERNEL);
++              if (!vma_m)
++                      return -ENOMEM;
++      }
++#endif
++
+       vma_link(mm, vma, prev, rb_link, rb_parent);
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (vma_m)
++              pax_mirror_vma(vma_m, vma);
++#endif
++
+       return 0;
+ }
+@@ -2184,6 +2616,8 @@ struct vm_area_struct *copy_vma(struct vm_area_struct **vmap,
+       struct rb_node **rb_link, *rb_parent;
+       struct mempolicy *pol;
++      BUG_ON(vma->vm_mirror);
++
+       /*
+        * If anonymous vma has not yet been faulted, update new pgoff
+        * to match new location, to increase its chance of merging.
+@@ -2227,6 +2661,35 @@ struct vm_area_struct *copy_vma(struct vm_area_struct **vmap,
+       return new_vma;
+ }
++#ifdef CONFIG_PAX_SEGMEXEC
++void pax_mirror_vma(struct vm_area_struct *vma_m, struct vm_area_struct *vma)
++{
++      struct vm_area_struct *prev_m;
++      struct rb_node **rb_link_m, *rb_parent_m;
++      struct mempolicy *pol_m;
++
++      BUG_ON(!(vma->vm_mm->pax_flags & MF_PAX_SEGMEXEC) || !(vma->vm_flags & VM_EXEC));
++      BUG_ON(vma->vm_mirror || vma_m->vm_mirror);
++      BUG_ON(!mpol_equal(vma_policy(vma), vma_policy(vma_m)));
++      *vma_m = *vma;
++      pol_m = vma_policy(vma_m);
++      mpol_get(pol_m);
++      vma_set_policy(vma_m, pol_m);
++      vma_m->vm_start += SEGMEXEC_TASK_SIZE;
++      vma_m->vm_end += SEGMEXEC_TASK_SIZE;
++      vma_m->vm_flags &= ~(VM_WRITE | VM_MAYWRITE | VM_ACCOUNT | VM_LOCKED);
++      vma_m->vm_page_prot = vm_get_page_prot(vma_m->vm_flags);
++      if (vma_m->vm_file)
++              get_file(vma_m->vm_file);
++      if (vma_m->vm_ops && vma_m->vm_ops->open)
++              vma_m->vm_ops->open(vma_m);
++      find_vma_prepare(vma->vm_mm, vma_m->vm_start, &prev_m, &rb_link_m, &rb_parent_m);
++      vma_link(vma->vm_mm, vma_m, prev_m, rb_link_m, rb_parent_m);
++      vma_m->vm_mirror = vma;
++      vma->vm_mirror = vma_m;
++}
++#endif
++
+ /*
+  * Return true if the calling process may expand its vm space by the passed
+  * number of pages
+@@ -2237,7 +2700,7 @@ int may_expand_vm(struct mm_struct *mm, unsigned long npages)
+       unsigned long lim;
+       lim = current->signal->rlim[RLIMIT_AS].rlim_cur >> PAGE_SHIFT;
+-
++      gr_learn_resource(current, RLIMIT_AS, (cur + npages) << PAGE_SHIFT, 1);
+       if (cur + npages > lim)
+               return 0;
+       return 1;
+@@ -2307,6 +2770,22 @@ int install_special_mapping(struct mm_struct *mm,
+       vma->vm_start = addr;
+       vma->vm_end = addr + len;
++#ifdef CONFIG_PAX_MPROTECT
++      if (mm->pax_flags & MF_PAX_MPROTECT) {
++#ifndef CONFIG_PAX_MPROTECT_COMPAT
++              if ((vm_flags & (VM_WRITE | VM_EXEC)) == (VM_WRITE | VM_EXEC))
++                      return -EPERM;
++              if (!(vm_flags & VM_EXEC))
++                      vm_flags &= ~VM_MAYEXEC;
++#else
++              if ((vm_flags & (VM_WRITE | VM_EXEC)) != VM_EXEC)
++                      vm_flags &= ~(VM_EXEC | VM_MAYEXEC);
++#endif
++              else
++                      vm_flags &= ~VM_MAYWRITE;
++      }
++#endif
++
+       vma->vm_flags = vm_flags | mm->def_flags | VM_DONTEXPAND;
+       vma->vm_page_prot = vm_get_page_prot(vma->vm_flags);
+diff --git a/mm/mprotect.c b/mm/mprotect.c
+index 1737c7e..c7faeb4 100644
+--- a/mm/mprotect.c
++++ b/mm/mprotect.c
+@@ -24,10 +24,16 @@
+ #include <linux/mmu_notifier.h>
+ #include <linux/migrate.h>
+ #include <linux/perf_event.h>
++
++#ifdef CONFIG_PAX_MPROTECT
++#include <linux/elf.h>
++#endif
++
+ #include <asm/uaccess.h>
+ #include <asm/pgtable.h>
+ #include <asm/cacheflush.h>
+ #include <asm/tlbflush.h>
++#include <asm/mmu_context.h>
+ #ifndef pgprot_modify
+ static inline pgprot_t pgprot_modify(pgprot_t oldprot, pgprot_t newprot)
+@@ -132,6 +138,48 @@ static void change_protection(struct vm_area_struct *vma,
+       flush_tlb_range(vma, start, end);
+ }
++#ifdef CONFIG_ARCH_TRACK_EXEC_LIMIT
++/* called while holding the mmap semaphor for writing except stack expansion */
++void track_exec_limit(struct mm_struct *mm, unsigned long start, unsigned long end, unsigned long prot)
++{
++      unsigned long oldlimit, newlimit = 0UL;
++
++      if (!(mm->pax_flags & MF_PAX_PAGEEXEC) || nx_enabled)
++              return;
++
++      spin_lock(&mm->page_table_lock);
++      oldlimit = mm->context.user_cs_limit;
++      if ((prot & VM_EXEC) && oldlimit < end)
++              /* USER_CS limit moved up */
++              newlimit = end;
++      else if (!(prot & VM_EXEC) && start < oldlimit && oldlimit <= end)
++              /* USER_CS limit moved down */
++              newlimit = start;
++
++      if (newlimit) {
++              mm->context.user_cs_limit = newlimit;
++
++#ifdef CONFIG_SMP
++              wmb();
++              cpus_clear(mm->context.cpu_user_cs_mask);
++              cpu_set(smp_processor_id(), mm->context.cpu_user_cs_mask);
++#endif
++
++              set_user_cs(mm->context.user_cs_base, mm->context.user_cs_limit, smp_processor_id());
++      }
++      spin_unlock(&mm->page_table_lock);
++      if (newlimit == end) {
++              struct vm_area_struct *vma = find_vma(mm, oldlimit);
++
++              for (; vma && vma->vm_start < end; vma = vma->vm_next)
++                      if (is_vm_hugetlb_page(vma))
++                              hugetlb_change_protection(vma, vma->vm_start, vma->vm_end, vma->vm_page_prot);
++                      else
++                              change_protection(vma, vma->vm_start, vma->vm_end, vma->vm_page_prot, vma_wants_writenotify(vma));
++      }
++}
++#endif
++
+ int
+ mprotect_fixup(struct vm_area_struct *vma, struct vm_area_struct **pprev,
+       unsigned long start, unsigned long end, unsigned long newflags)
+@@ -144,11 +192,29 @@ mprotect_fixup(struct vm_area_struct *vma, struct vm_area_struct **pprev,
+       int error;
+       int dirty_accountable = 0;
++#ifdef CONFIG_PAX_SEGMEXEC
++      struct vm_area_struct *vma_m = NULL;
++      unsigned long start_m, end_m;
++
++      start_m = start + SEGMEXEC_TASK_SIZE;
++      end_m = end + SEGMEXEC_TASK_SIZE;
++#endif
++
+       if (newflags == oldflags) {
+               *pprev = vma;
+               return 0;
+       }
++      if (newflags & (VM_READ | VM_WRITE | VM_EXEC)) {
++              struct vm_area_struct *prev = vma->vm_prev, *next = vma->vm_next;
++
++              if (next && (next->vm_flags & VM_GROWSDOWN) && sysctl_heap_stack_gap > next->vm_start - end)
++                      return -ENOMEM;
++
++              if (prev && (prev->vm_flags & VM_GROWSUP) && sysctl_heap_stack_gap > start - prev->vm_end)
++                      return -ENOMEM;
++      }
++
+       /*
+        * If we make a private mapping writable we increase our commit;
+        * but (without finer accounting) cannot reduce our commit if we
+@@ -165,6 +231,38 @@ mprotect_fixup(struct vm_area_struct *vma, struct vm_area_struct **pprev,
+               }
+       }
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && ((oldflags ^ newflags) & VM_EXEC)) {
++              if (start != vma->vm_start) {
++                      error = split_vma(mm, vma, start, 1);
++                      if (error)
++                              goto fail;
++                      BUG_ON(!*pprev || (*pprev)->vm_next == vma);
++                      *pprev = (*pprev)->vm_next;
++              }
++
++              if (end != vma->vm_end) {
++                      error = split_vma(mm, vma, end, 0);
++                      if (error)
++                              goto fail;
++              }
++
++              if (pax_find_mirror_vma(vma)) {
++                      error = __do_munmap(mm, start_m, end_m - start_m);
++                      if (error)
++                              goto fail;
++              } else {
++                      vma_m = kmem_cache_zalloc(vm_area_cachep, GFP_KERNEL);
++                      if (!vma_m) {
++                              error = -ENOMEM;
++                              goto fail;
++                      }
++                      vma->vm_flags = newflags;
++                      pax_mirror_vma(vma_m, vma);
++              }
++      }
++#endif
++
+       /*
+        * First try to merge with previous and/or next vma.
+        */
+@@ -195,9 +293,21 @@ success:
+        * vm_flags and vm_page_prot are protected by the mmap_sem
+        * held in write mode.
+        */
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if ((mm->pax_flags & MF_PAX_SEGMEXEC) && (newflags & VM_EXEC) && ((vma->vm_flags ^ newflags) & VM_READ))
++              pax_find_mirror_vma(vma)->vm_flags ^= VM_READ;
++#endif
++
+       vma->vm_flags = newflags;
++
++#ifdef CONFIG_PAX_MPROTECT
++      if (mm->binfmt && mm->binfmt->handle_mprotect)
++              mm->binfmt->handle_mprotect(vma, newflags);
++#endif
++
+       vma->vm_page_prot = pgprot_modify(vma->vm_page_prot,
+-                                        vm_get_page_prot(newflags));
++                                        vm_get_page_prot(vma->vm_flags));
+       if (vma_wants_writenotify(vma)) {
+               vma->vm_page_prot = vm_get_page_prot(newflags & ~VM_SHARED);
+@@ -239,6 +349,17 @@ SYSCALL_DEFINE3(mprotect, unsigned long, start, size_t, len,
+       end = start + len;
+       if (end <= start)
+               return -ENOMEM;
++
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (current->mm->pax_flags & MF_PAX_SEGMEXEC) {
++              if (end > SEGMEXEC_TASK_SIZE)
++                      return -EINVAL;
++      } else
++#endif
++
++      if (end > TASK_SIZE)
++              return -EINVAL;
++
+       if (!arch_validate_prot(prot))
+               return -EINVAL;
+@@ -246,7 +367,7 @@ SYSCALL_DEFINE3(mprotect, unsigned long, start, size_t, len,
+       /*
+        * Does the application expect PROT_READ to imply PROT_EXEC:
+        */
+-      if ((prot & PROT_READ) && (current->personality & READ_IMPLIES_EXEC))
++      if ((prot & (PROT_READ | PROT_WRITE)) && (current->personality & READ_IMPLIES_EXEC))
+               prot |= PROT_EXEC;
+       vm_flags = calc_vm_prot_bits(prot);
+@@ -278,6 +399,11 @@ SYSCALL_DEFINE3(mprotect, unsigned long, start, size_t, len,
+       if (start > vma->vm_start)
+               prev = vma;
++#ifdef CONFIG_PAX_MPROTECT
++      if (current->mm->binfmt && current->mm->binfmt->handle_mprotect)
++              current->mm->binfmt->handle_mprotect(vma, vm_flags);
++#endif
++
+       for (nstart = start ; ; ) {
+               unsigned long newflags;
+@@ -287,6 +413,14 @@ SYSCALL_DEFINE3(mprotect, unsigned long, start, size_t, len,
+               /* newflags >> 4 shift VM_MAY% in place of VM_% */
+               if ((newflags & ~(newflags >> 4)) & (VM_READ | VM_WRITE | VM_EXEC)) {
++                      if (prot & (PROT_WRITE | PROT_EXEC))
++                              gr_log_rwxmprotect(vma->vm_file);
++
++                      error = -EACCES;
++                      goto out;
++              }
++
++              if (!gr_acl_handle_mprotect(vma->vm_file, prot)) {
+                       error = -EACCES;
+                       goto out;
+               }
+@@ -301,6 +435,9 @@ SYSCALL_DEFINE3(mprotect, unsigned long, start, size_t, len,
+               error = mprotect_fixup(vma, &prev, nstart, tmp, newflags);
+               if (error)
+                       goto out;
++
++              track_exec_limit(current->mm, nstart, tmp, vm_flags);
++
+               nstart = tmp;
+               if (nstart < prev->vm_end)
+diff --git a/mm/mremap.c b/mm/mremap.c
+index 3e98d79..1706cec 100644
+--- a/mm/mremap.c
++++ b/mm/mremap.c
+@@ -112,6 +112,12 @@ static void move_ptes(struct vm_area_struct *vma, pmd_t *old_pmd,
+                       continue;
+               pte = ptep_clear_flush(vma, old_addr, old_pte);
+               pte = move_pte(pte, new_vma->vm_page_prot, old_addr, new_addr);
++
++#ifdef CONFIG_ARCH_TRACK_EXEC_LIMIT
++              if (!nx_enabled && (new_vma->vm_flags & (VM_PAGEEXEC | VM_EXEC)) == VM_PAGEEXEC)
++                      pte = pte_exprotect(pte);
++#endif
++
+               set_pte_at(mm, new_addr, new_pte, pte);
+       }
+@@ -271,6 +277,11 @@ static struct vm_area_struct *vma_to_resize(unsigned long addr,
+       if (is_vm_hugetlb_page(vma))
+               goto Einval;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (pax_find_mirror_vma(vma))
++              goto Einval;
++#endif
++
+       /* We can't remap across vm area boundaries */
+       if (old_len > vma->vm_end - addr)
+               goto Efault;
+@@ -327,20 +338,25 @@ static unsigned long mremap_to(unsigned long addr,
+       unsigned long ret = -EINVAL;
+       unsigned long charged = 0;
+       unsigned long map_flags;
++      unsigned long pax_task_size = TASK_SIZE;
+       if (new_addr & ~PAGE_MASK)
+               goto out;
+-      if (new_len > TASK_SIZE || new_addr > TASK_SIZE - new_len)
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      pax_task_size -= PAGE_SIZE;
++
++      if (new_len > TASK_SIZE || new_addr > pax_task_size - new_len)
+               goto out;
+       /* Check if the location we're moving into overlaps the
+        * old location at all, and fail if it does.
+        */
+-      if ((new_addr <= addr) && (new_addr+new_len) > addr)
+-              goto out;
+-
+-      if ((addr <= new_addr) && (addr+old_len) > new_addr)
++      if (addr + old_len > new_addr && new_addr + new_len > addr)
+               goto out;
+       ret = security_file_mmap(NULL, 0, 0, 0, new_addr, 1);
+@@ -412,6 +428,7 @@ unsigned long do_mremap(unsigned long addr,
+       struct vm_area_struct *vma;
+       unsigned long ret = -EINVAL;
+       unsigned long charged = 0;
++      unsigned long pax_task_size = TASK_SIZE;
+       if (flags & ~(MREMAP_FIXED | MREMAP_MAYMOVE))
+               goto out;
+@@ -430,6 +447,17 @@ unsigned long do_mremap(unsigned long addr,
+       if (!new_len)
+               goto out;
++#ifdef CONFIG_PAX_SEGMEXEC
++      if (mm->pax_flags & MF_PAX_SEGMEXEC)
++              pax_task_size = SEGMEXEC_TASK_SIZE;
++#endif
++
++      pax_task_size -= PAGE_SIZE;
++
++      if (new_len > pax_task_size || addr > pax_task_size-new_len ||
++          old_len > pax_task_size || addr > pax_task_size-old_len)
++              goto out;
++
+       if (flags & MREMAP_FIXED) {
+               if (flags & MREMAP_MAYMOVE)
+                       ret = mremap_to(addr, old_len, new_addr, new_len);
+@@ -476,6 +504,7 @@ unsigned long do_mremap(unsigned long addr,
+                                                  addr + new_len);
+                       }
+                       ret = addr;
++                      track_exec_limit(vma->vm_mm, vma->vm_start, addr + new_len, vma->vm_flags);
+                       goto out;
+               }
+       }
+@@ -502,7 +531,13 @@ unsigned long do_mremap(unsigned long addr,
+               ret = security_file_mmap(NULL, 0, 0, 0, new_addr, 1);
+               if (ret)
+                       goto out;
++
++              map_flags = vma->vm_flags;
+               ret = move_vma(vma, addr, old_len, new_len, new_addr);
++              if (!(ret & ~PAGE_MASK)) {
++                      track_exec_limit(current->mm, addr, addr + old_len, 0UL);
++                      track_exec_limit(current->mm, new_addr, new_addr + new_len, map_flags);
++              }
+       }
+ out:
+       if (ret & ~PAGE_MASK)
+diff --git a/mm/nommu.c b/mm/nommu.c
+index 406e8d4..53970d3 100644
+--- a/mm/nommu.c
++++ b/mm/nommu.c
+@@ -67,7 +67,6 @@ int sysctl_overcommit_memory = OVERCOMMIT_GUESS; /* heuristic overcommit */
+ int sysctl_overcommit_ratio = 50; /* default is 50% */
+ int sysctl_max_map_count = DEFAULT_MAX_MAP_COUNT;
+ int sysctl_nr_trim_pages = CONFIG_NOMMU_INITIAL_TRIM_EXCESS;
+-int heap_stack_gap = 0;
+ atomic_long_t mmap_pages_allocated;
+@@ -761,15 +760,6 @@ struct vm_area_struct *find_vma(struct mm_struct *mm, unsigned long addr)
+ EXPORT_SYMBOL(find_vma);
+ /*
+- * find a VMA
+- * - we don't extend stack VMAs under NOMMU conditions
+- */
+-struct vm_area_struct *find_extend_vma(struct mm_struct *mm, unsigned long addr)
+-{
+-      return find_vma(mm, addr);
+-}
+-
+-/*
+  * expand a stack to a given address
+  * - not supported under NOMMU conditions
+  */
+diff --git a/mm/page_alloc.c b/mm/page_alloc.c
+index 3ecab7e..594a471 100644
+--- a/mm/page_alloc.c
++++ b/mm/page_alloc.c
+@@ -289,7 +289,7 @@ out:
+  * This usage means that zero-order pages may not be compound.
+  */
+-static void free_compound_page(struct page *page)
++void free_compound_page(struct page *page)
+ {
+       __free_pages_ok(page, compound_order(page));
+ }
+@@ -587,6 +587,10 @@ static void __free_pages_ok(struct page *page, unsigned int order)
+       int bad = 0;
+       int wasMlocked = __TestClearPageMlocked(page);
++#ifdef CONFIG_PAX_MEMORY_SANITIZE
++      unsigned long index = 1UL << order;
++#endif
++
+       kmemcheck_free_shadow(page, order);
+       for (i = 0 ; i < (1 << order) ; ++i)
+@@ -599,6 +603,12 @@ static void __free_pages_ok(struct page *page, unsigned int order)
+               debug_check_no_obj_freed(page_address(page),
+                                          PAGE_SIZE << order);
+       }
++
++#ifdef CONFIG_PAX_MEMORY_SANITIZE
++      for (; index; --index)
++              sanitize_highpage(page + index - 1);
++#endif
++
+       arch_free_page(page, order);
+       kernel_map_pages(page, 1 << order, 0);
+@@ -702,8 +712,10 @@ static int prep_new_page(struct page *page, int order, gfp_t gfp_flags)
+       arch_alloc_page(page, order);
+       kernel_map_pages(page, 1 << order, 1);
++#ifndef CONFIG_PAX_MEMORY_SANITIZE
+       if (gfp_flags & __GFP_ZERO)
+               prep_zero_page(page, order, gfp_flags);
++#endif
+       if (order && (gfp_flags & __GFP_COMP))
+               prep_compound_page(page, order);
+@@ -1097,6 +1109,11 @@ static void free_hot_cold_page(struct page *page, int cold)
+               debug_check_no_locks_freed(page_address(page), PAGE_SIZE);
+               debug_check_no_obj_freed(page_address(page), PAGE_SIZE);
+       }
++
++#ifdef CONFIG_PAX_MEMORY_SANITIZE
++      sanitize_highpage(page);
++#endif
++
+       arch_free_page(page, 0);
+       kernel_map_pages(page, 1, 0);
+@@ -2179,6 +2196,8 @@ void show_free_areas(void)
+       int cpu;
+       struct zone *zone;
++      pax_track_stack();
++
+       for_each_populated_zone(zone) {
+               show_node(zone);
+               printk("%s per-cpu:\n", zone->name);
+@@ -3736,7 +3755,7 @@ static void __init setup_usemap(struct pglist_data *pgdat,
+               zone->pageblock_flags = alloc_bootmem_node(pgdat, usemapsize);
+ }
+ #else
+-static void inline setup_usemap(struct pglist_data *pgdat,
++static inline void setup_usemap(struct pglist_data *pgdat,
+                               struct zone *zone, unsigned long zonesize) {}
+ #endif /* CONFIG_SPARSEMEM */
+diff --git a/mm/percpu.c b/mm/percpu.c
+index c90614a..5f7b7b8 100644
+--- a/mm/percpu.c
++++ b/mm/percpu.c
+@@ -115,7 +115,7 @@ static unsigned int pcpu_low_unit_cpu __read_mostly;
+ static unsigned int pcpu_high_unit_cpu __read_mostly;
+ /* the address of the first chunk which starts with the kernel static area */
+-void *pcpu_base_addr __read_mostly;
++void *pcpu_base_addr __read_only;
+ EXPORT_SYMBOL_GPL(pcpu_base_addr);
+ static const int *pcpu_unit_map __read_mostly;                /* cpu -> unit */
+diff --git a/mm/rmap.c b/mm/rmap.c
+index dd43373..d848cd7 100644
+--- a/mm/rmap.c
++++ b/mm/rmap.c
+@@ -121,6 +121,17 @@ int anon_vma_prepare(struct vm_area_struct *vma)
+               /* page_table_lock to protect against threads */
+               spin_lock(&mm->page_table_lock);
+               if (likely(!vma->anon_vma)) {
++
++#ifdef CONFIG_PAX_SEGMEXEC
++                      struct vm_area_struct *vma_m = pax_find_mirror_vma(vma);
++
++                      if (vma_m) {
++                              BUG_ON(vma_m->anon_vma);
++                              vma_m->anon_vma = anon_vma;
++                              list_add_tail(&vma_m->anon_vma_node, &anon_vma->head);
++                      }
++#endif
++
+                       vma->anon_vma = anon_vma;
+                       list_add_tail(&vma->anon_vma_node, &anon_vma->head);
+                       allocated = NULL;
+diff --git a/mm/shmem.c b/mm/shmem.c
+index 3e0005b..1d659a8 100644
+--- a/mm/shmem.c
++++ b/mm/shmem.c
+@@ -31,7 +31,7 @@
+ #include <linux/swap.h>
+ #include <linux/ima.h>
+-static struct vfsmount *shm_mnt;
++struct vfsmount *shm_mnt;
+ #ifdef CONFIG_SHMEM
+ /*
+@@ -1061,6 +1061,8 @@ static int shmem_writepage(struct page *page, struct writeback_control *wbc)
+               goto unlock;
+       }
+       entry = shmem_swp_entry(info, index, NULL);
++      if (!entry)
++              goto unlock;
+       if (entry->val) {
+               /*
+                * The more uptodate page coming down from a stacked
+@@ -1144,6 +1146,8 @@ static struct page *shmem_swapin(swp_entry_t entry, gfp_t gfp,
+       struct vm_area_struct pvma;
+       struct page *page;
++      pax_track_stack();
++
+       spol = mpol_cond_copy(&mpol,
+                               mpol_shared_policy_lookup(&info->policy, idx));
+@@ -1962,7 +1966,7 @@ static int shmem_symlink(struct inode *dir, struct dentry *dentry, const char *s
+       info = SHMEM_I(inode);
+       inode->i_size = len-1;
+-      if (len <= (char *)inode - (char *)info) {
++      if (len <= (char *)inode - (char *)info && len <= 64) {
+               /* do it inline */
+               memcpy(info, symname, len);
+               inode->i_op = &shmem_symlink_inline_operations;
+@@ -2310,8 +2314,7 @@ int shmem_fill_super(struct super_block *sb, void *data, int silent)
+       int err = -ENOMEM;
+       /* Round up to L1_CACHE_BYTES to resist false sharing */
+-      sbinfo = kzalloc(max((int)sizeof(struct shmem_sb_info),
+-                              L1_CACHE_BYTES), GFP_KERNEL);
++      sbinfo = kzalloc(max(sizeof(struct shmem_sb_info), L1_CACHE_BYTES), GFP_KERNEL);
+       if (!sbinfo)
+               return -ENOMEM;
+diff --git a/mm/slab.c b/mm/slab.c
+index c8d466a..909e01e 100644
+--- a/mm/slab.c
++++ b/mm/slab.c
+@@ -174,7 +174,7 @@
+ /* Legal flag mask for kmem_cache_create(). */
+ #if DEBUG
+-# define CREATE_MASK  (SLAB_RED_ZONE | \
++# define CREATE_MASK  (SLAB_USERCOPY | SLAB_RED_ZONE | \
+                        SLAB_POISON | SLAB_HWCACHE_ALIGN | \
+                        SLAB_CACHE_DMA | \
+                        SLAB_STORE_USER | \
+@@ -182,7 +182,7 @@
+                        SLAB_DESTROY_BY_RCU | SLAB_MEM_SPREAD | \
+                        SLAB_DEBUG_OBJECTS | SLAB_NOLEAKTRACE | SLAB_NOTRACK)
+ #else
+-# define CREATE_MASK  (SLAB_HWCACHE_ALIGN | \
++# define CREATE_MASK  (SLAB_USERCOPY | SLAB_HWCACHE_ALIGN | \
+                        SLAB_CACHE_DMA | \
+                        SLAB_RECLAIM_ACCOUNT | SLAB_PANIC | \
+                        SLAB_DESTROY_BY_RCU | SLAB_MEM_SPREAD | \
+@@ -308,7 +308,7 @@ struct kmem_list3 {
+  * Need this for bootstrapping a per node allocator.
+  */
+ #define NUM_INIT_LISTS (3 * MAX_NUMNODES)
+-struct kmem_list3 __initdata initkmem_list3[NUM_INIT_LISTS];
++struct kmem_list3 initkmem_list3[NUM_INIT_LISTS];
+ #define       CACHE_CACHE 0
+ #define       SIZE_AC MAX_NUMNODES
+ #define       SIZE_L3 (2 * MAX_NUMNODES)
+@@ -409,10 +409,10 @@ static void kmem_list3_init(struct kmem_list3 *parent)
+               if ((x)->max_freeable < i)                              \
+                       (x)->max_freeable = i;                          \
+       } while (0)
+-#define STATS_INC_ALLOCHIT(x) atomic_inc(&(x)->allochit)
+-#define STATS_INC_ALLOCMISS(x)        atomic_inc(&(x)->allocmiss)
+-#define STATS_INC_FREEHIT(x)  atomic_inc(&(x)->freehit)
+-#define STATS_INC_FREEMISS(x) atomic_inc(&(x)->freemiss)
++#define STATS_INC_ALLOCHIT(x) atomic_inc_unchecked(&(x)->allochit)
++#define STATS_INC_ALLOCMISS(x)        atomic_inc_unchecked(&(x)->allocmiss)
++#define STATS_INC_FREEHIT(x)  atomic_inc_unchecked(&(x)->freehit)
++#define STATS_INC_FREEMISS(x) atomic_inc_unchecked(&(x)->freemiss)
+ #else
+ #define       STATS_INC_ACTIVE(x)     do { } while (0)
+ #define       STATS_DEC_ACTIVE(x)     do { } while (0)
+@@ -558,7 +558,7 @@ static inline void *index_to_obj(struct kmem_cache *cache, struct slab *slab,
+  *   reciprocal_divide(offset, cache->reciprocal_buffer_size)
+  */
+ static inline unsigned int obj_to_index(const struct kmem_cache *cache,
+-                                      const struct slab *slab, void *obj)
++                                      const struct slab *slab, const void *obj)
+ {
+       u32 offset = (obj - slab->s_mem);
+       return reciprocal_divide(offset, cache->reciprocal_buffer_size);
+@@ -1453,7 +1453,7 @@ void __init kmem_cache_init(void)
+       sizes[INDEX_AC].cs_cachep = kmem_cache_create(names[INDEX_AC].name,
+                                       sizes[INDEX_AC].cs_size,
+                                       ARCH_KMALLOC_MINALIGN,
+-                                      ARCH_KMALLOC_FLAGS|SLAB_PANIC,
++                                      ARCH_KMALLOC_FLAGS|SLAB_PANIC|SLAB_USERCOPY,
+                                       NULL);
+       if (INDEX_AC != INDEX_L3) {
+@@ -1461,7 +1461,7 @@ void __init kmem_cache_init(void)
+                       kmem_cache_create(names[INDEX_L3].name,
+                               sizes[INDEX_L3].cs_size,
+                               ARCH_KMALLOC_MINALIGN,
+-                              ARCH_KMALLOC_FLAGS|SLAB_PANIC,
++                              ARCH_KMALLOC_FLAGS|SLAB_PANIC|SLAB_USERCOPY,
+                               NULL);
+       }
+@@ -1479,7 +1479,7 @@ void __init kmem_cache_init(void)
+                       sizes->cs_cachep = kmem_cache_create(names->name,
+                                       sizes->cs_size,
+                                       ARCH_KMALLOC_MINALIGN,
+-                                      ARCH_KMALLOC_FLAGS|SLAB_PANIC,
++                                      ARCH_KMALLOC_FLAGS|SLAB_PANIC|SLAB_USERCOPY,
+                                       NULL);
+               }
+ #ifdef CONFIG_ZONE_DMA
+@@ -4211,10 +4211,10 @@ static int s_show(struct seq_file *m, void *p)
+       }
+       /* cpu stats */
+       {
+-              unsigned long allochit = atomic_read(&cachep->allochit);
+-              unsigned long allocmiss = atomic_read(&cachep->allocmiss);
+-              unsigned long freehit = atomic_read(&cachep->freehit);
+-              unsigned long freemiss = atomic_read(&cachep->freemiss);
++              unsigned long allochit = atomic_read_unchecked(&cachep->allochit);
++              unsigned long allocmiss = atomic_read_unchecked(&cachep->allocmiss);
++              unsigned long freehit = atomic_read_unchecked(&cachep->freehit);
++              unsigned long freemiss = atomic_read_unchecked(&cachep->freemiss);
+               seq_printf(m, " : cpustat %6lu %6lu %6lu %6lu",
+                          allochit, allocmiss, freehit, freemiss);
+@@ -4471,15 +4471,70 @@ static const struct file_operations proc_slabstats_operations = {
+ static int __init slab_proc_init(void)
+ {
+-      proc_create("slabinfo",S_IWUSR|S_IRUGO,NULL,&proc_slabinfo_operations);
++      mode_t gr_mode = S_IRUGO;
++
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++      gr_mode = S_IRUSR;
++#endif
++
++      proc_create("slabinfo",S_IWUSR|gr_mode,NULL,&proc_slabinfo_operations);
+ #ifdef CONFIG_DEBUG_SLAB_LEAK
+-      proc_create("slab_allocators", 0, NULL, &proc_slabstats_operations);
++      proc_create("slab_allocators", gr_mode, NULL, &proc_slabstats_operations);
+ #endif
+       return 0;
+ }
+ module_init(slab_proc_init);
+ #endif
++void check_object_size(const void *ptr, unsigned long n, bool to)
++{
++
++#ifdef CONFIG_PAX_USERCOPY
++      struct page *page;
++      struct kmem_cache *cachep = NULL;
++      struct slab *slabp;
++      unsigned int objnr;
++      unsigned long offset;
++      const char *type;
++
++      if (!n)
++              return;
++
++      type = "<null>";
++      if (ZERO_OR_NULL_PTR(ptr))
++              goto report;
++
++      if (!virt_addr_valid(ptr))
++              return;
++
++      page = virt_to_head_page(ptr);
++
++      type = "<process stack>";
++      if (!PageSlab(page)) {
++              if (object_is_on_stack(ptr, n) == -1)
++                      goto report;
++              return;
++      }
++
++      cachep = page_get_cache(page);
++      type = cachep->name;
++      if (!(cachep->flags & SLAB_USERCOPY))
++              goto report;
++
++      slabp = page_get_slab(page);
++      objnr = obj_to_index(cachep, slabp, ptr);
++      BUG_ON(objnr >= cachep->num);
++      offset = ptr - index_to_obj(cachep, slabp, objnr) - obj_offset(cachep);
++      if (offset <= obj_size(cachep) && n <= obj_size(cachep) - offset)
++              return;
++
++report:
++      pax_report_usercopy(ptr, n, to, type);
++#endif
++
++}
++EXPORT_SYMBOL(check_object_size);
++
+ /**
+  * ksize - get the actual amount of memory allocated for a given object
+  * @objp: Pointer to the object
+diff --git a/mm/slob.c b/mm/slob.c
+index 837ebd6..4712174 100644
+--- a/mm/slob.c
++++ b/mm/slob.c
+@@ -29,7 +29,7 @@
+  * If kmalloc is asked for objects of PAGE_SIZE or larger, it calls
+  * alloc_pages() directly, allocating compound pages so the page order
+  * does not have to be separately tracked, and also stores the exact
+- * allocation size in page->private so that it can be used to accurately
++ * allocation size in slob_page->size so that it can be used to accurately
+  * provide ksize(). These objects are detected in kfree() because slob_page()
+  * is false for them.
+  *
+@@ -58,6 +58,7 @@
+  */
+ #include <linux/kernel.h>
++#include <linux/sched.h>
+ #include <linux/slab.h>
+ #include <linux/mm.h>
+ #include <linux/swap.h> /* struct reclaim_state */
+@@ -100,7 +101,8 @@ struct slob_page {
+                       unsigned long flags;    /* mandatory */
+                       atomic_t _count;        /* mandatory */
+                       slobidx_t units;        /* free units left in page */
+-                      unsigned long pad[2];
++                      unsigned long pad[1];
++                      unsigned long size;     /* size when >=PAGE_SIZE */
+                       slob_t *free;           /* first free slob_t in page */
+                       struct list_head list;  /* linked list of free pages */
+               };
+@@ -133,7 +135,7 @@ static LIST_HEAD(free_slob_large);
+  */
+ static inline int is_slob_page(struct slob_page *sp)
+ {
+-      return PageSlab((struct page *)sp);
++      return PageSlab((struct page *)sp) && !sp->size;
+ }
+ static inline void set_slob_page(struct slob_page *sp)
+@@ -148,7 +150,7 @@ static inline void clear_slob_page(struct slob_page *sp)
+ static inline struct slob_page *slob_page(const void *addr)
+ {
+-      return (struct slob_page *)virt_to_page(addr);
++      return (struct slob_page *)virt_to_head_page(addr);
+ }
+ /*
+@@ -208,7 +210,7 @@ static void set_slob(slob_t *s, slobidx_t size, slob_t *next)
+ /*
+  * Return the size of a slob block.
+  */
+-static slobidx_t slob_units(slob_t *s)
++static slobidx_t slob_units(const slob_t *s)
+ {
+       if (s->units > 0)
+               return s->units;
+@@ -218,7 +220,7 @@ static slobidx_t slob_units(slob_t *s)
+ /*
+  * Return the next free slob block pointer after this one.
+  */
+-static slob_t *slob_next(slob_t *s)
++static slob_t *slob_next(const slob_t *s)
+ {
+       slob_t *base = (slob_t *)((unsigned long)s & PAGE_MASK);
+       slobidx_t next;
+@@ -233,7 +235,7 @@ static slob_t *slob_next(slob_t *s)
+ /*
+  * Returns true if s is the last free block in its page.
+  */
+-static int slob_last(slob_t *s)
++static int slob_last(const slob_t *s)
+ {
+       return !((unsigned long)slob_next(s) & ~PAGE_MASK);
+ }
+@@ -252,6 +254,7 @@ static void *slob_new_pages(gfp_t gfp, int order, int node)
+       if (!page)
+               return NULL;
++      set_slob_page(page);
+       return page_address(page);
+ }
+@@ -368,11 +371,11 @@ static void *slob_alloc(size_t size, gfp_t gfp, int align, int node)
+               if (!b)
+                       return NULL;
+               sp = slob_page(b);
+-              set_slob_page(sp);
+               spin_lock_irqsave(&slob_lock, flags);
+               sp->units = SLOB_UNITS(PAGE_SIZE);
+               sp->free = b;
++              sp->size = 0;
+               INIT_LIST_HEAD(&sp->list);
+               set_slob(b, SLOB_UNITS(PAGE_SIZE), b + SLOB_UNITS(PAGE_SIZE));
+               set_slob_page_free(sp, slob_list);
+@@ -475,10 +478,9 @@ out:
+ #define ARCH_SLAB_MINALIGN __alignof__(unsigned long)
+ #endif
+-void *__kmalloc_node(size_t size, gfp_t gfp, int node)
++static void *__kmalloc_node_align(size_t size, gfp_t gfp, int node, int align)
+ {
+-      unsigned int *m;
+-      int align = max(ARCH_KMALLOC_MINALIGN, ARCH_SLAB_MINALIGN);
++      slob_t *m;
+       void *ret;
+       lockdep_trace_alloc(gfp);
+@@ -491,7 +493,10 @@ void *__kmalloc_node(size_t size, gfp_t gfp, int node)
+               if (!m)
+                       return NULL;
+-              *m = size;
++              BUILD_BUG_ON(ARCH_KMALLOC_MINALIGN < 2 * SLOB_UNIT);
++              BUILD_BUG_ON(ARCH_SLAB_MINALIGN < 2 * SLOB_UNIT);
++              m[0].units = size;
++              m[1].units = align;
+               ret = (void *)m + align;
+               trace_kmalloc_node(_RET_IP_, ret,
+@@ -501,16 +506,25 @@ void *__kmalloc_node(size_t size, gfp_t gfp, int node)
+               ret = slob_new_pages(gfp | __GFP_COMP, get_order(size), node);
+               if (ret) {
+-                      struct page *page;
+-                      page = virt_to_page(ret);
+-                      page->private = size;
++                      struct slob_page *sp;
++                      sp = slob_page(ret);
++                      sp->size = size;
+               }
+               trace_kmalloc_node(_RET_IP_, ret,
+                                  size, PAGE_SIZE << order, gfp, node);
+       }
+-      kmemleak_alloc(ret, size, 1, gfp);
++      return ret;
++}
++
++void *__kmalloc_node(size_t size, gfp_t gfp, int node)
++{
++      int align = max(ARCH_KMALLOC_MINALIGN, ARCH_SLAB_MINALIGN);
++      void *ret = __kmalloc_node_align(size, gfp, node, align);
++
++      if (!ZERO_OR_NULL_PTR(ret))
++              kmemleak_alloc(ret, size, 1, gfp);
+       return ret;
+ }
+ EXPORT_SYMBOL(__kmalloc_node);
+@@ -528,13 +542,92 @@ void kfree(const void *block)
+       sp = slob_page(block);
+       if (is_slob_page(sp)) {
+               int align = max(ARCH_KMALLOC_MINALIGN, ARCH_SLAB_MINALIGN);
+-              unsigned int *m = (unsigned int *)(block - align);
+-              slob_free(m, *m + align);
+-      } else
++              slob_t *m = (slob_t *)(block - align);
++              slob_free(m, m[0].units + align);
++      } else {
++              clear_slob_page(sp);
++              free_slob_page(sp);
++              sp->size = 0;
+               put_page(&sp->page);
++      }
+ }
+ EXPORT_SYMBOL(kfree);
++void check_object_size(const void *ptr, unsigned long n, bool to)
++{
++
++#ifdef CONFIG_PAX_USERCOPY
++      struct slob_page *sp;
++      const slob_t *free;
++      const void *base;
++      unsigned long flags;
++      const char *type;
++
++      if (!n)
++              return;
++
++      type = "<null>";
++      if (ZERO_OR_NULL_PTR(ptr))
++              goto report;
++
++      if (!virt_addr_valid(ptr))
++              return;
++
++      type = "<process stack>";
++      sp = slob_page(ptr);
++      if (!PageSlab((struct page*)sp)) {
++              if (object_is_on_stack(ptr, n) == -1)
++                      goto report;
++              return;
++      }
++
++      type = "<slob>";
++      if (sp->size) {
++              base = page_address(&sp->page);
++              if (base <= ptr && n <= sp->size - (ptr - base))
++                      return;
++              goto report;
++      }
++
++      /* some tricky double walking to find the chunk */
++      spin_lock_irqsave(&slob_lock, flags);
++      base = (void *)((unsigned long)ptr & PAGE_MASK);
++      free = sp->free;
++
++      while (!slob_last(free) && (void *)free <= ptr) {
++              base = free + slob_units(free);
++              free = slob_next(free);
++      }
++
++      while (base < (void *)free) {
++              slobidx_t m = ((slob_t *)base)[0].units, align = ((slob_t *)base)[1].units;
++              int size = SLOB_UNIT * SLOB_UNITS(m + align);
++              int offset;
++
++              if (ptr < base + align)
++                      break;
++
++              offset = ptr - base - align;
++              if (offset >= m) {
++                      base += size;
++                      continue;
++              }
++
++              if (n > m - offset)
++                      break;
++
++              spin_unlock_irqrestore(&slob_lock, flags);
++              return;
++      }
++
++      spin_unlock_irqrestore(&slob_lock, flags);
++report:
++      pax_report_usercopy(ptr, n, to, type);
++#endif
++
++}
++EXPORT_SYMBOL(check_object_size);
++
+ /* can't use ksize for kmem_cache_alloc memory, only kmalloc */
+ size_t ksize(const void *block)
+ {
+@@ -547,10 +640,10 @@ size_t ksize(const void *block)
+       sp = slob_page(block);
+       if (is_slob_page(sp)) {
+               int align = max(ARCH_KMALLOC_MINALIGN, ARCH_SLAB_MINALIGN);
+-              unsigned int *m = (unsigned int *)(block - align);
+-              return SLOB_UNITS(*m) * SLOB_UNIT;
++              slob_t *m = (slob_t *)(block - align);
++              return SLOB_UNITS(m[0].units) * SLOB_UNIT;
+       } else
+-              return sp->page.private;
++              return sp->size;
+ }
+ EXPORT_SYMBOL(ksize);
+@@ -566,8 +659,13 @@ struct kmem_cache *kmem_cache_create(const char *name, size_t size,
+ {
+       struct kmem_cache *c;
++#ifdef CONFIG_PAX_USERCOPY
++      c = __kmalloc_node_align(sizeof(struct kmem_cache),
++              GFP_KERNEL, -1, ARCH_KMALLOC_MINALIGN);
++#else
+       c = slob_alloc(sizeof(struct kmem_cache),
+               GFP_KERNEL, ARCH_KMALLOC_MINALIGN, -1);
++#endif
+       if (c) {
+               c->name = name;
+@@ -605,17 +703,25 @@ void *kmem_cache_alloc_node(struct kmem_cache *c, gfp_t flags, int node)
+ {
+       void *b;
++#ifdef CONFIG_PAX_USERCOPY
++      b = __kmalloc_node_align(c->size, flags, node, c->align);
++#else
+       if (c->size < PAGE_SIZE) {
+               b = slob_alloc(c->size, flags, c->align, node);
+               trace_kmem_cache_alloc_node(_RET_IP_, b, c->size,
+                                           SLOB_UNITS(c->size) * SLOB_UNIT,
+                                           flags, node);
+       } else {
++              struct slob_page *sp;
++
+               b = slob_new_pages(flags, get_order(c->size), node);
++              sp = slob_page(b);
++              sp->size = c->size;
+               trace_kmem_cache_alloc_node(_RET_IP_, b, c->size,
+                                           PAGE_SIZE << get_order(c->size),
+                                           flags, node);
+       }
++#endif
+       if (c->ctor)
+               c->ctor(b);
+@@ -627,10 +733,16 @@ EXPORT_SYMBOL(kmem_cache_alloc_node);
+ static void __kmem_cache_free(void *b, int size)
+ {
+-      if (size < PAGE_SIZE)
++      struct slob_page *sp = slob_page(b);
++
++      if (is_slob_page(sp))
+               slob_free(b, size);
+-      else
++      else {
++              clear_slob_page(sp);
++              free_slob_page(sp);
++              sp->size = 0;
+               slob_free_pages(b, get_order(size));
++      }
+ }
+ static void kmem_rcu_free(struct rcu_head *head)
+@@ -643,18 +755,32 @@ static void kmem_rcu_free(struct rcu_head *head)
+ void kmem_cache_free(struct kmem_cache *c, void *b)
+ {
++      int size = c->size;
++
++#ifdef CONFIG_PAX_USERCOPY
++      if (size + c->align < PAGE_SIZE) {
++              size += c->align;
++              b -= c->align;
++      }
++#endif
++
+       kmemleak_free_recursive(b, c->flags);
+       if (unlikely(c->flags & SLAB_DESTROY_BY_RCU)) {
+               struct slob_rcu *slob_rcu;
+-              slob_rcu = b + (c->size - sizeof(struct slob_rcu));
++              slob_rcu = b + (size - sizeof(struct slob_rcu));
+               INIT_RCU_HEAD(&slob_rcu->head);
+-              slob_rcu->size = c->size;
++              slob_rcu->size = size;
+               call_rcu(&slob_rcu->head, kmem_rcu_free);
+       } else {
+-              __kmem_cache_free(b, c->size);
++              __kmem_cache_free(b, size);
+       }
++#ifdef CONFIG_PAX_USERCOPY
++      trace_kfree(_RET_IP_, b);
++#else
+       trace_kmem_cache_free(_RET_IP_, b);
++#endif
++
+ }
+ EXPORT_SYMBOL(kmem_cache_free);
+diff --git a/mm/slub.c b/mm/slub.c
+index 4996fc7..87e01d0 100644
+--- a/mm/slub.c
++++ b/mm/slub.c
+@@ -201,7 +201,7 @@ struct track {
+ enum track_item { TRACK_ALLOC, TRACK_FREE };
+-#ifdef CONFIG_SLUB_DEBUG
++#if defined(CONFIG_SLUB_DEBUG) && !defined(CONFIG_GRKERNSEC_PROC_ADD)
+ static int sysfs_slab_add(struct kmem_cache *);
+ static int sysfs_slab_alias(struct kmem_cache *, const char *);
+ static void sysfs_slab_remove(struct kmem_cache *);
+@@ -410,7 +410,7 @@ static void print_track(const char *s, struct track *t)
+       if (!t->addr)
+               return;
+-      printk(KERN_ERR "INFO: %s in %pS age=%lu cpu=%u pid=%d\n",
++      printk(KERN_ERR "INFO: %s in %pA age=%lu cpu=%u pid=%d\n",
+               s, (void *)t->addr, jiffies - t->when, t->cpu, t->pid);
+ }
+@@ -1893,6 +1893,8 @@ void kmem_cache_free(struct kmem_cache *s, void *x)
+       page = virt_to_head_page(x);
++      BUG_ON(!PageSlab(page));
++
+       slab_free(s, page, x, _RET_IP_);
+       trace_kmem_cache_free(_RET_IP_, x);
+@@ -1937,7 +1939,7 @@ static int slub_min_objects;
+  * Merge control. If this is set then no merging of slab caches will occur.
+  * (Could be removed. This was introduced to pacify the merge skeptics.)
+  */
+-static int slub_nomerge;
++static int slub_nomerge = 1;
+ /*
+  * Calculate the order of allocation given an slab object size.
+@@ -2493,7 +2495,7 @@ static int kmem_cache_open(struct kmem_cache *s, gfp_t gfpflags,
+        * list to avoid pounding the page allocator excessively.
+        */
+       set_min_partial(s, ilog2(s->size));
+-      s->refcount = 1;
++      atomic_set(&s->refcount, 1);
+ #ifdef CONFIG_NUMA
+       s->remote_node_defrag_ratio = 1000;
+ #endif
+@@ -2630,8 +2632,7 @@ static inline int kmem_cache_close(struct kmem_cache *s)
+ void kmem_cache_destroy(struct kmem_cache *s)
+ {
+       down_write(&slub_lock);
+-      s->refcount--;
+-      if (!s->refcount) {
++      if (atomic_dec_and_test(&s->refcount)) {
+               list_del(&s->list);
+               up_write(&slub_lock);
+               if (kmem_cache_close(s)) {
+@@ -2691,12 +2692,10 @@ static int __init setup_slub_nomerge(char *str)
+ __setup("slub_nomerge", setup_slub_nomerge);
+ static struct kmem_cache *create_kmalloc_cache(struct kmem_cache *s,
+-              const char *name, int size, gfp_t gfp_flags)
++              const char *name, int size, gfp_t gfp_flags, unsigned int flags)
+ {
+-      unsigned int flags = 0;
+-
+       if (gfp_flags & SLUB_DMA)
+-              flags = SLAB_CACHE_DMA;
++              flags |= SLAB_CACHE_DMA;
+       /*
+        * This function is called with IRQs disabled during early-boot on
+@@ -2915,6 +2914,50 @@ void *__kmalloc_node(size_t size, gfp_t flags, int node)
+ EXPORT_SYMBOL(__kmalloc_node);
+ #endif
++void check_object_size(const void *ptr, unsigned long n, bool to)
++{
++
++#ifdef CONFIG_PAX_USERCOPY
++      struct page *page;
++      struct kmem_cache *s = NULL;
++      unsigned long offset;
++      const char *type;
++
++      if (!n)
++              return;
++
++      type = "<null>";
++      if (ZERO_OR_NULL_PTR(ptr))
++              goto report;
++
++      if (!virt_addr_valid(ptr))
++              return;
++
++      page = get_object_page(ptr);
++
++      type = "<process stack>";
++      if (!page) {
++              if (object_is_on_stack(ptr, n) == -1)
++                      goto report;
++              return;
++      }
++
++      s = page->slab;
++      type = s->name;
++      if (!(s->flags & SLAB_USERCOPY))
++              goto report;
++
++      offset = (ptr - page_address(page)) % s->size;
++      if (offset <= s->objsize && n <= s->objsize - offset)
++              return;
++
++report:
++      pax_report_usercopy(ptr, n, to, type);
++#endif
++
++}
++EXPORT_SYMBOL(check_object_size);
++
+ size_t ksize(const void *object)
+ {
+       struct page *page;
+@@ -3185,8 +3228,8 @@ void __init kmem_cache_init(void)
+        * kmem_cache_open for slab_state == DOWN.
+        */
+       create_kmalloc_cache(&kmalloc_caches[0], "kmem_cache_node",
+-              sizeof(struct kmem_cache_node), GFP_NOWAIT);
+-      kmalloc_caches[0].refcount = -1;
++              sizeof(struct kmem_cache_node), GFP_NOWAIT, 0);
++      atomic_set(&kmalloc_caches[0].refcount, -1);
+       caches++;
+       hotplug_memory_notifier(slab_memory_callback, SLAB_CALLBACK_PRI);
+@@ -3198,18 +3241,18 @@ void __init kmem_cache_init(void)
+       /* Caches that are not of the two-to-the-power-of size */
+       if (KMALLOC_MIN_SIZE <= 32) {
+               create_kmalloc_cache(&kmalloc_caches[1],
+-                              "kmalloc-96", 96, GFP_NOWAIT);
++                              "kmalloc-96", 96, GFP_NOWAIT, SLAB_USERCOPY);
+               caches++;
+       }
+       if (KMALLOC_MIN_SIZE <= 64) {
+               create_kmalloc_cache(&kmalloc_caches[2],
+-                              "kmalloc-192", 192, GFP_NOWAIT);
++                              "kmalloc-192", 192, GFP_NOWAIT, SLAB_USERCOPY);
+               caches++;
+       }
+       for (i = KMALLOC_SHIFT_LOW; i < SLUB_PAGE_SHIFT; i++) {
+               create_kmalloc_cache(&kmalloc_caches[i],
+-                      "kmalloc", 1 << i, GFP_NOWAIT);
++                      "kmalloc", 1 << i, GFP_NOWAIT, SLAB_USERCOPY);
+               caches++;
+       }
+@@ -3293,7 +3336,7 @@ static int slab_unmergeable(struct kmem_cache *s)
+       /*
+        * We may have set a slab to be unmergeable during bootstrap.
+        */
+-      if (s->refcount < 0)
++      if (atomic_read(&s->refcount) < 0)
+               return 1;
+       return 0;
+@@ -3353,7 +3396,7 @@ struct kmem_cache *kmem_cache_create(const char *name, size_t size,
+       if (s) {
+               int cpu;
+-              s->refcount++;
++              atomic_inc(&s->refcount);
+               /*
+                * Adjust the object sizes so that we clear
+                * the complete object on kzalloc.
+@@ -3372,7 +3415,7 @@ struct kmem_cache *kmem_cache_create(const char *name, size_t size,
+               if (sysfs_slab_alias(s, name)) {
+                       down_write(&slub_lock);
+-                      s->refcount--;
++                      atomic_dec(&s->refcount);
+                       up_write(&slub_lock);
+                       goto err;
+               }
+@@ -4101,7 +4144,7 @@ SLAB_ATTR_RO(ctor);
+ static ssize_t aliases_show(struct kmem_cache *s, char *buf)
+ {
+-      return sprintf(buf, "%d\n", s->refcount - 1);
++      return sprintf(buf, "%d\n", atomic_read(&s->refcount) - 1);
+ }
+ SLAB_ATTR_RO(aliases);
+@@ -4503,7 +4546,7 @@ static void kmem_cache_release(struct kobject *kobj)
+       kfree(s);
+ }
+-static struct sysfs_ops slab_sysfs_ops = {
++static const struct sysfs_ops slab_sysfs_ops = {
+       .show = slab_attr_show,
+       .store = slab_attr_store,
+ };
+@@ -4522,7 +4565,7 @@ static int uevent_filter(struct kset *kset, struct kobject *kobj)
+       return 0;
+ }
+-static struct kset_uevent_ops slab_uevent_ops = {
++static const struct kset_uevent_ops slab_uevent_ops = {
+       .filter = uevent_filter,
+ };
+@@ -4564,6 +4607,7 @@ static char *create_unique_id(struct kmem_cache *s)
+       return name;
+ }
++#if defined(CONFIG_SLUB_DEBUG) && !defined(CONFIG_GRKERNSEC_PROC_ADD)
+ static int sysfs_slab_add(struct kmem_cache *s)
+ {
+       int err;
+@@ -4619,6 +4663,7 @@ static void sysfs_slab_remove(struct kmem_cache *s)
+       kobject_del(&s->kobj);
+       kobject_put(&s->kobj);
+ }
++#endif
+ /*
+  * Need to buffer aliases during bootup until sysfs becomes
+@@ -4632,6 +4677,7 @@ struct saved_alias {
+ static struct saved_alias *alias_list;
++#if defined(CONFIG_SLUB_DEBUG) && !defined(CONFIG_GRKERNSEC_PROC_ADD)
+ static int sysfs_slab_alias(struct kmem_cache *s, const char *name)
+ {
+       struct saved_alias *al;
+@@ -4654,6 +4700,7 @@ static int sysfs_slab_alias(struct kmem_cache *s, const char *name)
+       alias_list = al;
+       return 0;
+ }
++#endif
+ static int __init slab_sysfs_init(void)
+ {
+@@ -4785,7 +4832,13 @@ static const struct file_operations proc_slabinfo_operations = {
+ static int __init slab_proc_init(void)
+ {
+-      proc_create("slabinfo", S_IRUGO, NULL, &proc_slabinfo_operations);
++      mode_t gr_mode = S_IRUGO;
++
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++      gr_mode = S_IRUSR;
++#endif
++
++      proc_create("slabinfo", gr_mode, NULL, &proc_slabinfo_operations);
+       return 0;
+ }
+ module_init(slab_proc_init);
+diff --git a/mm/swap.c b/mm/swap.c
+index 308e57d..5de19c0 100644
+--- a/mm/swap.c
++++ b/mm/swap.c
+@@ -30,6 +30,7 @@
+ #include <linux/notifier.h>
+ #include <linux/backing-dev.h>
+ #include <linux/memcontrol.h>
++#include <linux/hugetlb.h>
+ #include "internal.h"
+@@ -65,6 +66,8 @@ static void put_compound_page(struct page *page)
+               compound_page_dtor *dtor;
+               dtor = get_compound_page_dtor(page);
++              if (!PageHuge(page))
++                      BUG_ON(dtor != free_compound_page);
+               (*dtor)(page);
+       }
+ }
+diff --git a/mm/util.c b/mm/util.c
+index e48b493..24a601d 100644
+--- a/mm/util.c
++++ b/mm/util.c
+@@ -228,6 +228,12 @@ EXPORT_SYMBOL(strndup_user);
+ void arch_pick_mmap_layout(struct mm_struct *mm)
+ {
+       mm->mmap_base = TASK_UNMAPPED_BASE;
++
++#ifdef CONFIG_PAX_RANDMMAP
++      if (mm->pax_flags & MF_PAX_RANDMMAP)
++              mm->mmap_base += mm->delta_mmap;
++#endif
++
+       mm->get_unmapped_area = arch_get_unmapped_area;
+       mm->unmap_area = arch_unmap_area;
+ }
+diff --git a/mm/vmalloc.c b/mm/vmalloc.c
+index f34ffd0..e60c44f 100644
+--- a/mm/vmalloc.c
++++ b/mm/vmalloc.c
+@@ -40,8 +40,19 @@ static void vunmap_pte_range(pmd_t *pmd, unsigned long addr, unsigned long end)
+       pte = pte_offset_kernel(pmd, addr);
+       do {
+-              pte_t ptent = ptep_get_and_clear(&init_mm, addr, pte);
+-              WARN_ON(!pte_none(ptent) && !pte_present(ptent));
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++              if ((unsigned long)MODULES_EXEC_VADDR <= addr && addr < (unsigned long)MODULES_EXEC_END) {
++                      BUG_ON(!pte_exec(*pte));
++                      set_pte_at(&init_mm, addr, pte, pfn_pte(__pa(addr) >> PAGE_SHIFT, PAGE_KERNEL_EXEC));
++                      continue;
++              }
++#endif
++
++              {
++                      pte_t ptent = ptep_get_and_clear(&init_mm, addr, pte);
++                      WARN_ON(!pte_none(ptent) && !pte_present(ptent));
++              }
+       } while (pte++, addr += PAGE_SIZE, addr != end);
+ }
+@@ -92,6 +103,7 @@ static int vmap_pte_range(pmd_t *pmd, unsigned long addr,
+               unsigned long end, pgprot_t prot, struct page **pages, int *nr)
+ {
+       pte_t *pte;
++      int ret = -ENOMEM;
+       /*
+        * nr is a running index into the array which helps higher level
+@@ -101,17 +113,32 @@ static int vmap_pte_range(pmd_t *pmd, unsigned long addr,
+       pte = pte_alloc_kernel(pmd, addr);
+       if (!pte)
+               return -ENOMEM;
++
++      pax_open_kernel();
+       do {
+               struct page *page = pages[*nr];
+-              if (WARN_ON(!pte_none(*pte)))
+-                      return -EBUSY;
+-              if (WARN_ON(!page))
+-                      return -ENOMEM;
++#if defined(CONFIG_MODULES) && defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++              if (!(pgprot_val(prot) & _PAGE_NX))
++                      BUG_ON(!pte_exec(*pte) || pte_pfn(*pte) != __pa(addr) >> PAGE_SHIFT);
++              else
++#endif
++
++              if (WARN_ON(!pte_none(*pte))) {
++                      ret = -EBUSY;
++                      goto out;
++              }
++              if (WARN_ON(!page)) {
++                      ret = -ENOMEM;
++                      goto out;
++              }
+               set_pte_at(&init_mm, addr, pte, mk_pte(page, prot));
+               (*nr)++;
+       } while (pte++, addr += PAGE_SIZE, addr != end);
+-      return 0;
++      ret = 0;
++out:
++      pax_close_kernel();
++      return ret;
+ }
+ static int vmap_pmd_range(pud_t *pud, unsigned long addr,
+@@ -192,11 +219,20 @@ int is_vmalloc_or_module_addr(const void *x)
+        * and fall back on vmalloc() if that fails. Others
+        * just put it in the vmalloc space.
+        */
+-#if defined(CONFIG_MODULES) && defined(MODULES_VADDR)
++#ifdef CONFIG_MODULES
++#ifdef MODULES_VADDR
+       unsigned long addr = (unsigned long)x;
+       if (addr >= MODULES_VADDR && addr < MODULES_END)
+               return 1;
+ #endif
++
++#if defined(CONFIG_X86_32) && defined(CONFIG_PAX_KERNEXEC)
++      if (x >= (const void *)MODULES_EXEC_VADDR && x < (const void *)MODULES_EXEC_END)
++              return 1;
++#endif
++
++#endif
++
+       return is_vmalloc_addr(x);
+ }
+@@ -217,8 +253,14 @@ struct page *vmalloc_to_page(const void *vmalloc_addr)
+       if (!pgd_none(*pgd)) {
+               pud_t *pud = pud_offset(pgd, addr);
++#ifdef CONFIG_X86
++              if (!pud_large(*pud))
++#endif
+               if (!pud_none(*pud)) {
+                       pmd_t *pmd = pmd_offset(pud, addr);
++#ifdef CONFIG_X86
++                      if (!pmd_large(*pmd))
++#endif
+                       if (!pmd_none(*pmd)) {
+                               pte_t *ptep, pte;
+@@ -292,13 +334,13 @@ static void __insert_vmap_area(struct vmap_area *va)
+       struct rb_node *tmp;
+       while (*p) {
+-              struct vmap_area *tmp;
++              struct vmap_area *varea;
+               parent = *p;
+-              tmp = rb_entry(parent, struct vmap_area, rb_node);
+-              if (va->va_start < tmp->va_end)
++              varea = rb_entry(parent, struct vmap_area, rb_node);
++              if (va->va_start < varea->va_end)
+                       p = &(*p)->rb_left;
+-              else if (va->va_end > tmp->va_start)
++              else if (va->va_end > varea->va_start)
+                       p = &(*p)->rb_right;
+               else
+                       BUG();
+@@ -1245,6 +1287,16 @@ static struct vm_struct *__get_vm_area_node(unsigned long size,
+       struct vm_struct *area;
+       BUG_ON(in_interrupt());
++
++#if defined(CONFIG_MODULES) && defined(CONFIG_X86) && defined(CONFIG_PAX_KERNEXEC)
++      if (flags & VM_KERNEXEC) {
++              if (start != VMALLOC_START || end != VMALLOC_END)
++                      return NULL;
++              start = (unsigned long)MODULES_EXEC_VADDR;
++              end = (unsigned long)MODULES_EXEC_END;
++      }
++#endif
++
+       if (flags & VM_IOREMAP) {
+               int bit = fls(size);
+@@ -1484,6 +1536,11 @@ void *vmap(struct page **pages, unsigned int count,
+       if (count > totalram_pages)
+               return NULL;
++#if defined(CONFIG_MODULES) && defined(CONFIG_X86) && defined(CONFIG_PAX_KERNEXEC)
++      if (!(pgprot_val(prot) & _PAGE_NX))
++              flags |= VM_KERNEXEC;
++#endif
++
+       area = get_vm_area_caller((count << PAGE_SHIFT), flags,
+                                       __builtin_return_address(0));
+       if (!area)
+@@ -1594,6 +1651,14 @@ static void *__vmalloc_node(unsigned long size, unsigned long align,
+       if (!size || (size >> PAGE_SHIFT) > totalram_pages)
+               return NULL;
++#if defined(CONFIG_MODULES) && defined(CONFIG_X86) && defined(CONFIG_PAX_KERNEXEC)
++      if (!(pgprot_val(prot) & _PAGE_NX))
++              area = __get_vm_area_node(size, align, VM_ALLOC | VM_UNLIST | VM_KERNEXEC,
++                                        VMALLOC_START, VMALLOC_END, node,
++                                        gfp_mask, caller);
++      else
++#endif
++
+       area = __get_vm_area_node(size, align, VM_ALLOC | VM_UNLIST,
+                                 VMALLOC_START, VMALLOC_END, node,
+                                 gfp_mask, caller);
+@@ -1619,6 +1684,7 @@ static void *__vmalloc_node(unsigned long size, unsigned long align,
+       return addr;
+ }
++#undef __vmalloc
+ void *__vmalloc(unsigned long size, gfp_t gfp_mask, pgprot_t prot)
+ {
+       return __vmalloc_node(size, 1, gfp_mask, prot, -1,
+@@ -1635,6 +1701,7 @@ EXPORT_SYMBOL(__vmalloc);
+  *    For tight control over page level allocator and protection flags
+  *    use __vmalloc() instead.
+  */
++#undef vmalloc
+ void *vmalloc(unsigned long size)
+ {
+       return __vmalloc_node(size, 1, GFP_KERNEL | __GFP_HIGHMEM, PAGE_KERNEL,
+@@ -1649,6 +1716,7 @@ EXPORT_SYMBOL(vmalloc);
+  * The resulting memory area is zeroed so it can be mapped to userspace
+  * without leaking data.
+  */
++#undef vmalloc_user
+ void *vmalloc_user(unsigned long size)
+ {
+       struct vm_struct *area;
+@@ -1676,6 +1744,7 @@ EXPORT_SYMBOL(vmalloc_user);
+  *    For tight control over page level allocator and protection flags
+  *    use __vmalloc() instead.
+  */
++#undef vmalloc_node
+ void *vmalloc_node(unsigned long size, int node)
+ {
+       return __vmalloc_node(size, 1, GFP_KERNEL | __GFP_HIGHMEM, PAGE_KERNEL,
+@@ -1698,10 +1767,10 @@ EXPORT_SYMBOL(vmalloc_node);
+  *    For tight control over page level allocator and protection flags
+  *    use __vmalloc() instead.
+  */
+-
++#undef vmalloc_exec
+ void *vmalloc_exec(unsigned long size)
+ {
+-      return __vmalloc_node(size, 1, GFP_KERNEL | __GFP_HIGHMEM, PAGE_KERNEL_EXEC,
++      return __vmalloc_node(size, 1, GFP_KERNEL | __GFP_HIGHMEM | __GFP_ZERO, PAGE_KERNEL_EXEC,
+                             -1, __builtin_return_address(0));
+ }
+@@ -1720,6 +1789,7 @@ void *vmalloc_exec(unsigned long size)
+  *    Allocate enough 32bit PA addressable pages to cover @size from the
+  *    page level allocator and map them into contiguous kernel virtual space.
+  */
++#undef vmalloc_32
+ void *vmalloc_32(unsigned long size)
+ {
+       return __vmalloc_node(size, 1, GFP_VMALLOC32, PAGE_KERNEL,
+@@ -1734,6 +1804,7 @@ EXPORT_SYMBOL(vmalloc_32);
+  * The resulting memory area is 32bit addressable and zeroed so it can be
+  * mapped to userspace without leaking data.
+  */
++#undef vmalloc_32_user
+ void *vmalloc_32_user(unsigned long size)
+ {
+       struct vm_struct *area;
+@@ -1998,6 +2069,8 @@ int remap_vmalloc_range(struct vm_area_struct *vma, void *addr,
+       unsigned long uaddr = vma->vm_start;
+       unsigned long usize = vma->vm_end - vma->vm_start;
++      BUG_ON(vma->vm_mirror);
++
+       if ((PAGE_SIZE-1) & (unsigned long)addr)
+               return -EINVAL;
+diff --git a/mm/vmstat.c b/mm/vmstat.c
+index 42d76c6..5643dc4 100644
+--- a/mm/vmstat.c
++++ b/mm/vmstat.c
+@@ -74,7 +74,7 @@ void vm_events_fold_cpu(int cpu)
+  *
+  * vm_stat contains the global counters
+  */
+-atomic_long_t vm_stat[NR_VM_ZONE_STAT_ITEMS];
++atomic_long_unchecked_t vm_stat[NR_VM_ZONE_STAT_ITEMS];
+ EXPORT_SYMBOL(vm_stat);
+ #ifdef CONFIG_SMP
+@@ -324,7 +324,7 @@ void refresh_cpu_vm_stats(int cpu)
+                               v = p->vm_stat_diff[i];
+                               p->vm_stat_diff[i] = 0;
+                               local_irq_restore(flags);
+-                              atomic_long_add(v, &zone->vm_stat[i]);
++                              atomic_long_add_unchecked(v, &zone->vm_stat[i]);
+                               global_diff[i] += v;
+ #ifdef CONFIG_NUMA
+                               /* 3 seconds idle till flush */
+@@ -362,7 +362,7 @@ void refresh_cpu_vm_stats(int cpu)
+       for (i = 0; i < NR_VM_ZONE_STAT_ITEMS; i++)
+               if (global_diff[i])
+-                      atomic_long_add(global_diff[i], &vm_stat[i]);
++                      atomic_long_add_unchecked(global_diff[i], &vm_stat[i]);
+ }
+ #endif
+@@ -953,10 +953,20 @@ static int __init setup_vmstat(void)
+               start_cpu_timer(cpu);
+ #endif
+ #ifdef CONFIG_PROC_FS
+-      proc_create("buddyinfo", S_IRUGO, NULL, &fragmentation_file_operations);
+-      proc_create("pagetypeinfo", S_IRUGO, NULL, &pagetypeinfo_file_ops);
+-      proc_create("vmstat", S_IRUGO, NULL, &proc_vmstat_file_operations);
+-      proc_create("zoneinfo", S_IRUGO, NULL, &proc_zoneinfo_file_operations);
++      {
++              mode_t gr_mode = S_IRUGO;
++#ifdef CONFIG_GRKERNSEC_PROC_ADD
++              gr_mode = S_IRUSR;
++#endif
++              proc_create("buddyinfo", gr_mode, NULL, &fragmentation_file_operations);
++              proc_create("pagetypeinfo", gr_mode, NULL, &pagetypeinfo_file_ops);
++#ifdef CONFIG_GRKERNSEC_PROC_USERGROUP
++              proc_create("vmstat", gr_mode | S_IRGRP, NULL, &proc_vmstat_file_operations);
++#else
++              proc_create("vmstat", gr_mode, NULL, &proc_vmstat_file_operations);
++#endif
++              proc_create("zoneinfo", gr_mode, NULL, &proc_zoneinfo_file_operations);
++      }
+ #endif
+       return 0;
+ }
+diff --git a/net/8021q/vlan.c b/net/8021q/vlan.c
+index a29c5ab..6143f20 100644
+--- a/net/8021q/vlan.c
++++ b/net/8021q/vlan.c
+@@ -622,8 +622,7 @@ static int vlan_ioctl_handler(struct net *net, void __user *arg)
+               err = -EPERM;
+               if (!capable(CAP_NET_ADMIN))
+                       break;
+-              if ((args.u.name_type >= 0) &&
+-                  (args.u.name_type < VLAN_NAME_TYPE_HIGHEST)) {
++              if (args.u.name_type < VLAN_NAME_TYPE_HIGHEST) {
+                       struct vlan_net *vn;
+                       vn = net_generic(net, vlan_net_id);
+diff --git a/net/9p/trans_fd.c b/net/9p/trans_fd.c
+index a2d2984..f9eb711 100644
+--- a/net/9p/trans_fd.c
++++ b/net/9p/trans_fd.c
+@@ -419,7 +419,7 @@ static int p9_fd_write(struct p9_client *client, void *v, int len)
+       oldfs = get_fs();
+       set_fs(get_ds());
+       /* The cast to a user pointer is valid due to the set_fs() */
+-      ret = vfs_write(ts->wr, (__force void __user *)v, len, &ts->wr->f_pos);
++      ret = vfs_write(ts->wr, (void __force_user *)v, len, &ts->wr->f_pos);
+       set_fs(oldfs);
+       if (ret <= 0 && ret != -ERESTARTSYS && ret != -EAGAIN)
+diff --git a/net/atm/atm_misc.c b/net/atm/atm_misc.c
+index 02cc7e7..4514f1b 100644
+--- a/net/atm/atm_misc.c
++++ b/net/atm/atm_misc.c
+@@ -19,7 +19,7 @@ int atm_charge(struct atm_vcc *vcc,int truesize)
+       if (atomic_read(&sk_atm(vcc)->sk_rmem_alloc) <= sk_atm(vcc)->sk_rcvbuf)
+               return 1;
+       atm_return(vcc,truesize);
+-      atomic_inc(&vcc->stats->rx_drop);
++      atomic_inc_unchecked(&vcc->stats->rx_drop);
+       return 0;
+ }
+@@ -41,7 +41,7 @@ struct sk_buff *atm_alloc_charge(struct atm_vcc *vcc,int pdu_size,
+               }
+       }
+       atm_return(vcc,guess);
+-      atomic_inc(&vcc->stats->rx_drop);
++      atomic_inc_unchecked(&vcc->stats->rx_drop);
+       return NULL;
+ }
+@@ -88,7 +88,7 @@ int atm_pcr_goal(const struct atm_trafprm *tp)
+ void sonet_copy_stats(struct k_sonet_stats *from,struct sonet_stats *to)
+ {
+-#define __HANDLE_ITEM(i) to->i = atomic_read(&from->i)
++#define __HANDLE_ITEM(i) to->i = atomic_read_unchecked(&from->i)
+       __SONET_ITEMS
+ #undef __HANDLE_ITEM
+ }
+@@ -96,7 +96,7 @@ void sonet_copy_stats(struct k_sonet_stats *from,struct sonet_stats *to)
+ void sonet_subtract_stats(struct k_sonet_stats *from,struct sonet_stats *to)
+ {
+-#define __HANDLE_ITEM(i) atomic_sub(to->i,&from->i)
++#define __HANDLE_ITEM(i) atomic_sub_unchecked(to->i,&from->i)
+       __SONET_ITEMS
+ #undef __HANDLE_ITEM
+ }
+diff --git a/net/atm/lec.h b/net/atm/lec.h
+index 9d14d19..5c145f3 100644
+--- a/net/atm/lec.h
++++ b/net/atm/lec.h
+@@ -48,7 +48,7 @@ struct lane2_ops {
+                             const u8 *tlvs, u32 sizeoftlvs);
+       void (*associate_indicator) (struct net_device *dev, const u8 *mac_addr,
+                                    const u8 *tlvs, u32 sizeoftlvs);
+-};
++} __no_const;
+ /*
+  * ATM LAN Emulation supports both LLC & Dix Ethernet EtherType
+diff --git a/net/atm/mpc.h b/net/atm/mpc.h
+index 0919a88..a23d54e 100644
+--- a/net/atm/mpc.h
++++ b/net/atm/mpc.h
+@@ -33,7 +33,7 @@ struct mpoa_client {
+       struct mpc_parameters parameters;  /* parameters for this client    */
+       const struct net_device_ops *old_ops;
+-      struct net_device_ops new_ops;
++      net_device_ops_no_const new_ops;
+ };
+diff --git a/net/atm/mpoa_caches.c b/net/atm/mpoa_caches.c
+index 4504a4b..1733f1e 100644
+--- a/net/atm/mpoa_caches.c
++++ b/net/atm/mpoa_caches.c
+@@ -498,6 +498,8 @@ static void clear_expired(struct mpoa_client *client)
+       struct timeval now;
+       struct k_message msg;
++      pax_track_stack();
++
+       do_gettimeofday(&now);
+       write_lock_irq(&client->egress_lock);
+diff --git a/net/atm/proc.c b/net/atm/proc.c
+index ab8419a..aa91497 100644
+--- a/net/atm/proc.c
++++ b/net/atm/proc.c
+@@ -43,9 +43,9 @@ static void add_stats(struct seq_file *seq, const char *aal,
+   const struct k_atm_aal_stats *stats)
+ {
+       seq_printf(seq, "%s ( %d %d %d %d %d )", aal,
+-          atomic_read(&stats->tx),atomic_read(&stats->tx_err),
+-          atomic_read(&stats->rx),atomic_read(&stats->rx_err),
+-          atomic_read(&stats->rx_drop));
++          atomic_read_unchecked(&stats->tx),atomic_read_unchecked(&stats->tx_err),
++          atomic_read_unchecked(&stats->rx),atomic_read_unchecked(&stats->rx_err),
++          atomic_read_unchecked(&stats->rx_drop));
+ }
+ static void atm_dev_info(struct seq_file *seq, const struct atm_dev *dev)
+@@ -188,7 +188,12 @@ static void vcc_info(struct seq_file *seq, struct atm_vcc *vcc)
+ {
+       struct sock *sk = sk_atm(vcc);
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      seq_printf(seq, "%p ", NULL);
++#else
+       seq_printf(seq, "%p ", vcc);
++#endif
++
+       if (!vcc->dev)
+               seq_printf(seq, "Unassigned    ");
+       else
+@@ -214,7 +219,11 @@ static void svc_info(struct seq_file *seq, struct atm_vcc *vcc)
+ {
+       if (!vcc->dev)
+               seq_printf(seq, sizeof(void *) == 4 ?
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         "N/A@%p%10s" : "N/A@%p%2s", NULL, "");
++#else
+                          "N/A@%p%10s" : "N/A@%p%2s", vcc, "");
++#endif
+       else
+               seq_printf(seq, "%3d %3d %5d         ",
+                          vcc->dev->number, vcc->vpi, vcc->vci);
+diff --git a/net/atm/resources.c b/net/atm/resources.c
+index 56b7322..c48b84e 100644
+--- a/net/atm/resources.c
++++ b/net/atm/resources.c
+@@ -161,7 +161,7 @@ void atm_dev_deregister(struct atm_dev *dev)
+ static void copy_aal_stats(struct k_atm_aal_stats *from,
+     struct atm_aal_stats *to)
+ {
+-#define __HANDLE_ITEM(i) to->i = atomic_read(&from->i)
++#define __HANDLE_ITEM(i) to->i = atomic_read_unchecked(&from->i)
+       __AAL_STAT_ITEMS
+ #undef __HANDLE_ITEM
+ }
+@@ -170,7 +170,7 @@ static void copy_aal_stats(struct k_atm_aal_stats *from,
+ static void subtract_aal_stats(struct k_atm_aal_stats *from,
+     struct atm_aal_stats *to)
+ {
+-#define __HANDLE_ITEM(i) atomic_sub(to->i, &from->i)
++#define __HANDLE_ITEM(i) atomic_sub_unchecked(to->i, &from->i)
+       __AAL_STAT_ITEMS
+ #undef __HANDLE_ITEM
+ }
+diff --git a/net/bridge/br_private.h b/net/bridge/br_private.h
+index 8567d47..bba2292 100644
+--- a/net/bridge/br_private.h
++++ b/net/bridge/br_private.h
+@@ -255,7 +255,7 @@ extern void br_ifinfo_notify(int event, struct net_bridge_port *port);
+ #ifdef CONFIG_SYSFS
+ /* br_sysfs_if.c */
+-extern struct sysfs_ops brport_sysfs_ops;
++extern const struct sysfs_ops brport_sysfs_ops;
+ extern int br_sysfs_addif(struct net_bridge_port *p);
+ /* br_sysfs_br.c */
+diff --git a/net/bridge/br_stp_if.c b/net/bridge/br_stp_if.c
+index 9a52ac5..c97538e 100644
+--- a/net/bridge/br_stp_if.c
++++ b/net/bridge/br_stp_if.c
+@@ -146,7 +146,7 @@ static void br_stp_stop(struct net_bridge *br)
+       char *envp[] = { NULL };
+       if (br->stp_enabled == BR_USER_STP) {
+-              r = call_usermodehelper(BR_STP_PROG, argv, envp, 1);
++              r = call_usermodehelper(BR_STP_PROG, argv, envp, UMH_WAIT_PROC);
+               printk(KERN_INFO "%s: userspace STP stopped, return code %d\n",
+                       br->dev->name, r);
+diff --git a/net/bridge/br_sysfs_if.c b/net/bridge/br_sysfs_if.c
+index 820643a..ce77fb3 100644
+--- a/net/bridge/br_sysfs_if.c
++++ b/net/bridge/br_sysfs_if.c
+@@ -220,7 +220,7 @@ static ssize_t brport_store(struct kobject * kobj,
+       return ret;
+ }
+-struct sysfs_ops brport_sysfs_ops = {
++const struct sysfs_ops brport_sysfs_ops = {
+       .show = brport_show,
+       .store = brport_store,
+ };
+diff --git a/net/bridge/netfilter/ebtables.c b/net/bridge/netfilter/ebtables.c
+index d73d47f..72df42a 100644
+--- a/net/bridge/netfilter/ebtables.c
++++ b/net/bridge/netfilter/ebtables.c
+@@ -1337,6 +1337,8 @@ static int copy_everything_to_user(struct ebt_table *t, void __user *user,
+       unsigned int entries_size, nentries;
+       char *entries;
++      pax_track_stack();
++
+       if (cmd == EBT_SO_GET_ENTRIES) {
+               entries_size = t->private->entries_size;
+               nentries = t->private->nentries;
+diff --git a/net/can/bcm.c b/net/can/bcm.c
+index 2ffd2e0..72a7486 100644
+--- a/net/can/bcm.c
++++ b/net/can/bcm.c
+@@ -164,9 +164,15 @@ static int bcm_proc_show(struct seq_file *m, void *v)
+       struct bcm_sock *bo = bcm_sk(sk);
+       struct bcm_op *op;
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      seq_printf(m, ">>> socket %p", NULL);
++      seq_printf(m, " / sk %p", NULL);
++      seq_printf(m, " / bo %p", NULL);
++#else
+       seq_printf(m, ">>> socket %p", sk->sk_socket);
+       seq_printf(m, " / sk %p", sk);
+       seq_printf(m, " / bo %p", bo);
++#endif
+       seq_printf(m, " / dropped %lu", bo->dropped_usr_msgs);
+       seq_printf(m, " / bound %s", bcm_proc_getifname(ifname, bo->ifindex));
+       seq_printf(m, " <<<\n");
+diff --git a/net/compat.c b/net/compat.c
+index 9559afc..ccd74e1 100644
+--- a/net/compat.c
++++ b/net/compat.c
+@@ -69,9 +69,9 @@ int get_compat_msghdr(struct msghdr *kmsg, struct compat_msghdr __user *umsg)
+           __get_user(kmsg->msg_controllen, &umsg->msg_controllen) ||
+           __get_user(kmsg->msg_flags, &umsg->msg_flags))
+               return -EFAULT;
+-      kmsg->msg_name = compat_ptr(tmp1);
+-      kmsg->msg_iov = compat_ptr(tmp2);
+-      kmsg->msg_control = compat_ptr(tmp3);
++      kmsg->msg_name = (void __force_kernel *)compat_ptr(tmp1);
++      kmsg->msg_iov = (void __force_kernel *)compat_ptr(tmp2);
++      kmsg->msg_control = (void __force_kernel *)compat_ptr(tmp3);
+       return 0;
+ }
+@@ -94,7 +94,7 @@ int verify_compat_iovec(struct msghdr *kern_msg, struct iovec *kern_iov,
+               kern_msg->msg_name = NULL;
+       tot_len = iov_from_user_compat_to_kern(kern_iov,
+-                                        (struct compat_iovec __user *)kern_msg->msg_iov,
++                                        (struct compat_iovec __force_user *)kern_msg->msg_iov,
+                                         kern_msg->msg_iovlen);
+       if (tot_len >= 0)
+               kern_msg->msg_iov = kern_iov;
+@@ -114,20 +114,20 @@ int verify_compat_iovec(struct msghdr *kern_msg, struct iovec *kern_iov,
+ #define CMSG_COMPAT_FIRSTHDR(msg)                     \
+       (((msg)->msg_controllen) >= sizeof(struct compat_cmsghdr) ?     \
+-       (struct compat_cmsghdr __user *)((msg)->msg_control) :         \
++       (struct compat_cmsghdr __force_user *)((msg)->msg_control) :           \
+        (struct compat_cmsghdr __user *)NULL)
+ #define CMSG_COMPAT_OK(ucmlen, ucmsg, mhdr) \
+       ((ucmlen) >= sizeof(struct compat_cmsghdr) && \
+        (ucmlen) <= (unsigned long) \
+        ((mhdr)->msg_controllen - \
+-        ((char *)(ucmsg) - (char *)(mhdr)->msg_control)))
++        ((char __force_kernel *)(ucmsg) - (char *)(mhdr)->msg_control)))
+ static inline struct compat_cmsghdr __user *cmsg_compat_nxthdr(struct msghdr *msg,
+               struct compat_cmsghdr __user *cmsg, int cmsg_len)
+ {
+       char __user *ptr = (char __user *)cmsg + CMSG_COMPAT_ALIGN(cmsg_len);
+-      if ((unsigned long)(ptr + 1 - (char __user *)msg->msg_control) >
++      if ((unsigned long)(ptr + 1 - (char __force_user *)msg->msg_control) >
+                       msg->msg_controllen)
+               return NULL;
+       return (struct compat_cmsghdr __user *)ptr;
+@@ -219,7 +219,7 @@ int put_cmsg_compat(struct msghdr *kmsg, int level, int type, int len, void *dat
+ {
+       struct compat_timeval ctv;
+       struct compat_timespec cts[3];
+-      struct compat_cmsghdr __user *cm = (struct compat_cmsghdr __user *) kmsg->msg_control;
++      struct compat_cmsghdr __user *cm = (struct compat_cmsghdr __force_user *) kmsg->msg_control;
+       struct compat_cmsghdr cmhdr;
+       int cmlen;
+@@ -271,7 +271,7 @@ int put_cmsg_compat(struct msghdr *kmsg, int level, int type, int len, void *dat
+ void scm_detach_fds_compat(struct msghdr *kmsg, struct scm_cookie *scm)
+ {
+-      struct compat_cmsghdr __user *cm = (struct compat_cmsghdr __user *) kmsg->msg_control;
++      struct compat_cmsghdr __user *cm = (struct compat_cmsghdr __force_user *) kmsg->msg_control;
+       int fdmax = (kmsg->msg_controllen - sizeof(struct compat_cmsghdr)) / sizeof(int);
+       int fdnum = scm->fp->count;
+       struct file **fp = scm->fp->fp;
+@@ -433,7 +433,7 @@ static int do_get_sock_timeout(struct socket *sock, int level, int optname,
+       len = sizeof(ktime);
+       old_fs = get_fs();
+       set_fs(KERNEL_DS);
+-      err = sock_getsockopt(sock, level, optname, (char *) &ktime, &len);
++      err = sock_getsockopt(sock, level, optname, (char __force_user *) &ktime, (int __force_user *)&len);
+       set_fs(old_fs);
+       if (!err) {
+@@ -570,7 +570,7 @@ int compat_mc_setsockopt(struct sock *sock, int level, int optname,
+       case MCAST_JOIN_GROUP:
+       case MCAST_LEAVE_GROUP:
+       {
+-              struct compat_group_req __user *gr32 = (void *)optval;
++              struct compat_group_req __user *gr32 = (void __user *)optval;
+               struct group_req __user *kgr =
+                       compat_alloc_user_space(sizeof(struct group_req));
+               u32 interface;
+@@ -591,7 +591,7 @@ int compat_mc_setsockopt(struct sock *sock, int level, int optname,
+       case MCAST_BLOCK_SOURCE:
+       case MCAST_UNBLOCK_SOURCE:
+       {
+-              struct compat_group_source_req __user *gsr32 = (void *)optval;
++              struct compat_group_source_req __user *gsr32 = (void __user *)optval;
+               struct group_source_req __user *kgsr = compat_alloc_user_space(
+                       sizeof(struct group_source_req));
+               u32 interface;
+@@ -612,7 +612,7 @@ int compat_mc_setsockopt(struct sock *sock, int level, int optname,
+       }
+       case MCAST_MSFILTER:
+       {
+-              struct compat_group_filter __user *gf32 = (void *)optval;
++              struct compat_group_filter __user *gf32 = (void __user *)optval;
+               struct group_filter __user *kgf;
+               u32 interface, fmode, numsrc;
+diff --git a/net/core/dev.c b/net/core/dev.c
+index 84a0705..575db4c 100644
+--- a/net/core/dev.c
++++ b/net/core/dev.c
+@@ -1047,10 +1047,14 @@ void dev_load(struct net *net, const char *name)
+       if (no_module && capable(CAP_NET_ADMIN))
+               no_module = request_module("netdev-%s", name);
+       if (no_module && capable(CAP_SYS_MODULE)) {
++#ifdef CONFIG_GRKERNSEC_MODHARDEN
++              ___request_module(true, "grsec_modharden_netdev", "%s", name);
++#else
+               if (!request_module("%s", name))
+                       pr_err("Loading kernel module for a network device "
+ "with CAP_SYS_MODULE (deprecated).  Use CAP_NET_ADMIN and alias netdev-%s "
+ "instead\n", name);
++#endif
+       }
+ }
+ EXPORT_SYMBOL(dev_load);
+@@ -1654,7 +1658,7 @@ static inline int illegal_highdma(struct net_device *dev, struct sk_buff *skb)
+ struct dev_gso_cb {
+       void (*destructor)(struct sk_buff *skb);
+-};
++} __no_const;
+ #define DEV_GSO_CB(skb) ((struct dev_gso_cb *)(skb)->cb)
+@@ -2063,7 +2067,7 @@ int netif_rx_ni(struct sk_buff *skb)
+ }
+ EXPORT_SYMBOL(netif_rx_ni);
+-static void net_tx_action(struct softirq_action *h)
++static void net_tx_action(void)
+ {
+       struct softnet_data *sd = &__get_cpu_var(softnet_data);
+@@ -2827,7 +2831,7 @@ void netif_napi_del(struct napi_struct *napi)
+ EXPORT_SYMBOL(netif_napi_del);
+-static void net_rx_action(struct softirq_action *h)
++static void net_rx_action(void)
+ {
+       struct list_head *list = &__get_cpu_var(softnet_data).poll_list;
+       unsigned long time_limit = jiffies + 2;
+diff --git a/net/core/flow.c b/net/core/flow.c
+index 9601587..8c4824e 100644
+--- a/net/core/flow.c
++++ b/net/core/flow.c
+@@ -35,11 +35,11 @@ struct flow_cache_entry {
+       atomic_t                *object_ref;
+ };
+-atomic_t flow_cache_genid = ATOMIC_INIT(0);
++atomic_unchecked_t flow_cache_genid = ATOMIC_INIT(0);
+ static u32 flow_hash_shift;
+ #define flow_hash_size        (1 << flow_hash_shift)
+-static DEFINE_PER_CPU(struct flow_cache_entry **, flow_tables) = { NULL };
++static DEFINE_PER_CPU(struct flow_cache_entry **, flow_tables);
+ #define flow_table(cpu) (per_cpu(flow_tables, cpu))
+@@ -52,7 +52,7 @@ struct flow_percpu_info {
+       u32 hash_rnd;
+       int count;
+ };
+-static DEFINE_PER_CPU(struct flow_percpu_info, flow_hash_info) = { 0 };
++static DEFINE_PER_CPU(struct flow_percpu_info, flow_hash_info);
+ #define flow_hash_rnd_recalc(cpu) \
+       (per_cpu(flow_hash_info, cpu).hash_rnd_recalc)
+@@ -69,7 +69,7 @@ struct flow_flush_info {
+       atomic_t cpuleft;
+       struct completion completion;
+ };
+-static DEFINE_PER_CPU(struct tasklet_struct, flow_flush_tasklets) = { NULL };
++static DEFINE_PER_CPU(struct tasklet_struct, flow_flush_tasklets);
+ #define flow_flush_tasklet(cpu) (&per_cpu(flow_flush_tasklets, cpu))
+@@ -190,7 +190,7 @@ void *flow_cache_lookup(struct net *net, struct flowi *key, u16 family, u8 dir,
+               if (fle->family == family &&
+                   fle->dir == dir &&
+                   flow_key_compare(key, &fle->key) == 0) {
+-                      if (fle->genid == atomic_read(&flow_cache_genid)) {
++                      if (fle->genid == atomic_read_unchecked(&flow_cache_genid)) {
+                               void *ret = fle->object;
+                               if (ret)
+@@ -228,7 +228,7 @@ nocache:
+               err = resolver(net, key, family, dir, &obj, &obj_ref);
+               if (fle && !err) {
+-                      fle->genid = atomic_read(&flow_cache_genid);
++                      fle->genid = atomic_read_unchecked(&flow_cache_genid);
+                       if (fle->object)
+                               atomic_dec(fle->object_ref);
+@@ -258,7 +258,7 @@ static void flow_cache_flush_tasklet(unsigned long data)
+               fle = flow_table(cpu)[i];
+               for (; fle; fle = fle->next) {
+-                      unsigned genid = atomic_read(&flow_cache_genid);
++                      unsigned genid = atomic_read_unchecked(&flow_cache_genid);
+                       if (!fle->object || fle->genid == genid)
+                               continue;
+diff --git a/net/core/rtnetlink.c b/net/core/rtnetlink.c
+index d4fd895..ac9b1e6 100644
+--- a/net/core/rtnetlink.c
++++ b/net/core/rtnetlink.c
+@@ -57,7 +57,7 @@ struct rtnl_link
+ {
+       rtnl_doit_func          doit;
+       rtnl_dumpit_func        dumpit;
+-};
++} __no_const;
+ static DEFINE_MUTEX(rtnl_mutex);
+diff --git a/net/core/scm.c b/net/core/scm.c
+index d98eafc..1a190a9 100644
+--- a/net/core/scm.c
++++ b/net/core/scm.c
+@@ -191,7 +191,7 @@ error:
+ int put_cmsg(struct msghdr * msg, int level, int type, int len, void *data)
+ {
+       struct cmsghdr __user *cm
+-              = (__force struct cmsghdr __user *)msg->msg_control;
++              = (struct cmsghdr __force_user *)msg->msg_control;
+       struct cmsghdr cmhdr;
+       int cmlen = CMSG_LEN(len);
+       int err;
+@@ -214,7 +214,7 @@ int put_cmsg(struct msghdr * msg, int level, int type, int len, void *data)
+       err = -EFAULT;
+       if (copy_to_user(cm, &cmhdr, sizeof cmhdr))
+               goto out;
+-      if (copy_to_user(CMSG_DATA(cm), data, cmlen - sizeof(struct cmsghdr)))
++      if (copy_to_user((void __force_user *)CMSG_DATA((void __force_kernel *)cm), data, cmlen - sizeof(struct cmsghdr)))
+               goto out;
+       cmlen = CMSG_SPACE(len);
+       if (msg->msg_controllen < cmlen)
+@@ -229,7 +229,7 @@ out:
+ void scm_detach_fds(struct msghdr *msg, struct scm_cookie *scm)
+ {
+       struct cmsghdr __user *cm
+-              = (__force struct cmsghdr __user*)msg->msg_control;
++              = (struct cmsghdr __force_user *)msg->msg_control;
+       int fdmax = 0;
+       int fdnum = scm->fp->count;
+@@ -249,7 +249,7 @@ void scm_detach_fds(struct msghdr *msg, struct scm_cookie *scm)
+       if (fdnum < fdmax)
+               fdmax = fdnum;
+-      for (i=0, cmfptr=(__force int __user *)CMSG_DATA(cm); i<fdmax;
++      for (i=0, cmfptr=(int __force_user *)CMSG_DATA((void __force_kernel *)cm); i<fdmax;
+            i++, cmfptr++)
+       {
+               int new_fd;
+diff --git a/net/core/secure_seq.c b/net/core/secure_seq.c
+index 45329d7..626aaa6 100644
+--- a/net/core/secure_seq.c
++++ b/net/core/secure_seq.c
+@@ -57,7 +57,7 @@ __u32 secure_tcpv6_sequence_number(__be32 *saddr, __be32 *daddr,
+ EXPORT_SYMBOL(secure_tcpv6_sequence_number);
+ u32 secure_ipv6_port_ephemeral(const __be32 *saddr, const __be32 *daddr,
+-                             __be16 dport)
++                              __be16 dport)
+ {
+       u32 secret[MD5_MESSAGE_BYTES / 4];
+       u32 hash[MD5_DIGEST_WORDS];
+@@ -71,7 +71,6 @@ u32 secure_ipv6_port_ephemeral(const __be32 *saddr, const __be32 *daddr,
+               secret[i] = net_secret[i];
+       md5_transform(hash, secret);
+-
+       return hash[0];
+ }
+ #endif
+diff --git a/net/core/skbuff.c b/net/core/skbuff.c
+index a807f8c..65f906f 100644
+--- a/net/core/skbuff.c
++++ b/net/core/skbuff.c
+@@ -1544,6 +1544,8 @@ int skb_splice_bits(struct sk_buff *skb, unsigned int offset,
+       struct sk_buff *frag_iter;
+       struct sock *sk = skb->sk;
++      pax_track_stack();
++
+       /*
+        * __skb_splice_bits() only fails if the output has no room left,
+        * so no point in going over the frag_list for the error case.
+diff --git a/net/core/sock.c b/net/core/sock.c
+index 6605e75..3acebda 100644
+--- a/net/core/sock.c
++++ b/net/core/sock.c
+@@ -864,11 +864,15 @@ int sock_getsockopt(struct socket *sock, int level, int optname,
+               break;
+       case SO_PEERCRED:
++      {
++              struct ucred peercred;
+               if (len > sizeof(sk->sk_peercred))
+                       len = sizeof(sk->sk_peercred);
+-              if (copy_to_user(optval, &sk->sk_peercred, len))
++              peercred = sk->sk_peercred;
++              if (copy_to_user(optval, &peercred, len))
+                       return -EFAULT;
+               goto lenout;
++      }
+       case SO_PEERNAME:
+       {
+@@ -1892,7 +1896,7 @@ void sock_init_data(struct socket *sock, struct sock *sk)
+        */
+       smp_wmb();
+       atomic_set(&sk->sk_refcnt, 1);
+-      atomic_set(&sk->sk_drops, 0);
++      atomic_set_unchecked(&sk->sk_drops, 0);
+ }
+ EXPORT_SYMBOL(sock_init_data);
+diff --git a/net/decnet/sysctl_net_decnet.c b/net/decnet/sysctl_net_decnet.c
+index 2036568..c55883d 100644
+--- a/net/decnet/sysctl_net_decnet.c
++++ b/net/decnet/sysctl_net_decnet.c
+@@ -206,7 +206,7 @@ static int dn_node_address_handler(ctl_table *table, int write,
+       if (len > *lenp) len = *lenp;
+-      if (copy_to_user(buffer, addr, len))
++      if (len > sizeof addr || copy_to_user(buffer, addr, len))
+               return -EFAULT;
+       *lenp = len;
+@@ -327,7 +327,7 @@ static int dn_def_dev_handler(ctl_table *table, int write,
+       if (len > *lenp) len = *lenp;
+-      if (copy_to_user(buffer, devname, len))
++      if (len > sizeof devname || copy_to_user(buffer, devname, len))
+               return -EFAULT;
+       *lenp = len;
+diff --git a/net/econet/Kconfig b/net/econet/Kconfig
+index 39a2d29..f39c0fe 100644
+--- a/net/econet/Kconfig
++++ b/net/econet/Kconfig
+@@ -4,7 +4,7 @@
+ config ECONET
+       tristate "Acorn Econet/AUN protocols (EXPERIMENTAL)"
+-      depends on EXPERIMENTAL && INET
++      depends on EXPERIMENTAL && INET && BROKEN
+       ---help---
+         Econet is a fairly old and slow networking protocol mainly used by
+         Acorn computers to access file and print servers. It uses native
+diff --git a/net/ieee802154/dgram.c b/net/ieee802154/dgram.c
+index a413b1b..380849c 100644
+--- a/net/ieee802154/dgram.c
++++ b/net/ieee802154/dgram.c
+@@ -318,7 +318,7 @@ out:
+ static int dgram_rcv_skb(struct sock *sk, struct sk_buff *skb)
+ {
+       if (sock_queue_rcv_skb(sk, skb) < 0) {
+-              atomic_inc(&sk->sk_drops);
++              atomic_inc_unchecked(&sk->sk_drops);
+               kfree_skb(skb);
+               return NET_RX_DROP;
+       }
+diff --git a/net/ieee802154/raw.c b/net/ieee802154/raw.c
+index 30e74ee..bfc6ee0 100644
+--- a/net/ieee802154/raw.c
++++ b/net/ieee802154/raw.c
+@@ -206,7 +206,7 @@ out:
+ static int raw_rcv_skb(struct sock *sk, struct sk_buff *skb)
+ {
+       if (sock_queue_rcv_skb(sk, skb) < 0) {
+-              atomic_inc(&sk->sk_drops);
++              atomic_inc_unchecked(&sk->sk_drops);
+               kfree_skb(skb);
+               return NET_RX_DROP;
+       }
+diff --git a/net/ipv4/inet_diag.c b/net/ipv4/inet_diag.c
+index dba56d2..acee5d6 100644
+--- a/net/ipv4/inet_diag.c
++++ b/net/ipv4/inet_diag.c
+@@ -113,8 +113,13 @@ static int inet_csk_diag_fill(struct sock *sk,
+       r->idiag_retrans = 0;
+       r->id.idiag_if = sk->sk_bound_dev_if;
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      r->id.idiag_cookie[0] = 0;
++      r->id.idiag_cookie[1] = 0;
++#else
+       r->id.idiag_cookie[0] = (u32)(unsigned long)sk;
+       r->id.idiag_cookie[1] = (u32)(((unsigned long)sk >> 31) >> 1);
++#endif
+       r->id.idiag_sport = inet->sport;
+       r->id.idiag_dport = inet->dport;
+@@ -200,8 +205,15 @@ static int inet_twsk_diag_fill(struct inet_timewait_sock *tw,
+       r->idiag_family       = tw->tw_family;
+       r->idiag_retrans      = 0;
+       r->id.idiag_if        = tw->tw_bound_dev_if;
++
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      r->id.idiag_cookie[0] = 0;
++      r->id.idiag_cookie[1] = 0;
++#else
+       r->id.idiag_cookie[0] = (u32)(unsigned long)tw;
+       r->id.idiag_cookie[1] = (u32)(((unsigned long)tw >> 31) >> 1);
++#endif
++
+       r->id.idiag_sport     = tw->tw_sport;
+       r->id.idiag_dport     = tw->tw_dport;
+       r->id.idiag_src[0]    = tw->tw_rcv_saddr;
+@@ -284,12 +296,14 @@ static int inet_diag_get_exact(struct sk_buff *in_skb,
+       if (sk == NULL)
+               goto unlock;
++#ifndef CONFIG_GRKERNSEC_HIDESYM
+       err = -ESTALE;
+       if ((req->id.idiag_cookie[0] != INET_DIAG_NOCOOKIE ||
+            req->id.idiag_cookie[1] != INET_DIAG_NOCOOKIE) &&
+           ((u32)(unsigned long)sk != req->id.idiag_cookie[0] ||
+            (u32)((((unsigned long)sk) >> 31) >> 1) != req->id.idiag_cookie[1]))
+               goto out;
++#endif
+       err = -ENOMEM;
+       rep = alloc_skb(NLMSG_SPACE((sizeof(struct inet_diag_msg) +
+@@ -579,8 +593,14 @@ static int inet_diag_fill_req(struct sk_buff *skb, struct sock *sk,
+       r->idiag_retrans = req->retrans;
+       r->id.idiag_if = sk->sk_bound_dev_if;
++
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++      r->id.idiag_cookie[0] = 0;
++      r->id.idiag_cookie[1] = 0;
++#else
+       r->id.idiag_cookie[0] = (u32)(unsigned long)req;
+       r->id.idiag_cookie[1] = (u32)(((unsigned long)req >> 31) >> 1);
++#endif
+       tmo = req->expires - jiffies;
+       if (tmo < 0)
+diff --git a/net/ipv4/inet_hashtables.c b/net/ipv4/inet_hashtables.c
+index d717267..56de7e7 100644
+--- a/net/ipv4/inet_hashtables.c
++++ b/net/ipv4/inet_hashtables.c
+@@ -18,12 +18,15 @@
+ #include <linux/sched.h>
+ #include <linux/slab.h>
+ #include <linux/wait.h>
++#include <linux/security.h>
+ #include <net/inet_connection_sock.h>
+ #include <net/inet_hashtables.h>
+ #include <net/secure_seq.h>
+ #include <net/ip.h>
++extern void gr_update_task_in_ip_table(struct task_struct *task, const struct inet_sock *inet);
++
+ /*
+  * Allocate and initialize a new local port bind bucket.
+  * The bindhash mutex for snum's hash chain must be held here.
+@@ -491,6 +494,8 @@ ok:
+               }
+               spin_unlock(&head->lock);
++              gr_update_task_in_ip_table(current, inet_sk(sk));
++
+               if (tw) {
+                       inet_twsk_deschedule(tw, death_row);
+                       inet_twsk_put(tw);
+diff --git a/net/ipv4/inetpeer.c b/net/ipv4/inetpeer.c
+index 13b229f..6956484 100644
+--- a/net/ipv4/inetpeer.c
++++ b/net/ipv4/inetpeer.c
+@@ -367,6 +367,8 @@ struct inet_peer *inet_getpeer(__be32 daddr, int create)
+       struct inet_peer *p, *n;
+       struct inet_peer **stack[PEER_MAXDEPTH], ***stackptr;
++      pax_track_stack();
++
+       /* Look up for the address quickly. */
+       read_lock_bh(&peer_pool_lock);
+       p = lookup(daddr, NULL);
+@@ -390,7 +392,7 @@ struct inet_peer *inet_getpeer(__be32 daddr, int create)
+               return NULL;
+       n->v4daddr = daddr;
+       atomic_set(&n->refcnt, 1);
+-      atomic_set(&n->rid, 0);
++      atomic_set_unchecked(&n->rid, 0);
+       n->ip_id_count = secure_ip_id(daddr);
+       n->tcp_ts_stamp = 0;
+diff --git a/net/ipv4/ip_fragment.c b/net/ipv4/ip_fragment.c
+index d3fe10b..feeafc9 100644
+--- a/net/ipv4/ip_fragment.c
++++ b/net/ipv4/ip_fragment.c
+@@ -255,7 +255,7 @@ static inline int ip_frag_too_far(struct ipq *qp)
+               return 0;
+       start = qp->rid;
+-      end = atomic_inc_return(&peer->rid);
++      end = atomic_inc_return_unchecked(&peer->rid);
+       qp->rid = end;
+       rc = qp->q.fragments && (end - start) > max;
+diff --git a/net/ipv4/ip_sockglue.c b/net/ipv4/ip_sockglue.c
+index e982b5c..f079d75 100644
+--- a/net/ipv4/ip_sockglue.c
++++ b/net/ipv4/ip_sockglue.c
+@@ -1015,6 +1015,8 @@ static int do_ip_getsockopt(struct sock *sk, int level, int optname,
+       int val;
+       int len;
++      pax_track_stack();
++
+       if (level != SOL_IP)
+               return -EOPNOTSUPP;
+@@ -1173,7 +1175,7 @@ static int do_ip_getsockopt(struct sock *sk, int level, int optname,
+               if (sk->sk_type != SOCK_STREAM)
+                       return -ENOPROTOOPT;
+-              msg.msg_control = optval;
++              msg.msg_control = (void __force_kernel *)optval;
+               msg.msg_controllen = len;
+               msg.msg_flags = 0;
+diff --git a/net/ipv4/ipconfig.c b/net/ipv4/ipconfig.c
+index f8d04c2..c1188f2 100644
+--- a/net/ipv4/ipconfig.c
++++ b/net/ipv4/ipconfig.c
+@@ -295,7 +295,7 @@ static int __init ic_devinet_ioctl(unsigned int cmd, struct ifreq *arg)
+       mm_segment_t oldfs = get_fs();
+       set_fs(get_ds());
+-      res = devinet_ioctl(&init_net, cmd, (struct ifreq __user *) arg);
++      res = devinet_ioctl(&init_net, cmd, (struct ifreq __force_user *) arg);
+       set_fs(oldfs);
+       return res;
+ }
+@@ -306,7 +306,7 @@ static int __init ic_dev_ioctl(unsigned int cmd, struct ifreq *arg)
+       mm_segment_t oldfs = get_fs();
+       set_fs(get_ds());
+-      res = dev_ioctl(&init_net, cmd, (struct ifreq __user *) arg);
++      res = dev_ioctl(&init_net, cmd, (struct ifreq __force_user *) arg);
+       set_fs(oldfs);
+       return res;
+ }
+@@ -317,7 +317,7 @@ static int __init ic_route_ioctl(unsigned int cmd, struct rtentry *arg)
+       mm_segment_t oldfs = get_fs();
+       set_fs(get_ds());
+-      res = ip_rt_ioctl(&init_net, cmd, (void __user *) arg);
++      res = ip_rt_ioctl(&init_net, cmd, (void __force_user *) arg);
+       set_fs(oldfs);
+       return res;
+ }
+diff --git a/net/ipv4/netfilter/arp_tables.c b/net/ipv4/netfilter/arp_tables.c
+index c8b0cc3..4da5ae2 100644
+--- a/net/ipv4/netfilter/arp_tables.c
++++ b/net/ipv4/netfilter/arp_tables.c
+@@ -934,6 +934,7 @@ static int get_info(struct net *net, void __user *user, int *len, int compat)
+                       private = &tmp;
+               }
+ #endif
++              memset(&info, 0, sizeof(info));
+               info.valid_hooks = t->valid_hooks;
+               memcpy(info.hook_entry, private->hook_entry,
+                      sizeof(info.hook_entry));
+diff --git a/net/ipv4/netfilter/ip_queue.c b/net/ipv4/netfilter/ip_queue.c
+index c156db2..e772975 100644
+--- a/net/ipv4/netfilter/ip_queue.c
++++ b/net/ipv4/netfilter/ip_queue.c
+@@ -286,6 +286,9 @@ ipq_mangle_ipv4(ipq_verdict_msg_t *v, struct nf_queue_entry *e)
+       if (v->data_len < sizeof(*user_iph))
+               return 0;
++      if (v->data_len > 65535)
++              return -EMSGSIZE;
++
+       diff = v->data_len - e->skb->len;
+       if (diff < 0) {
+               if (pskb_trim(e->skb, v->data_len))
+@@ -409,7 +412,8 @@ ipq_dev_drop(int ifindex)
+ static inline void
+ __ipq_rcv_skb(struct sk_buff *skb)
+ {
+-      int status, type, pid, flags, nlmsglen, skblen;
++      int status, type, pid, flags;
++      unsigned int nlmsglen, skblen;
+       struct nlmsghdr *nlh;
+       skblen = skb->len;
+diff --git a/net/ipv4/netfilter/ip_tables.c b/net/ipv4/netfilter/ip_tables.c
+index 0606db1..02e7e4c 100644
+--- a/net/ipv4/netfilter/ip_tables.c
++++ b/net/ipv4/netfilter/ip_tables.c
+@@ -1141,6 +1141,7 @@ static int get_info(struct net *net, void __user *user, int *len, int compat)
+                       private = &tmp;
+               }
+ #endif
++              memset(&info, 0, sizeof(info));
+               info.valid_hooks = t->valid_hooks;
+               memcpy(info.hook_entry, private->hook_entry,
+                      sizeof(info.hook_entry));
+diff --git a/net/ipv4/netfilter/nf_nat_snmp_basic.c b/net/ipv4/netfilter/nf_nat_snmp_basic.c
+index d9521f6..3c3eb25 100644
+--- a/net/ipv4/netfilter/nf_nat_snmp_basic.c
++++ b/net/ipv4/netfilter/nf_nat_snmp_basic.c
+@@ -397,7 +397,7 @@ static unsigned char asn1_octets_decode(struct asn1_ctx *ctx,
+       *len = 0;
+-      *octets = kmalloc(eoc - ctx->pointer, GFP_ATOMIC);
++      *octets = kmalloc((eoc - ctx->pointer), GFP_ATOMIC);
+       if (*octets == NULL) {
+               if (net_ratelimit())
+                       printk("OOM in bsalg (%d)\n", __LINE__);
+diff --git a/net/ipv4/raw.c b/net/ipv4/raw.c
+index ab996f9..3da5f96 100644
+--- a/net/ipv4/raw.c
++++ b/net/ipv4/raw.c
+@@ -292,7 +292,7 @@ static int raw_rcv_skb(struct sock * sk, struct sk_buff * skb)
+       /* Charge it to the socket. */
+       if (sock_queue_rcv_skb(sk, skb) < 0) {
+-              atomic_inc(&sk->sk_drops);
++              atomic_inc_unchecked(&sk->sk_drops);
+               kfree_skb(skb);
+               return NET_RX_DROP;
+       }
+@@ -303,7 +303,7 @@ static int raw_rcv_skb(struct sock * sk, struct sk_buff * skb)
+ int raw_rcv(struct sock *sk, struct sk_buff *skb)
+ {
+       if (!xfrm4_policy_check(sk, XFRM_POLICY_IN, skb)) {
+-              atomic_inc(&sk->sk_drops);
++              atomic_inc_unchecked(&sk->sk_drops);
+               kfree_skb(skb);
+               return NET_RX_DROP;
+       }
+@@ -724,16 +724,23 @@ static int raw_init(struct sock *sk)
+ static int raw_seticmpfilter(struct sock *sk, char __user *optval, int optlen)
+ {
++      struct icmp_filter filter;
++
++      if (optlen < 0)
++              return -EINVAL;
+       if (optlen > sizeof(struct icmp_filter))
+               optlen = sizeof(struct icmp_filter);
+-      if (copy_from_user(&raw_sk(sk)->filter, optval, optlen))
++      if (copy_from_user(&filter, optval, optlen))
+               return -EFAULT;
++      raw_sk(sk)->filter = filter;
++
+       return 0;
+ }
+ static int raw_geticmpfilter(struct sock *sk, char __user *optval, int __user *optlen)
+ {
+       int len, ret = -EFAULT;
++      struct icmp_filter filter;
+       if (get_user(len, optlen))
+               goto out;
+@@ -743,8 +750,9 @@ static int raw_geticmpfilter(struct sock *sk, char __user *optval, int __user *o
+       if (len > sizeof(struct icmp_filter))
+               len = sizeof(struct icmp_filter);
+       ret = -EFAULT;
+-      if (put_user(len, optlen) ||
+-          copy_to_user(optval, &raw_sk(sk)->filter, len))
++      filter = raw_sk(sk)->filter;
++      if (put_user(len, optlen) || len > sizeof filter ||
++          copy_to_user(optval, &filter, len))
+               goto out;
+       ret = 0;
+ out:  return ret;
+@@ -954,7 +962,13 @@ static void raw_sock_seq_show(struct seq_file *seq, struct sock *sp, int i)
+               sk_wmem_alloc_get(sp),
+               sk_rmem_alloc_get(sp),
+               0, 0L, 0, sock_i_uid(sp), 0, sock_i_ino(sp),
+-              atomic_read(&sp->sk_refcnt), sp, atomic_read(&sp->sk_drops));
++              atomic_read(&sp->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++              NULL,
++#else
++              sp,
++#endif
++              atomic_read_unchecked(&sp->sk_drops));
+ }
+ static int raw_seq_show(struct seq_file *seq, void *v)
+diff --git a/net/ipv4/route.c b/net/ipv4/route.c
+index 58f141b..b759702 100644
+--- a/net/ipv4/route.c
++++ b/net/ipv4/route.c
+@@ -269,7 +269,7 @@ static inline unsigned int rt_hash(__be32 daddr, __be32 saddr, int idx,
+ static inline int rt_genid(struct net *net)
+ {
+-      return atomic_read(&net->ipv4.rt_genid);
++      return atomic_read_unchecked(&net->ipv4.rt_genid);
+ }
+ #ifdef CONFIG_PROC_FS
+@@ -889,7 +889,7 @@ static void rt_cache_invalidate(struct net *net)
+       unsigned char shuffle;
+       get_random_bytes(&shuffle, sizeof(shuffle));
+-      atomic_add(shuffle + 1U, &net->ipv4.rt_genid);
++      atomic_add_unchecked(shuffle + 1U, &net->ipv4.rt_genid);
+ }
+ /*
+@@ -3357,7 +3357,7 @@ static __net_initdata struct pernet_operations sysctl_route_ops = {
+ static __net_init int rt_secret_timer_init(struct net *net)
+ {
+-      atomic_set(&net->ipv4.rt_genid,
++      atomic_set_unchecked(&net->ipv4.rt_genid,
+                       (int) ((num_physpages ^ (num_physpages>>8)) ^
+                       (jiffies ^ (jiffies >> 7))));
+diff --git a/net/ipv4/tcp.c b/net/ipv4/tcp.c
+index f095659..adc892a 100644
+--- a/net/ipv4/tcp.c
++++ b/net/ipv4/tcp.c
+@@ -2085,6 +2085,8 @@ static int do_tcp_setsockopt(struct sock *sk, int level,
+       int val;
+       int err = 0;
++      pax_track_stack();
++
+       /* This is a string value all the others are int's */
+       if (optname == TCP_CONGESTION) {
+               char name[TCP_CA_NAME_MAX];
+@@ -2355,6 +2357,8 @@ static int do_tcp_getsockopt(struct sock *sk, int level,
+       struct tcp_sock *tp = tcp_sk(sk);
+       int val, len;
++      pax_track_stack();
++
+       if (get_user(len, optlen))
+               return -EFAULT;
+diff --git a/net/ipv4/tcp_ipv4.c b/net/ipv4/tcp_ipv4.c
+index 6fc7961..33bad4a 100644
+--- a/net/ipv4/tcp_ipv4.c
++++ b/net/ipv4/tcp_ipv4.c
+@@ -85,6 +85,9 @@
+ int sysctl_tcp_tw_reuse __read_mostly;
+ int sysctl_tcp_low_latency __read_mostly;
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++extern int grsec_enable_blackhole;
++#endif
+ #ifdef CONFIG_TCP_MD5SIG
+ static struct tcp_md5sig_key *tcp_v4_md5_do_lookup(struct sock *sk,
+@@ -1543,6 +1546,9 @@ int tcp_v4_do_rcv(struct sock *sk, struct sk_buff *skb)
+       return 0;
+ reset:
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++      if (!grsec_enable_blackhole)
++#endif
+       tcp_v4_send_reset(rsk, skb);
+ discard:
+       kfree_skb(skb);
+@@ -1604,12 +1610,20 @@ int tcp_v4_rcv(struct sk_buff *skb)
+       TCP_SKB_CB(skb)->sacked  = 0;
+       sk = __inet_lookup_skb(&tcp_hashinfo, skb, th->source, th->dest);
+-      if (!sk)
++      if (!sk) {
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++              ret = 1;
++#endif
+               goto no_tcp_socket;
++      }
+ process:
+-      if (sk->sk_state == TCP_TIME_WAIT)
++      if (sk->sk_state == TCP_TIME_WAIT) {
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++              ret = 2;
++#endif
+               goto do_time_wait;
++      }
+       if (!xfrm4_policy_check(sk, XFRM_POLICY_IN, skb))
+               goto discard_and_relse;
+@@ -1651,6 +1665,10 @@ no_tcp_socket:
+ bad_packet:
+               TCP_INC_STATS_BH(net, TCP_MIB_INERRS);
+       } else {
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++              if (!grsec_enable_blackhole || (ret == 1 &&
++                  (skb->dev->flags & IFF_LOOPBACK)))
++#endif
+               tcp_v4_send_reset(NULL, skb);
+       }
+@@ -2238,7 +2256,11 @@ static void get_openreq4(struct sock *sk, struct request_sock *req,
+               0,  /* non standard timer */
+               0, /* open_requests have no inode */
+               atomic_read(&sk->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++              NULL,
++#else
+               req,
++#endif
+               len);
+ }
+@@ -2280,7 +2302,12 @@ static void get_tcp4_sock(struct sock *sk, struct seq_file *f, int i, int *len)
+               sock_i_uid(sk),
+               icsk->icsk_probes_out,
+               sock_i_ino(sk),
+-              atomic_read(&sk->sk_refcnt), sk,
++              atomic_read(&sk->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++              NULL,
++#else
++              sk,
++#endif
+               jiffies_to_clock_t(icsk->icsk_rto),
+               jiffies_to_clock_t(icsk->icsk_ack.ato),
+               (icsk->icsk_ack.quick << 1) | icsk->icsk_ack.pingpong,
+@@ -2308,7 +2335,13 @@ static void get_timewait4_sock(struct inet_timewait_sock *tw,
+               " %02X %08X:%08X %02X:%08lX %08X %5d %8d %d %d %p%n",
+               i, src, srcp, dest, destp, tw->tw_substate, 0, 0,
+               3, jiffies_to_clock_t(ttd), 0, 0, 0, 0,
+-              atomic_read(&tw->tw_refcnt), tw, len);
++              atomic_read(&tw->tw_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++              NULL,
++#else
++              tw,
++#endif
++              len);
+ }
+ #define TMPSZ 150
+diff --git a/net/ipv4/tcp_minisocks.c b/net/ipv4/tcp_minisocks.c
+index 4c03598..e09a8e8 100644
+--- a/net/ipv4/tcp_minisocks.c
++++ b/net/ipv4/tcp_minisocks.c
+@@ -26,6 +26,10 @@
+ #include <net/inet_common.h>
+ #include <net/xfrm.h>
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++extern int grsec_enable_blackhole;
++#endif
++
+ #ifdef CONFIG_SYSCTL
+ #define SYNC_INIT 0 /* let the user enable it */
+ #else
+@@ -672,6 +676,10 @@ listen_overflow:
+ embryonic_reset:
+       NET_INC_STATS_BH(sock_net(sk), LINUX_MIB_EMBRYONICRSTS);
++
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++      if (!grsec_enable_blackhole)
++#endif
+       if (!(flg & TCP_FLAG_RST))
+               req->rsk_ops->send_reset(sk, skb);
+diff --git a/net/ipv4/tcp_output.c b/net/ipv4/tcp_output.c
+index af83bdf..ec91cb2 100644
+--- a/net/ipv4/tcp_output.c
++++ b/net/ipv4/tcp_output.c
+@@ -2234,6 +2234,8 @@ struct sk_buff *tcp_make_synack(struct sock *sk, struct dst_entry *dst,
+       __u8 *md5_hash_location;
+       int mss;
++      pax_track_stack();
++
+       skb = sock_wmalloc(sk, MAX_TCP_HEADER + 15, 1, GFP_ATOMIC);
+       if (skb == NULL)
+               return NULL;
+diff --git a/net/ipv4/tcp_probe.c b/net/ipv4/tcp_probe.c
+index 59f5b5e..193860f 100644
+--- a/net/ipv4/tcp_probe.c
++++ b/net/ipv4/tcp_probe.c
+@@ -200,7 +200,7 @@ static ssize_t tcpprobe_read(struct file *file, char __user *buf,
+               if (cnt + width >= len)
+                       break;
+-              if (copy_to_user(buf + cnt, tbuf, width))
++              if (width > sizeof tbuf || copy_to_user(buf + cnt, tbuf, width))
+                       return -EFAULT;
+               cnt += width;
+       }
+diff --git a/net/ipv4/tcp_timer.c b/net/ipv4/tcp_timer.c
+index 57d5501..a9ed13a 100644
+--- a/net/ipv4/tcp_timer.c
++++ b/net/ipv4/tcp_timer.c
+@@ -21,6 +21,10 @@
+ #include <linux/module.h>
+ #include <net/tcp.h>
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++extern int grsec_lastack_retries;
++#endif
++
+ int sysctl_tcp_syn_retries __read_mostly = TCP_SYN_RETRIES;
+ int sysctl_tcp_synack_retries __read_mostly = TCP_SYNACK_RETRIES;
+ int sysctl_tcp_keepalive_time __read_mostly = TCP_KEEPALIVE_TIME;
+@@ -164,6 +168,13 @@ static int tcp_write_timeout(struct sock *sk)
+               }
+       }
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++      if ((sk->sk_state == TCP_LAST_ACK) &&
++          (grsec_lastack_retries > 0) &&
++          (grsec_lastack_retries < retry_until))
++              retry_until = grsec_lastack_retries;
++#endif
++
+       if (retransmits_timed_out(sk, retry_until)) {
+               /* Has it gone just too far? */
+               tcp_write_err(sk);
+diff --git a/net/ipv4/udp.c b/net/ipv4/udp.c
+index 0ac8833..58d8c43 100644
+--- a/net/ipv4/udp.c
++++ b/net/ipv4/udp.c
+@@ -86,6 +86,7 @@
+ #include <linux/types.h>
+ #include <linux/fcntl.h>
+ #include <linux/module.h>
++#include <linux/security.h>
+ #include <linux/socket.h>
+ #include <linux/sockios.h>
+ #include <linux/igmp.h>
+@@ -106,6 +107,10 @@
+ #include <net/xfrm.h>
+ #include "udp_impl.h"
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++extern int grsec_enable_blackhole;
++#endif
++
+ struct udp_table udp_table;
+ EXPORT_SYMBOL(udp_table);
+@@ -371,6 +376,9 @@ found:
+       return s;
+ }
++extern int gr_search_udp_recvmsg(struct sock *sk, const struct sk_buff *skb);
++extern int gr_search_udp_sendmsg(struct sock *sk, struct sockaddr_in *addr);
++
+ /*
+  * This routine is called by the ICMP module when it gets some
+  * sort of error condition.  If err < 0 then the socket should
+@@ -639,9 +647,18 @@ int udp_sendmsg(struct kiocb *iocb, struct sock *sk, struct msghdr *msg,
+               dport = usin->sin_port;
+               if (dport == 0)
+                       return -EINVAL;
++
++              err = gr_search_udp_sendmsg(sk, usin);
++              if (err)
++                      return err;
+       } else {
+               if (sk->sk_state != TCP_ESTABLISHED)
+                       return -EDESTADDRREQ;
++
++              err = gr_search_udp_sendmsg(sk, NULL);
++              if (err)
++                      return err;
++
+               daddr = inet->daddr;
+               dport = inet->dport;
+               /* Open fast path for connected socket.
+@@ -945,6 +962,10 @@ try_again:
+       if (!skb)
+               goto out;
++      err = gr_search_udp_recvmsg(sk, skb);
++      if (err)
++              goto out_free;
++
+       ulen = skb->len - sizeof(struct udphdr);
+       copied = len;
+       if (copied > ulen)
+@@ -1068,7 +1089,7 @@ static int __udp_queue_rcv_skb(struct sock *sk, struct sk_buff *skb)
+               if (rc == -ENOMEM) {
+                       UDP_INC_STATS_BH(sock_net(sk), UDP_MIB_RCVBUFERRORS,
+                                        is_udplite);
+-                      atomic_inc(&sk->sk_drops);
++                      atomic_inc_unchecked(&sk->sk_drops);
+               }
+               goto drop;
+       }
+@@ -1338,6 +1359,9 @@ int __udp4_lib_rcv(struct sk_buff *skb, struct udp_table *udptable,
+               goto csum_error;
+       UDP_INC_STATS_BH(net, UDP_MIB_NOPORTS, proto == IPPROTO_UDPLITE);
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++      if (!grsec_enable_blackhole || (skb->dev->flags & IFF_LOOPBACK))
++#endif
+       icmp_send(skb, ICMP_DEST_UNREACH, ICMP_PORT_UNREACH, 0);
+       /*
+@@ -1758,8 +1782,13 @@ static void udp4_format_sock(struct sock *sp, struct seq_file *f,
+               sk_wmem_alloc_get(sp),
+               sk_rmem_alloc_get(sp),
+               0, 0L, 0, sock_i_uid(sp), 0, sock_i_ino(sp),
+-              atomic_read(&sp->sk_refcnt), sp,
+-              atomic_read(&sp->sk_drops), len);
++              atomic_read(&sp->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++              NULL,
++#else
++              sp,
++#endif
++              atomic_read_unchecked(&sp->sk_drops), len);
+ }
+ int udp4_seq_show(struct seq_file *seq, void *v)
+diff --git a/net/ipv6/addrconf.c b/net/ipv6/addrconf.c
+index 8ac3d09..fc58c5f 100644
+--- a/net/ipv6/addrconf.c
++++ b/net/ipv6/addrconf.c
+@@ -2053,7 +2053,7 @@ int addrconf_set_dstaddr(struct net *net, void __user *arg)
+               p.iph.ihl = 5;
+               p.iph.protocol = IPPROTO_IPV6;
+               p.iph.ttl = 64;
+-              ifr.ifr_ifru.ifru_data = (__force void __user *)&p;
++              ifr.ifr_ifru.ifru_data = (void __force_user *)&p;
+               if (ops->ndo_do_ioctl) {
+                       mm_segment_t oldfs = get_fs();
+diff --git a/net/ipv6/inet6_connection_sock.c b/net/ipv6/inet6_connection_sock.c
+index cc4797d..7cfdfcc 100644
+--- a/net/ipv6/inet6_connection_sock.c
++++ b/net/ipv6/inet6_connection_sock.c
+@@ -152,7 +152,7 @@ void __inet6_csk_dst_store(struct sock *sk, struct dst_entry *dst,
+ #ifdef CONFIG_XFRM
+       {
+               struct rt6_info *rt = (struct rt6_info  *)dst;
+-              rt->rt6i_flow_cache_genid = atomic_read(&flow_cache_genid);
++              rt->rt6i_flow_cache_genid = atomic_read_unchecked(&flow_cache_genid);
+       }
+ #endif
+ }
+@@ -167,7 +167,7 @@ struct dst_entry *__inet6_csk_dst_check(struct sock *sk, u32 cookie)
+ #ifdef CONFIG_XFRM
+       if (dst) {
+               struct rt6_info *rt = (struct rt6_info *)dst;
+-              if (rt->rt6i_flow_cache_genid != atomic_read(&flow_cache_genid)) {
++              if (rt->rt6i_flow_cache_genid != atomic_read_unchecked(&flow_cache_genid)) {
+                       sk->sk_dst_cache = NULL;
+                       dst_release(dst);
+                       dst = NULL;
+diff --git a/net/ipv6/inet6_hashtables.c b/net/ipv6/inet6_hashtables.c
+index 093e9b2..f72cddb 100644
+--- a/net/ipv6/inet6_hashtables.c
++++ b/net/ipv6/inet6_hashtables.c
+@@ -119,7 +119,7 @@ out:
+ }
+ EXPORT_SYMBOL(__inet6_lookup_established);
+-static int inline compute_score(struct sock *sk, struct net *net,
++static inline int compute_score(struct sock *sk, struct net *net,
+                               const unsigned short hnum,
+                               const struct in6_addr *daddr,
+                               const int dif)
+diff --git a/net/ipv6/ipv6_sockglue.c b/net/ipv6/ipv6_sockglue.c
+index 4f7aaf6..f7acf45 100644
+--- a/net/ipv6/ipv6_sockglue.c
++++ b/net/ipv6/ipv6_sockglue.c
+@@ -130,6 +130,8 @@ static int do_ipv6_setsockopt(struct sock *sk, int level, int optname,
+       int val, valbool;
+       int retv = -ENOPROTOOPT;
++      pax_track_stack();
++
+       if (optval == NULL)
+               val=0;
+       else {
+@@ -881,6 +883,8 @@ static int do_ipv6_getsockopt(struct sock *sk, int level, int optname,
+       int len;
+       int val;
++      pax_track_stack();
++
+       if (ip6_mroute_opt(optname))
+               return ip6_mroute_getsockopt(sk, optname, optval, optlen);
+@@ -922,7 +926,7 @@ static int do_ipv6_getsockopt(struct sock *sk, int level, int optname,
+               if (sk->sk_type != SOCK_STREAM)
+                       return -ENOPROTOOPT;
+-              msg.msg_control = optval;
++              msg.msg_control = (void __force_kernel *)optval;
+               msg.msg_controllen = len;
+               msg.msg_flags = 0;
+diff --git a/net/ipv6/netfilter/ip6_queue.c b/net/ipv6/netfilter/ip6_queue.c
+index 1cf3f0c..1d4376f 100644
+--- a/net/ipv6/netfilter/ip6_queue.c
++++ b/net/ipv6/netfilter/ip6_queue.c
+@@ -287,6 +287,9 @@ ipq_mangle_ipv6(ipq_verdict_msg_t *v, struct nf_queue_entry *e)
+       if (v->data_len < sizeof(*user_iph))
+               return 0;
++      if (v->data_len > 65535)
++              return -EMSGSIZE;
++
+       diff = v->data_len - e->skb->len;
+       if (diff < 0) {
+               if (pskb_trim(e->skb, v->data_len))
+@@ -411,7 +414,8 @@ ipq_dev_drop(int ifindex)
+ static inline void
+ __ipq_rcv_skb(struct sk_buff *skb)
+ {
+-      int status, type, pid, flags, nlmsglen, skblen;
++      int status, type, pid, flags;
++      unsigned int nlmsglen, skblen;
+       struct nlmsghdr *nlh;
+       skblen = skb->len;
+diff --git a/net/ipv6/netfilter/ip6_tables.c b/net/ipv6/netfilter/ip6_tables.c
+index 78b5a36..7f37433 100644
+--- a/net/ipv6/netfilter/ip6_tables.c
++++ b/net/ipv6/netfilter/ip6_tables.c
+@@ -1173,6 +1173,7 @@ static int get_info(struct net *net, void __user *user, int *len, int compat)
+                       private = &tmp;
+               }
+ #endif
++              memset(&info, 0, sizeof(info));
+               info.valid_hooks = t->valid_hooks;
+               memcpy(info.hook_entry, private->hook_entry,
+                      sizeof(info.hook_entry));
+diff --git a/net/ipv6/raw.c b/net/ipv6/raw.c
+index 4f24570..b813b34 100644
+--- a/net/ipv6/raw.c
++++ b/net/ipv6/raw.c
+@@ -375,14 +375,14 @@ static inline int rawv6_rcv_skb(struct sock * sk, struct sk_buff * skb)
+ {
+       if ((raw6_sk(sk)->checksum || sk->sk_filter) &&
+           skb_checksum_complete(skb)) {
+-              atomic_inc(&sk->sk_drops);
++              atomic_inc_unchecked(&sk->sk_drops);
+               kfree_skb(skb);
+               return NET_RX_DROP;
+       }
+       /* Charge it to the socket. */
+       if (sock_queue_rcv_skb(sk,skb)<0) {
+-              atomic_inc(&sk->sk_drops);
++              atomic_inc_unchecked(&sk->sk_drops);
+               kfree_skb(skb);
+               return NET_RX_DROP;
+       }
+@@ -403,7 +403,7 @@ int rawv6_rcv(struct sock *sk, struct sk_buff *skb)
+       struct raw6_sock *rp = raw6_sk(sk);
+       if (!xfrm6_policy_check(sk, XFRM_POLICY_IN, skb)) {
+-              atomic_inc(&sk->sk_drops);
++              atomic_inc_unchecked(&sk->sk_drops);
+               kfree_skb(skb);
+               return NET_RX_DROP;
+       }
+@@ -427,7 +427,7 @@ int rawv6_rcv(struct sock *sk, struct sk_buff *skb)
+       if (inet->hdrincl) {
+               if (skb_checksum_complete(skb)) {
+-                      atomic_inc(&sk->sk_drops);
++                      atomic_inc_unchecked(&sk->sk_drops);
+                       kfree_skb(skb);
+                       return NET_RX_DROP;
+               }
+@@ -518,7 +518,7 @@ csum_copy_err:
+          as some normal condition.
+        */
+       err = (flags&MSG_DONTWAIT) ? -EAGAIN : -EHOSTUNREACH;
+-      atomic_inc(&sk->sk_drops);
++      atomic_inc_unchecked(&sk->sk_drops);
+       goto out;
+ }
+@@ -600,7 +600,7 @@ out:
+       return err;
+ }
+-static int rawv6_send_hdrinc(struct sock *sk, void *from, int length,
++static int rawv6_send_hdrinc(struct sock *sk, void *from, unsigned int length,
+                       struct flowi *fl, struct rt6_info *rt,
+                       unsigned int flags)
+ {
+@@ -738,6 +738,8 @@ static int rawv6_sendmsg(struct kiocb *iocb, struct sock *sk,
+       u16 proto;
+       int err;
++      pax_track_stack();
++
+       /* Rough check on arithmetic overflow,
+          better check is made in ip6_append_data().
+        */
+@@ -916,12 +918,17 @@ do_confirm:
+ static int rawv6_seticmpfilter(struct sock *sk, int level, int optname,
+                              char __user *optval, int optlen)
+ {
++      struct icmp6_filter filter;
++
+       switch (optname) {
+       case ICMPV6_FILTER:
++              if (optlen < 0)
++                      return -EINVAL;
+               if (optlen > sizeof(struct icmp6_filter))
+                       optlen = sizeof(struct icmp6_filter);
+-              if (copy_from_user(&raw6_sk(sk)->filter, optval, optlen))
++              if (copy_from_user(&filter, optval, optlen))
+                       return -EFAULT;
++              raw6_sk(sk)->filter = filter;
+               return 0;
+       default:
+               return -ENOPROTOOPT;
+@@ -934,6 +941,7 @@ static int rawv6_geticmpfilter(struct sock *sk, int level, int optname,
+                              char __user *optval, int __user *optlen)
+ {
+       int len;
++      struct icmp6_filter filter;
+       switch (optname) {
+       case ICMPV6_FILTER:
+@@ -945,7 +953,8 @@ static int rawv6_geticmpfilter(struct sock *sk, int level, int optname,
+                       len = sizeof(struct icmp6_filter);
+               if (put_user(len, optlen))
+                       return -EFAULT;
+-              if (copy_to_user(optval, &raw6_sk(sk)->filter, len))
++              filter = raw6_sk(sk)->filter;
++              if (len > sizeof filter || copy_to_user(optval, &filter, len))
+                       return -EFAULT;
+               return 0;
+       default:
+@@ -1241,7 +1250,13 @@ static void raw6_sock_seq_show(struct seq_file *seq, struct sock *sp, int i)
+                  0, 0L, 0,
+                  sock_i_uid(sp), 0,
+                  sock_i_ino(sp),
+-                 atomic_read(&sp->sk_refcnt), sp, atomic_read(&sp->sk_drops));
++                 atomic_read(&sp->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                 NULL,
++#else
++                 sp,
++#endif
++                 atomic_read_unchecked(&sp->sk_drops));
+ }
+ static int raw6_seq_show(struct seq_file *seq, void *v)
+diff --git a/net/ipv6/tcp_ipv6.c b/net/ipv6/tcp_ipv6.c
+index faae6df..d4430c1 100644
+--- a/net/ipv6/tcp_ipv6.c
++++ b/net/ipv6/tcp_ipv6.c
+@@ -89,6 +89,10 @@ static struct tcp_md5sig_key *tcp_v6_md5_do_lookup(struct sock *sk,
+ }
+ #endif
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++extern int grsec_enable_blackhole;
++#endif
++
+ static void tcp_v6_hash(struct sock *sk)
+ {
+       if (sk->sk_state != TCP_CLOSE) {
+@@ -1579,6 +1583,9 @@ static int tcp_v6_do_rcv(struct sock *sk, struct sk_buff *skb)
+       return 0;
+ reset:
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++      if (!grsec_enable_blackhole)
++#endif
+       tcp_v6_send_reset(sk, skb);
+ discard:
+       if (opt_skb)
+@@ -1656,12 +1663,20 @@ static int tcp_v6_rcv(struct sk_buff *skb)
+       TCP_SKB_CB(skb)->sacked = 0;
+       sk = __inet6_lookup_skb(&tcp_hashinfo, skb, th->source, th->dest);
+-      if (!sk)
++      if (!sk) {
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++              ret = 1;
++#endif
+               goto no_tcp_socket;
++      }
+ process:
+-      if (sk->sk_state == TCP_TIME_WAIT)
++      if (sk->sk_state == TCP_TIME_WAIT) {
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++              ret = 2;
++#endif
+               goto do_time_wait;
++      }
+       if (!xfrm6_policy_check(sk, XFRM_POLICY_IN, skb))
+               goto discard_and_relse;
+@@ -1701,6 +1716,10 @@ no_tcp_socket:
+ bad_packet:
+               TCP_INC_STATS_BH(net, TCP_MIB_INERRS);
+       } else {
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++              if (!grsec_enable_blackhole || (ret == 1 &&
++                  (skb->dev->flags & IFF_LOOPBACK)))
++#endif
+               tcp_v6_send_reset(NULL, skb);
+       }
+@@ -1916,7 +1935,13 @@ static void get_openreq6(struct seq_file *seq,
+                  uid,
+                  0,  /* non standard timer */
+                  0, /* open_requests have no inode */
+-                 0, req);
++                 0,
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                 NULL
++#else
++                 req
++#endif
++                 );
+ }
+ static void get_tcp6_sock(struct seq_file *seq, struct sock *sp, int i)
+@@ -1966,7 +1991,12 @@ static void get_tcp6_sock(struct seq_file *seq, struct sock *sp, int i)
+                  sock_i_uid(sp),
+                  icsk->icsk_probes_out,
+                  sock_i_ino(sp),
+-                 atomic_read(&sp->sk_refcnt), sp,
++                 atomic_read(&sp->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                 NULL,
++#else
++                 sp,
++#endif
+                  jiffies_to_clock_t(icsk->icsk_rto),
+                  jiffies_to_clock_t(icsk->icsk_ack.ato),
+                  (icsk->icsk_ack.quick << 1 ) | icsk->icsk_ack.pingpong,
+@@ -2001,7 +2031,13 @@ static void get_timewait6_sock(struct seq_file *seq,
+                  dest->s6_addr32[2], dest->s6_addr32[3], destp,
+                  tw->tw_substate, 0, 0,
+                  3, jiffies_to_clock_t(ttd), 0, 0, 0, 0,
+-                 atomic_read(&tw->tw_refcnt), tw);
++                 atomic_read(&tw->tw_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                 NULL
++#else
++                 tw
++#endif
++                 );
+ }
+ static int tcp6_seq_show(struct seq_file *seq, void *v)
+diff --git a/net/ipv6/udp.c b/net/ipv6/udp.c
+index 9cc6289..052c521 100644
+--- a/net/ipv6/udp.c
++++ b/net/ipv6/udp.c
+@@ -49,6 +49,10 @@
+ #include <linux/seq_file.h>
+ #include "udp_impl.h"
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++extern int grsec_enable_blackhole;
++#endif
++
+ int ipv6_rcv_saddr_equal(const struct sock *sk, const struct sock *sk2)
+ {
+       const struct in6_addr *sk_rcv_saddr6 = &inet6_sk(sk)->rcv_saddr;
+@@ -391,7 +395,7 @@ int udpv6_queue_rcv_skb(struct sock * sk, struct sk_buff *skb)
+               if (rc == -ENOMEM) {
+                       UDP6_INC_STATS_BH(sock_net(sk),
+                                       UDP_MIB_RCVBUFERRORS, is_udplite);
+-                      atomic_inc(&sk->sk_drops);
++                      atomic_inc_unchecked(&sk->sk_drops);
+               }
+               goto drop;
+       }
+@@ -590,6 +594,9 @@ int __udp6_lib_rcv(struct sk_buff *skb, struct udp_table *udptable,
+               UDP6_INC_STATS_BH(net, UDP_MIB_NOPORTS,
+                               proto == IPPROTO_UDPLITE);
++#ifdef CONFIG_GRKERNSEC_BLACKHOLE
++              if (!grsec_enable_blackhole || (skb->dev->flags & IFF_LOOPBACK))
++#endif
+               icmpv6_send(skb, ICMPV6_DEST_UNREACH, ICMPV6_PORT_UNREACH, 0, dev);
+               kfree_skb(skb);
+@@ -1209,8 +1216,13 @@ static void udp6_sock_seq_show(struct seq_file *seq, struct sock *sp, int bucket
+                  0, 0L, 0,
+                  sock_i_uid(sp), 0,
+                  sock_i_ino(sp),
+-                 atomic_read(&sp->sk_refcnt), sp,
+-                 atomic_read(&sp->sk_drops));
++                 atomic_read(&sp->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                 NULL,
++#else
++                 sp,
++#endif
++                 atomic_read_unchecked(&sp->sk_drops));
+ }
+ int udp6_seq_show(struct seq_file *seq, void *v)
+diff --git a/net/irda/ircomm/ircomm_tty.c b/net/irda/ircomm/ircomm_tty.c
+index 811984d..11f59b7 100644
+--- a/net/irda/ircomm/ircomm_tty.c
++++ b/net/irda/ircomm/ircomm_tty.c
+@@ -280,16 +280,16 @@ static int ircomm_tty_block_til_ready(struct ircomm_tty_cb *self,
+       add_wait_queue(&self->open_wait, &wait);
+       IRDA_DEBUG(2, "%s(%d):block_til_ready before block on %s open_count=%d\n",
+-            __FILE__,__LINE__, tty->driver->name, self->open_count );
++            __FILE__,__LINE__, tty->driver->name, local_read(&self->open_count) );
+       /* As far as I can see, we protect open_count - Jean II */
+       spin_lock_irqsave(&self->spinlock, flags);
+       if (!tty_hung_up_p(filp)) {
+               extra_count = 1;
+-              self->open_count--;
++              local_dec(&self->open_count);
+       }
+       spin_unlock_irqrestore(&self->spinlock, flags);
+-      self->blocked_open++;
++      local_inc(&self->blocked_open);
+       while (1) {
+               if (tty->termios->c_cflag & CBAUD) {
+@@ -329,7 +329,7 @@ static int ircomm_tty_block_til_ready(struct ircomm_tty_cb *self,
+               }
+               IRDA_DEBUG(1, "%s(%d):block_til_ready blocking on %s open_count=%d\n",
+-                    __FILE__,__LINE__, tty->driver->name, self->open_count );
++                    __FILE__,__LINE__, tty->driver->name, local_read(&self->open_count) );
+               schedule();
+       }
+@@ -340,13 +340,13 @@ static int ircomm_tty_block_til_ready(struct ircomm_tty_cb *self,
+       if (extra_count) {
+               /* ++ is not atomic, so this should be protected - Jean II */
+               spin_lock_irqsave(&self->spinlock, flags);
+-              self->open_count++;
++              local_inc(&self->open_count);
+               spin_unlock_irqrestore(&self->spinlock, flags);
+       }
+-      self->blocked_open--;
++      local_dec(&self->blocked_open);
+       IRDA_DEBUG(1, "%s(%d):block_til_ready after blocking on %s open_count=%d\n",
+-            __FILE__,__LINE__, tty->driver->name, self->open_count);
++            __FILE__,__LINE__, tty->driver->name, local_read(&self->open_count));
+       if (!retval)
+               self->flags |= ASYNC_NORMAL_ACTIVE;
+@@ -415,14 +415,14 @@ static int ircomm_tty_open(struct tty_struct *tty, struct file *filp)
+       }
+       /* ++ is not atomic, so this should be protected - Jean II */
+       spin_lock_irqsave(&self->spinlock, flags);
+-      self->open_count++;
++      local_inc(&self->open_count);
+       tty->driver_data = self;
+       self->tty = tty;
+       spin_unlock_irqrestore(&self->spinlock, flags);
+       IRDA_DEBUG(1, "%s(), %s%d, count = %d\n", __func__ , tty->driver->name,
+-                 self->line, self->open_count);
++                 self->line, local_read(&self->open_count));
+       /* Not really used by us, but lets do it anyway */
+       self->tty->low_latency = (self->flags & ASYNC_LOW_LATENCY) ? 1 : 0;
+@@ -511,7 +511,7 @@ static void ircomm_tty_close(struct tty_struct *tty, struct file *filp)
+               return;
+       }
+-      if ((tty->count == 1) && (self->open_count != 1)) {
++      if ((tty->count == 1) && (local_read(&self->open_count) != 1)) {
+               /*
+                * Uh, oh.  tty->count is 1, which means that the tty
+                * structure will be freed.  state->count should always
+@@ -521,16 +521,16 @@ static void ircomm_tty_close(struct tty_struct *tty, struct file *filp)
+                */
+               IRDA_DEBUG(0, "%s(), bad serial port count; "
+                          "tty->count is 1, state->count is %d\n", __func__ ,
+-                         self->open_count);
+-              self->open_count = 1;
++                         local_read(&self->open_count));
++              local_set(&self->open_count, 1);
+       }
+-      if (--self->open_count < 0) {
++      if (local_dec_return(&self->open_count) < 0) {
+               IRDA_ERROR("%s(), bad serial port count for ttys%d: %d\n",
+-                         __func__, self->line, self->open_count);
+-              self->open_count = 0;
++                         __func__, self->line, local_read(&self->open_count));
++              local_set(&self->open_count, 0);
+       }
+-      if (self->open_count) {
++      if (local_read(&self->open_count)) {
+               spin_unlock_irqrestore(&self->spinlock, flags);
+               IRDA_DEBUG(0, "%s(), open count > 0\n", __func__ );
+@@ -562,7 +562,7 @@ static void ircomm_tty_close(struct tty_struct *tty, struct file *filp)
+       tty->closing = 0;
+       self->tty = NULL;
+-      if (self->blocked_open) {
++      if (local_read(&self->blocked_open)) {
+               if (self->close_delay)
+                       schedule_timeout_interruptible(self->close_delay);
+               wake_up_interruptible(&self->open_wait);
+@@ -1017,7 +1017,7 @@ static void ircomm_tty_hangup(struct tty_struct *tty)
+       spin_lock_irqsave(&self->spinlock, flags);
+       self->flags &= ~ASYNC_NORMAL_ACTIVE;
+       self->tty = NULL;
+-      self->open_count = 0;
++      local_set(&self->open_count, 0);
+       spin_unlock_irqrestore(&self->spinlock, flags);
+       wake_up_interruptible(&self->open_wait);
+@@ -1369,7 +1369,7 @@ static void ircomm_tty_line_info(struct ircomm_tty_cb *self, struct seq_file *m)
+       seq_putc(m, '\n');
+       seq_printf(m, "Role: %s\n", self->client ? "client" : "server");
+-      seq_printf(m, "Open count: %d\n", self->open_count);
++      seq_printf(m, "Open count: %d\n", local_read(&self->open_count));
+       seq_printf(m, "Max data size: %d\n", self->max_data_size);
+       seq_printf(m, "Max header size: %d\n", self->max_header_size);
+diff --git a/net/iucv/af_iucv.c b/net/iucv/af_iucv.c
+index bada1b9..f325943 100644
+--- a/net/iucv/af_iucv.c
++++ b/net/iucv/af_iucv.c
+@@ -651,10 +651,10 @@ static int iucv_sock_autobind(struct sock *sk)
+       write_lock_bh(&iucv_sk_list.lock);
+-      sprintf(name, "%08x", atomic_inc_return(&iucv_sk_list.autobind_name));
++      sprintf(name, "%08x", atomic_inc_return_unchecked(&iucv_sk_list.autobind_name));
+       while (__iucv_get_sock_by_name(name)) {
+               sprintf(name, "%08x",
+-                      atomic_inc_return(&iucv_sk_list.autobind_name));
++                      atomic_inc_return_unchecked(&iucv_sk_list.autobind_name));
+       }
+       write_unlock_bh(&iucv_sk_list.lock);
+diff --git a/net/key/af_key.c b/net/key/af_key.c
+index 4e98193..439b449 100644
+--- a/net/key/af_key.c
++++ b/net/key/af_key.c
+@@ -2489,6 +2489,8 @@ static int pfkey_migrate(struct sock *sk, struct sk_buff *skb,
+       struct xfrm_migrate m[XFRM_MAX_DEPTH];
+       struct xfrm_kmaddress k;
++      pax_track_stack();
++
+       if (!present_and_same_family(ext_hdrs[SADB_EXT_ADDRESS_SRC - 1],
+                                    ext_hdrs[SADB_EXT_ADDRESS_DST - 1]) ||
+           !ext_hdrs[SADB_X_EXT_POLICY - 1]) {
+@@ -3660,7 +3662,11 @@ static int pfkey_seq_show(struct seq_file *f, void *v)
+               seq_printf(f ,"sk       RefCnt Rmem   Wmem   User   Inode\n");
+       else
+               seq_printf(f ,"%p %-6d %-6u %-6u %-6u %-6lu\n",
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                             NULL,
++#else
+                              s,
++#endif
+                              atomic_read(&s->sk_refcnt),
+                              sk_rmem_alloc_get(s),
+                              sk_wmem_alloc_get(s),
+diff --git a/net/lapb/lapb_iface.c b/net/lapb/lapb_iface.c
+index bda96d1..c038b72 100644
+--- a/net/lapb/lapb_iface.c
++++ b/net/lapb/lapb_iface.c
+@@ -157,7 +157,7 @@ int lapb_register(struct net_device *dev, struct lapb_register_struct *callbacks
+               goto out;
+       lapb->dev       = dev;
+-      lapb->callbacks = *callbacks;
++      lapb->callbacks = callbacks;
+       __lapb_insert_cb(lapb);
+@@ -379,32 +379,32 @@ int lapb_data_received(struct net_device *dev, struct sk_buff *skb)
+ void lapb_connect_confirmation(struct lapb_cb *lapb, int reason)
+ {
+-      if (lapb->callbacks.connect_confirmation)
+-              lapb->callbacks.connect_confirmation(lapb->dev, reason);
++      if (lapb->callbacks->connect_confirmation)
++              lapb->callbacks->connect_confirmation(lapb->dev, reason);
+ }
+ void lapb_connect_indication(struct lapb_cb *lapb, int reason)
+ {
+-      if (lapb->callbacks.connect_indication)
+-              lapb->callbacks.connect_indication(lapb->dev, reason);
++      if (lapb->callbacks->connect_indication)
++              lapb->callbacks->connect_indication(lapb->dev, reason);
+ }
+ void lapb_disconnect_confirmation(struct lapb_cb *lapb, int reason)
+ {
+-      if (lapb->callbacks.disconnect_confirmation)
+-              lapb->callbacks.disconnect_confirmation(lapb->dev, reason);
++      if (lapb->callbacks->disconnect_confirmation)
++              lapb->callbacks->disconnect_confirmation(lapb->dev, reason);
+ }
+ void lapb_disconnect_indication(struct lapb_cb *lapb, int reason)
+ {
+-      if (lapb->callbacks.disconnect_indication)
+-              lapb->callbacks.disconnect_indication(lapb->dev, reason);
++      if (lapb->callbacks->disconnect_indication)
++              lapb->callbacks->disconnect_indication(lapb->dev, reason);
+ }
+ int lapb_data_indication(struct lapb_cb *lapb, struct sk_buff *skb)
+ {
+-      if (lapb->callbacks.data_indication)
+-              return lapb->callbacks.data_indication(lapb->dev, skb);
++      if (lapb->callbacks->data_indication)
++              return lapb->callbacks->data_indication(lapb->dev, skb);
+       kfree_skb(skb);
+       return NET_RX_SUCCESS; /* For now; must be != NET_RX_DROP */
+@@ -414,8 +414,8 @@ int lapb_data_transmit(struct lapb_cb *lapb, struct sk_buff *skb)
+ {
+       int used = 0;
+-      if (lapb->callbacks.data_transmit) {
+-              lapb->callbacks.data_transmit(lapb->dev, skb);
++      if (lapb->callbacks->data_transmit) {
++              lapb->callbacks->data_transmit(lapb->dev, skb);
+               used = 1;
+       }
+diff --git a/net/mac80211/cfg.c b/net/mac80211/cfg.c
+index fe2d3f8..e57f683 100644
+--- a/net/mac80211/cfg.c
++++ b/net/mac80211/cfg.c
+@@ -1369,7 +1369,7 @@ static int ieee80211_set_bitrate_mask(struct wiphy *wiphy,
+       return err;
+ }
+-struct cfg80211_ops mac80211_config_ops = {
++const struct cfg80211_ops mac80211_config_ops = {
+       .add_virtual_intf = ieee80211_add_iface,
+       .del_virtual_intf = ieee80211_del_iface,
+       .change_virtual_intf = ieee80211_change_iface,
+diff --git a/net/mac80211/cfg.h b/net/mac80211/cfg.h
+index 7d7879f..2d51f62 100644
+--- a/net/mac80211/cfg.h
++++ b/net/mac80211/cfg.h
+@@ -4,6 +4,6 @@
+ #ifndef __CFG_H
+ #define __CFG_H
+-extern struct cfg80211_ops mac80211_config_ops;
++extern const struct cfg80211_ops mac80211_config_ops;
+ #endif /* __CFG_H */
+diff --git a/net/mac80211/debugfs_key.c b/net/mac80211/debugfs_key.c
+index 99c7525..9cb4937 100644
+--- a/net/mac80211/debugfs_key.c
++++ b/net/mac80211/debugfs_key.c
+@@ -211,9 +211,13 @@ static ssize_t key_key_read(struct file *file, char __user *userbuf,
+                           size_t count, loff_t *ppos)
+ {
+       struct ieee80211_key *key = file->private_data;
+-      int i, res, bufsize = 2 * key->conf.keylen + 2;
++      int i, bufsize = 2 * key->conf.keylen + 2;
+       char *buf = kmalloc(bufsize, GFP_KERNEL);
+       char *p = buf;
++      ssize_t res;
++
++      if (buf == NULL)
++              return -ENOMEM;
+       for (i = 0; i < key->conf.keylen; i++)
+               p += scnprintf(p, bufsize + buf - p, "%02x", key->conf.key[i]);
+diff --git a/net/mac80211/debugfs_sta.c b/net/mac80211/debugfs_sta.c
+index 33a2e89..08650c8 100644
+--- a/net/mac80211/debugfs_sta.c
++++ b/net/mac80211/debugfs_sta.c
+@@ -124,6 +124,8 @@ static ssize_t sta_agg_status_read(struct file *file, char __user *userbuf,
+       int i;
+       struct sta_info *sta = file->private_data;
++      pax_track_stack();
++
+       spin_lock_bh(&sta->lock);
+       p += scnprintf(p, sizeof(buf)+buf-p, "next dialog_token is %#02x\n",
+                       sta->ampdu_mlme.dialog_token_allocator + 1);
+diff --git a/net/mac80211/ieee80211_i.h b/net/mac80211/ieee80211_i.h
+index ca62bfe..6657a03 100644
+--- a/net/mac80211/ieee80211_i.h
++++ b/net/mac80211/ieee80211_i.h
+@@ -25,6 +25,7 @@
+ #include <linux/etherdevice.h>
+ #include <net/cfg80211.h>
+ #include <net/mac80211.h>
++#include <asm/local.h>
+ #include "key.h"
+ #include "sta_info.h"
+@@ -635,7 +636,7 @@ struct ieee80211_local {
+       /* also used to protect ampdu_ac_queue and amdpu_ac_stop_refcnt */
+       spinlock_t queue_stop_reason_lock;
+-      int open_count;
++      local_t open_count;
+       int monitors, cooked_mntrs;
+       /* number of interfaces with corresponding FIF_ flags */
+       int fif_fcsfail, fif_plcpfail, fif_control, fif_other_bss, fif_pspoll;
+diff --git a/net/mac80211/iface.c b/net/mac80211/iface.c
+index 079c500..eb3c6d4 100644
+--- a/net/mac80211/iface.c
++++ b/net/mac80211/iface.c
+@@ -166,7 +166,7 @@ static int ieee80211_open(struct net_device *dev)
+               break;
+       }
+-      if (local->open_count == 0) {
++      if (local_read(&local->open_count) == 0) {
+               res = drv_start(local);
+               if (res)
+                       goto err_del_bss;
+@@ -196,7 +196,7 @@ static int ieee80211_open(struct net_device *dev)
+        * Validate the MAC address for this device.
+        */
+       if (!is_valid_ether_addr(dev->dev_addr)) {
+-              if (!local->open_count)
++              if (!local_read(&local->open_count))
+                       drv_stop(local);
+               return -EADDRNOTAVAIL;
+       }
+@@ -292,7 +292,7 @@ static int ieee80211_open(struct net_device *dev)
+       hw_reconf_flags |= __ieee80211_recalc_idle(local);
+-      local->open_count++;
++      local_inc(&local->open_count);
+       if (hw_reconf_flags) {
+               ieee80211_hw_config(local, hw_reconf_flags);
+               /*
+@@ -320,7 +320,7 @@ static int ieee80211_open(struct net_device *dev)
+  err_del_interface:
+       drv_remove_interface(local, &conf);
+  err_stop:
+-      if (!local->open_count)
++      if (!local_read(&local->open_count))
+               drv_stop(local);
+  err_del_bss:
+       sdata->bss = NULL;
+@@ -420,7 +420,7 @@ static int ieee80211_stop(struct net_device *dev)
+               WARN_ON(!list_empty(&sdata->u.ap.vlans));
+       }
+-      local->open_count--;
++      local_dec(&local->open_count);
+       switch (sdata->vif.type) {
+       case NL80211_IFTYPE_AP_VLAN:
+@@ -526,7 +526,7 @@ static int ieee80211_stop(struct net_device *dev)
+       ieee80211_recalc_ps(local, -1);
+-      if (local->open_count == 0) {
++      if (local_read(&local->open_count) == 0) {
+               ieee80211_clear_tx_pending(local);
+               ieee80211_stop_device(local);
+diff --git a/net/mac80211/main.c b/net/mac80211/main.c
+index 2dfe176..74e4388 100644
+--- a/net/mac80211/main.c
++++ b/net/mac80211/main.c
+@@ -145,7 +145,7 @@ int ieee80211_hw_config(struct ieee80211_local *local, u32 changed)
+               local->hw.conf.power_level = power;
+       }
+-      if (changed && local->open_count) {
++      if (changed && local_read(&local->open_count)) {
+               ret = drv_config(local, changed);
+               /*
+                * Goal:
+diff --git a/net/mac80211/mlme.c b/net/mac80211/mlme.c
+index e67eea7..fcc227e 100644
+--- a/net/mac80211/mlme.c
++++ b/net/mac80211/mlme.c
+@@ -1438,6 +1438,8 @@ ieee80211_rx_mgmt_assoc_resp(struct ieee80211_sub_if_data *sdata,
+       bool have_higher_than_11mbit = false, newsta = false;
+       u16 ap_ht_cap_flags;
++      pax_track_stack();
++
+       /*
+        * AssocResp and ReassocResp have identical structure, so process both
+        * of them in this function.
+diff --git a/net/mac80211/pm.c b/net/mac80211/pm.c
+index e535f1c..4d733d1 100644
+--- a/net/mac80211/pm.c
++++ b/net/mac80211/pm.c
+@@ -107,7 +107,7 @@ int __ieee80211_suspend(struct ieee80211_hw *hw)
+       }
+       /* stop hardware - this must stop RX */
+-      if (local->open_count)
++      if (local_read(&local->open_count))
+               ieee80211_stop_device(local);
+       local->suspended = true;
+diff --git a/net/mac80211/rate.c b/net/mac80211/rate.c
+index b33efc4..0a2efb6 100644
+--- a/net/mac80211/rate.c
++++ b/net/mac80211/rate.c
+@@ -287,7 +287,7 @@ int ieee80211_init_rate_ctrl_alg(struct ieee80211_local *local,
+       struct rate_control_ref *ref, *old;
+       ASSERT_RTNL();
+-      if (local->open_count)
++      if (local_read(&local->open_count))
+               return -EBUSY;
+       ref = rate_control_alloc(name, local);
+diff --git a/net/mac80211/tx.c b/net/mac80211/tx.c
+index b1d7904..57e4da7 100644
+--- a/net/mac80211/tx.c
++++ b/net/mac80211/tx.c
+@@ -173,7 +173,7 @@ static __le16 ieee80211_duration(struct ieee80211_tx_data *tx, int group_addr,
+       return cpu_to_le16(dur);
+ }
+-static int inline is_ieee80211_device(struct ieee80211_local *local,
++static inline int is_ieee80211_device(struct ieee80211_local *local,
+                                     struct net_device *dev)
+ {
+       return local == wdev_priv(dev->ieee80211_ptr);
+diff --git a/net/mac80211/util.c b/net/mac80211/util.c
+index 31b1085..48fb26d 100644
+--- a/net/mac80211/util.c
++++ b/net/mac80211/util.c
+@@ -1042,7 +1042,7 @@ int ieee80211_reconfig(struct ieee80211_local *local)
+               local->resuming = true;
+       /* restart hardware */
+-      if (local->open_count) {
++      if (local_read(&local->open_count)) {
+               /*
+                * Upon resume hardware can sometimes be goofy due to
+                * various platform / driver / bus issues, so restarting
+diff --git a/net/netfilter/Kconfig b/net/netfilter/Kconfig
+index 634d14a..b35a608 100644
+--- a/net/netfilter/Kconfig
++++ b/net/netfilter/Kconfig
+@@ -635,6 +635,16 @@ config NETFILTER_XT_MATCH_ESP
+         To compile it as a module, choose M here.  If unsure, say N.
++config NETFILTER_XT_MATCH_GRADM
++      tristate '"gradm" match support'
++      depends on NETFILTER_XTABLES && NETFILTER_ADVANCED
++      depends on GRKERNSEC && !GRKERNSEC_NO_RBAC
++      ---help---
++        The gradm match allows to match on grsecurity RBAC being enabled.
++        It is useful when iptables rules are applied early on bootup to
++        prevent connections to the machine (except from a trusted host)
++        while the RBAC system is disabled.    
++
+ config NETFILTER_XT_MATCH_HASHLIMIT
+       tristate '"hashlimit" match support'
+       depends on (IP6_NF_IPTABLES || IP6_NF_IPTABLES=n)
+diff --git a/net/netfilter/Makefile b/net/netfilter/Makefile
+index 49f62ee..a17b2c6 100644
+--- a/net/netfilter/Makefile
++++ b/net/netfilter/Makefile
+@@ -68,6 +68,7 @@ obj-$(CONFIG_NETFILTER_XT_MATCH_CONNTRACK) += xt_conntrack.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_DCCP) += xt_dccp.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_DSCP) += xt_dscp.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_ESP) += xt_esp.o
++obj-$(CONFIG_NETFILTER_XT_MATCH_GRADM) += xt_gradm.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_HASHLIMIT) += xt_hashlimit.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_HELPER) += xt_helper.o
+ obj-$(CONFIG_NETFILTER_XT_MATCH_HL) += xt_hl.o
+diff --git a/net/netfilter/ipvs/ip_vs_app.c b/net/netfilter/ipvs/ip_vs_app.c
+index 3c7e427..724043c 100644
+--- a/net/netfilter/ipvs/ip_vs_app.c
++++ b/net/netfilter/ipvs/ip_vs_app.c
+@@ -564,7 +564,7 @@ static const struct file_operations ip_vs_app_fops = {
+       .open    = ip_vs_app_open,
+       .read    = seq_read,
+       .llseek  = seq_lseek,
+-      .release = seq_release,
++      .release = seq_release_net,
+ };
+ #endif
+diff --git a/net/netfilter/ipvs/ip_vs_conn.c b/net/netfilter/ipvs/ip_vs_conn.c
+index 95682e5..457dbac 100644
+--- a/net/netfilter/ipvs/ip_vs_conn.c
++++ b/net/netfilter/ipvs/ip_vs_conn.c
+@@ -453,10 +453,10 @@ ip_vs_bind_dest(struct ip_vs_conn *cp, struct ip_vs_dest *dest)
+               /* if the connection is not template and is created
+                * by sync, preserve the activity flag.
+                */
+-              cp->flags |= atomic_read(&dest->conn_flags) &
++              cp->flags |= atomic_read_unchecked(&dest->conn_flags) &
+                            (~IP_VS_CONN_F_INACTIVE);
+       else
+-              cp->flags |= atomic_read(&dest->conn_flags);
++              cp->flags |= atomic_read_unchecked(&dest->conn_flags);
+       cp->dest = dest;
+       IP_VS_DBG_BUF(7, "Bind-dest %s c:%s:%d v:%s:%d "
+@@ -723,7 +723,7 @@ ip_vs_conn_new(int af, int proto, const union nf_inet_addr *caddr, __be16 cport,
+       atomic_set(&cp->refcnt, 1);
+       atomic_set(&cp->n_control, 0);
+-      atomic_set(&cp->in_pkts, 0);
++      atomic_set_unchecked(&cp->in_pkts, 0);
+       atomic_inc(&ip_vs_conn_count);
+       if (flags & IP_VS_CONN_F_NO_CPORT)
+@@ -871,7 +871,7 @@ static const struct file_operations ip_vs_conn_fops = {
+       .open    = ip_vs_conn_open,
+       .read    = seq_read,
+       .llseek  = seq_lseek,
+-      .release = seq_release,
++      .release = seq_release_net,
+ };
+ static const char *ip_vs_origin_name(unsigned flags)
+@@ -934,7 +934,7 @@ static const struct file_operations ip_vs_conn_sync_fops = {
+       .open    = ip_vs_conn_sync_open,
+       .read    = seq_read,
+       .llseek  = seq_lseek,
+-      .release = seq_release,
++      .release = seq_release_net,
+ };
+ #endif
+@@ -961,7 +961,7 @@ static inline int todrop_entry(struct ip_vs_conn *cp)
+       /* Don't drop the entry if its number of incoming packets is not
+          located in [0, 8] */
+-      i = atomic_read(&cp->in_pkts);
++      i = atomic_read_unchecked(&cp->in_pkts);
+       if (i > 8 || i < 0) return 0;
+       if (!todrop_rate[i]) return 0;
+diff --git a/net/netfilter/ipvs/ip_vs_core.c b/net/netfilter/ipvs/ip_vs_core.c
+index b95699f..5fee919 100644
+--- a/net/netfilter/ipvs/ip_vs_core.c
++++ b/net/netfilter/ipvs/ip_vs_core.c
+@@ -485,7 +485,7 @@ int ip_vs_leave(struct ip_vs_service *svc, struct sk_buff *skb,
+               ret = cp->packet_xmit(skb, cp, pp);
+               /* do not touch skb anymore */
+-              atomic_inc(&cp->in_pkts);
++              atomic_inc_unchecked(&cp->in_pkts);
+               ip_vs_conn_put(cp);
+               return ret;
+       }
+@@ -1357,7 +1357,7 @@ ip_vs_in(unsigned int hooknum, struct sk_buff *skb,
+        * Sync connection if it is about to close to
+        * encorage the standby servers to update the connections timeout
+        */
+-      pkts = atomic_add_return(1, &cp->in_pkts);
++      pkts = atomic_add_return_unchecked(1, &cp->in_pkts);
+       if (af == AF_INET &&
+           (ip_vs_sync_state & IP_VS_STATE_MASTER) &&
+           (((cp->protocol != IPPROTO_TCP ||
+diff --git a/net/netfilter/ipvs/ip_vs_ctl.c b/net/netfilter/ipvs/ip_vs_ctl.c
+index 02b2610..2d89424 100644
+--- a/net/netfilter/ipvs/ip_vs_ctl.c
++++ b/net/netfilter/ipvs/ip_vs_ctl.c
+@@ -792,7 +792,7 @@ __ip_vs_update_dest(struct ip_vs_service *svc,
+               ip_vs_rs_hash(dest);
+               write_unlock_bh(&__ip_vs_rs_lock);
+       }
+-      atomic_set(&dest->conn_flags, conn_flags);
++      atomic_set_unchecked(&dest->conn_flags, conn_flags);
+       /* bind the service */
+       if (!dest->svc) {
+@@ -1888,7 +1888,7 @@ static int ip_vs_info_seq_show(struct seq_file *seq, void *v)
+                                          "      %-7s %-6d %-10d %-10d\n",
+                                          &dest->addr.in6,
+                                          ntohs(dest->port),
+-                                         ip_vs_fwd_name(atomic_read(&dest->conn_flags)),
++                                         ip_vs_fwd_name(atomic_read_unchecked(&dest->conn_flags)),
+                                          atomic_read(&dest->weight),
+                                          atomic_read(&dest->activeconns),
+                                          atomic_read(&dest->inactconns));
+@@ -1899,7 +1899,7 @@ static int ip_vs_info_seq_show(struct seq_file *seq, void *v)
+                                          "%-7s %-6d %-10d %-10d\n",
+                                          ntohl(dest->addr.ip),
+                                          ntohs(dest->port),
+-                                         ip_vs_fwd_name(atomic_read(&dest->conn_flags)),
++                                         ip_vs_fwd_name(atomic_read_unchecked(&dest->conn_flags)),
+                                          atomic_read(&dest->weight),
+                                          atomic_read(&dest->activeconns),
+                                          atomic_read(&dest->inactconns));
+@@ -1927,7 +1927,7 @@ static const struct file_operations ip_vs_info_fops = {
+       .open    = ip_vs_info_open,
+       .read    = seq_read,
+       .llseek  = seq_lseek,
+-      .release = seq_release_private,
++      .release = seq_release_net,
+ };
+ #endif
+@@ -1976,7 +1976,7 @@ static const struct file_operations ip_vs_stats_fops = {
+       .open = ip_vs_stats_seq_open,
+       .read = seq_read,
+       .llseek = seq_lseek,
+-      .release = single_release,
++      .release = single_release_net,
+ };
+ #endif
+@@ -2292,7 +2292,7 @@ __ip_vs_get_dest_entries(const struct ip_vs_get_dests *get,
+                       entry.addr = dest->addr.ip;
+                       entry.port = dest->port;
+-                      entry.conn_flags = atomic_read(&dest->conn_flags);
++                      entry.conn_flags = atomic_read_unchecked(&dest->conn_flags);
+                       entry.weight = atomic_read(&dest->weight);
+                       entry.u_threshold = dest->u_threshold;
+                       entry.l_threshold = dest->l_threshold;
+@@ -2353,6 +2353,8 @@ do_ip_vs_get_ctl(struct sock *sk, int cmd, void __user *user, int *len)
+       unsigned char arg[128];
+       int ret = 0;
++      pax_track_stack();
++
+       if (!capable(CAP_NET_ADMIN))
+               return -EPERM;
+@@ -2802,7 +2804,7 @@ static int ip_vs_genl_fill_dest(struct sk_buff *skb, struct ip_vs_dest *dest)
+       NLA_PUT_U16(skb, IPVS_DEST_ATTR_PORT, dest->port);
+       NLA_PUT_U32(skb, IPVS_DEST_ATTR_FWD_METHOD,
+-                  atomic_read(&dest->conn_flags) & IP_VS_CONN_F_FWD_MASK);
++                  atomic_read_unchecked(&dest->conn_flags) & IP_VS_CONN_F_FWD_MASK);
+       NLA_PUT_U32(skb, IPVS_DEST_ATTR_WEIGHT, atomic_read(&dest->weight));
+       NLA_PUT_U32(skb, IPVS_DEST_ATTR_U_THRESH, dest->u_threshold);
+       NLA_PUT_U32(skb, IPVS_DEST_ATTR_L_THRESH, dest->l_threshold);
+diff --git a/net/netfilter/ipvs/ip_vs_sync.c b/net/netfilter/ipvs/ip_vs_sync.c
+index e177f0d..55e8581 100644
+--- a/net/netfilter/ipvs/ip_vs_sync.c
++++ b/net/netfilter/ipvs/ip_vs_sync.c
+@@ -438,7 +438,7 @@ static void ip_vs_process_message(const char *buffer, const size_t buflen)
+               if (opt)
+                       memcpy(&cp->in_seq, opt, sizeof(*opt));
+-              atomic_set(&cp->in_pkts, sysctl_ip_vs_sync_threshold[0]);
++              atomic_set_unchecked(&cp->in_pkts, sysctl_ip_vs_sync_threshold[0]);
+               cp->state = state;
+               cp->old_state = cp->state;
+               /*
+diff --git a/net/netfilter/ipvs/ip_vs_xmit.c b/net/netfilter/ipvs/ip_vs_xmit.c
+index 30b3189..e2e4b55 100644
+--- a/net/netfilter/ipvs/ip_vs_xmit.c
++++ b/net/netfilter/ipvs/ip_vs_xmit.c
+@@ -875,7 +875,7 @@ ip_vs_icmp_xmit(struct sk_buff *skb, struct ip_vs_conn *cp,
+               else
+                       rc = NF_ACCEPT;
+               /* do not touch skb anymore */
+-              atomic_inc(&cp->in_pkts);
++              atomic_inc_unchecked(&cp->in_pkts);
+               goto out;
+       }
+@@ -949,7 +949,7 @@ ip_vs_icmp_xmit_v6(struct sk_buff *skb, struct ip_vs_conn *cp,
+               else
+                       rc = NF_ACCEPT;
+               /* do not touch skb anymore */
+-              atomic_inc(&cp->in_pkts);
++              atomic_inc_unchecked(&cp->in_pkts);
+               goto out;
+       }
+diff --git a/net/netfilter/nf_conntrack_netlink.c b/net/netfilter/nf_conntrack_netlink.c
+index d521718..d0fd7a1 100644
+--- a/net/netfilter/nf_conntrack_netlink.c
++++ b/net/netfilter/nf_conntrack_netlink.c
+@@ -706,7 +706,7 @@ ctnetlink_parse_tuple_proto(struct nlattr *attr,
+ static int
+ ctnetlink_parse_tuple(const struct nlattr * const cda[],
+                     struct nf_conntrack_tuple *tuple,
+-                    enum ctattr_tuple type, u_int8_t l3num)
++                    enum ctattr_type type, u_int8_t l3num)
+ {
+       struct nlattr *tb[CTA_TUPLE_MAX+1];
+       int err;
+diff --git a/net/netfilter/nfnetlink_log.c b/net/netfilter/nfnetlink_log.c
+index f900dc3..5e45346 100644
+--- a/net/netfilter/nfnetlink_log.c
++++ b/net/netfilter/nfnetlink_log.c
+@@ -68,7 +68,7 @@ struct nfulnl_instance {
+ };
+ static DEFINE_RWLOCK(instances_lock);
+-static atomic_t global_seq;
++static atomic_unchecked_t global_seq;
+ #define INSTANCE_BUCKETS      16
+ static struct hlist_head instance_table[INSTANCE_BUCKETS];
+@@ -493,7 +493,7 @@ __build_packet_message(struct nfulnl_instance *inst,
+       /* global sequence number */
+       if (inst->flags & NFULNL_CFG_F_SEQ_GLOBAL)
+               NLA_PUT_BE32(inst->skb, NFULA_SEQ_GLOBAL,
+-                           htonl(atomic_inc_return(&global_seq)));
++                           htonl(atomic_inc_return_unchecked(&global_seq)));
+       if (data_len) {
+               struct nlattr *nla;
+diff --git a/net/netfilter/xt_gradm.c b/net/netfilter/xt_gradm.c
+new file mode 100644
+index 0000000..b1bac76
+--- /dev/null
++++ b/net/netfilter/xt_gradm.c
+@@ -0,0 +1,51 @@
++/*
++ *    gradm match for netfilter
++ *    Copyright Â© Zbigniew Krzystolik, 2010
++ *
++ *    This program is free software; you can redistribute it and/or modify
++ *    it under the terms of the GNU General Public License; either version
++ *    2 or 3 as published by the Free Software Foundation.
++ */
++#include <linux/module.h>
++#include <linux/moduleparam.h>
++#include <linux/skbuff.h>
++#include <linux/netfilter/x_tables.h>
++#include <linux/grsecurity.h>
++#include <linux/netfilter/xt_gradm.h>
++
++static bool
++gradm_mt(const struct sk_buff *skb, const struct xt_match_param *par)
++{
++      const struct xt_gradm_mtinfo *info = par->matchinfo;
++      bool retval = false;
++      if (gr_acl_is_enabled())
++              retval = true;
++      return retval ^ info->invflags;
++}
++
++static struct xt_match gradm_mt_reg __read_mostly = {
++              .name       = "gradm",
++              .revision   = 0,
++              .family     = NFPROTO_UNSPEC,
++              .match      = gradm_mt,
++              .matchsize  = XT_ALIGN(sizeof(struct xt_gradm_mtinfo)),
++              .me         = THIS_MODULE,
++};
++
++static int __init gradm_mt_init(void)
++{       
++              return xt_register_match(&gradm_mt_reg);
++}
++
++static void __exit gradm_mt_exit(void)
++{       
++              xt_unregister_match(&gradm_mt_reg);
++}
++
++module_init(gradm_mt_init);
++module_exit(gradm_mt_exit);
++MODULE_AUTHOR("Zbigniew Krzystolik <zbyniu@destrukcja.pl>");
++MODULE_DESCRIPTION("Xtables: Grsecurity RBAC match");
++MODULE_LICENSE("GPL");
++MODULE_ALIAS("ipt_gradm");
++MODULE_ALIAS("ip6t_gradm");
+diff --git a/net/netlink/af_netlink.c b/net/netlink/af_netlink.c
+index 5a7dcdf..24a3578 100644
+--- a/net/netlink/af_netlink.c
++++ b/net/netlink/af_netlink.c
+@@ -733,7 +733,7 @@ static void netlink_overrun(struct sock *sk)
+                       sk->sk_error_report(sk);
+               }
+       }
+-      atomic_inc(&sk->sk_drops);
++      atomic_inc_unchecked(&sk->sk_drops);
+ }
+ static struct sock *netlink_getsockbypid(struct sock *ssk, u32 pid)
+@@ -1964,15 +1964,23 @@ static int netlink_seq_show(struct seq_file *seq, void *v)
+               struct netlink_sock *nlk = nlk_sk(s);
+               seq_printf(seq, "%p %-3d %-6d %08x %-8d %-8d %p %-8d %-8d\n",
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         NULL,
++#else
+                          s,
++#endif
+                          s->sk_protocol,
+                          nlk->pid,
+                          nlk->groups ? (u32)nlk->groups[0] : 0,
+                          sk_rmem_alloc_get(s),
+                          sk_wmem_alloc_get(s),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         NULL,
++#else
+                          nlk->cb,
++#endif
+                          atomic_read(&s->sk_refcnt),
+-                         atomic_read(&s->sk_drops)
++                         atomic_read_unchecked(&s->sk_drops)
+                       );
+       }
+diff --git a/net/netrom/af_netrom.c b/net/netrom/af_netrom.c
+index 7a83495..ab0062f 100644
+--- a/net/netrom/af_netrom.c
++++ b/net/netrom/af_netrom.c
+@@ -838,6 +838,7 @@ static int nr_getname(struct socket *sock, struct sockaddr *uaddr,
+       struct sock *sk = sock->sk;
+       struct nr_sock *nr = nr_sk(sk);
++      memset(sax, 0, sizeof(*sax));
+       lock_sock(sk);
+       if (peer != 0) {
+               if (sk->sk_state != TCP_ESTABLISHED) {
+@@ -852,7 +853,6 @@ static int nr_getname(struct socket *sock, struct sockaddr *uaddr,
+               *uaddr_len = sizeof(struct full_sockaddr_ax25);
+       } else {
+               sax->fsa_ax25.sax25_family = AF_NETROM;
+-              sax->fsa_ax25.sax25_ndigis = 0;
+               sax->fsa_ax25.sax25_call   = nr->source_addr;
+               *uaddr_len = sizeof(struct sockaddr_ax25);
+       }
+diff --git a/net/packet/af_packet.c b/net/packet/af_packet.c
+index 35cfa79..4e78ff7 100644
+--- a/net/packet/af_packet.c
++++ b/net/packet/af_packet.c
+@@ -2429,7 +2429,11 @@ static int packet_seq_show(struct seq_file *seq, void *v)
+               seq_printf(seq,
+                          "%p %-6d %-4d %04x   %-5d %1d %-6u %-6u %-6lu\n",
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         NULL,
++#else
+                          s,
++#endif
+                          atomic_read(&s->sk_refcnt),
+                          s->sk_type,
+                          ntohs(po->num),
+diff --git a/net/phonet/af_phonet.c b/net/phonet/af_phonet.c
+index 519ff9d..a422a90 100644
+--- a/net/phonet/af_phonet.c
++++ b/net/phonet/af_phonet.c
+@@ -41,7 +41,7 @@ static struct phonet_protocol *phonet_proto_get(int protocol)
+ {
+       struct phonet_protocol *pp;
+-      if (protocol >= PHONET_NPROTO)
++      if (protocol < 0 || protocol >= PHONET_NPROTO)
+               return NULL;
+       spin_lock(&proto_tab_lock);
+@@ -402,7 +402,7 @@ int __init_or_module phonet_proto_register(int protocol,
+ {
+       int err = 0;
+-      if (protocol >= PHONET_NPROTO)
++      if (protocol < 0 || protocol >= PHONET_NPROTO)
+               return -EINVAL;
+       err = proto_register(pp->prot, 1);
+diff --git a/net/phonet/datagram.c b/net/phonet/datagram.c
+index ef5c75c..2b6c2fa 100644
+--- a/net/phonet/datagram.c
++++ b/net/phonet/datagram.c
+@@ -162,7 +162,7 @@ static int pn_backlog_rcv(struct sock *sk, struct sk_buff *skb)
+       if (err < 0) {
+               kfree_skb(skb);
+               if (err == -ENOMEM)
+-                      atomic_inc(&sk->sk_drops);
++                      atomic_inc_unchecked(&sk->sk_drops);
+       }
+       return err ? NET_RX_DROP : NET_RX_SUCCESS;
+ }
+diff --git a/net/phonet/pep.c b/net/phonet/pep.c
+index 9cdd35e..16cd850 100644
+--- a/net/phonet/pep.c
++++ b/net/phonet/pep.c
+@@ -348,7 +348,7 @@ static int pipe_do_rcv(struct sock *sk, struct sk_buff *skb)
+       case PNS_PEP_CTRL_REQ:
+               if (skb_queue_len(&pn->ctrlreq_queue) >= PNPIPE_CTRLREQ_MAX) {
+-                      atomic_inc(&sk->sk_drops);
++                      atomic_inc_unchecked(&sk->sk_drops);
+                       break;
+               }
+               __skb_pull(skb, 4);
+@@ -362,12 +362,12 @@ static int pipe_do_rcv(struct sock *sk, struct sk_buff *skb)
+                       if (!err)
+                               return 0;
+                       if (err == -ENOMEM)
+-                              atomic_inc(&sk->sk_drops);
++                              atomic_inc_unchecked(&sk->sk_drops);
+                       break;
+               }
+               if (pn->rx_credits == 0) {
+-                      atomic_inc(&sk->sk_drops);
++                      atomic_inc_unchecked(&sk->sk_drops);
+                       err = -ENOBUFS;
+                       break;
+               }
+diff --git a/net/phonet/socket.c b/net/phonet/socket.c
+index aa5b5a9..c09b4f8 100644
+--- a/net/phonet/socket.c
++++ b/net/phonet/socket.c
+@@ -482,8 +482,13 @@ static int pn_sock_seq_show(struct seq_file *seq, void *v)
+                       sk->sk_state,
+                       sk_wmem_alloc_get(sk), sk_rmem_alloc_get(sk),
+                       sock_i_uid(sk), sock_i_ino(sk),
+-                      atomic_read(&sk->sk_refcnt), sk,
+-                      atomic_read(&sk->sk_drops), &len);
++                      atomic_read(&sk->sk_refcnt),
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                      NULL,
++#else
++                      sk,
++#endif
++                      atomic_read_unchecked(&sk->sk_drops), &len);
+       }
+       seq_printf(seq, "%*s\n", 127 - len, "");
+       return 0;
+diff --git a/net/rds/Kconfig b/net/rds/Kconfig
+index ec753b3..821187c 100644
+--- a/net/rds/Kconfig
++++ b/net/rds/Kconfig
+@@ -1,7 +1,7 @@
+ config RDS
+       tristate "The RDS Protocol (EXPERIMENTAL)"
+-      depends on INET && EXPERIMENTAL
++      depends on INET && EXPERIMENTAL && BROKEN
+       ---help---
+         The RDS (Reliable Datagram Sockets) protocol provides reliable,
+         sequenced delivery of datagrams over Infiniband, iWARP,
+diff --git a/net/rds/cong.c b/net/rds/cong.c
+index dd2711d..1c7ed12 100644
+--- a/net/rds/cong.c
++++ b/net/rds/cong.c
+@@ -77,7 +77,7 @@
+  * finds that the saved generation number is smaller than the global generation
+  * number, it wakes up the process.
+  */
+-static atomic_t               rds_cong_generation = ATOMIC_INIT(0);
++static atomic_unchecked_t             rds_cong_generation = ATOMIC_INIT(0);
+ /*
+  * Congestion monitoring
+@@ -232,7 +232,7 @@ void rds_cong_map_updated(struct rds_cong_map *map, uint64_t portmask)
+       rdsdebug("waking map %p for %pI4\n",
+         map, &map->m_addr);
+       rds_stats_inc(s_cong_update_received);
+-      atomic_inc(&rds_cong_generation);
++      atomic_inc_unchecked(&rds_cong_generation);
+       if (waitqueue_active(&map->m_waitq))
+               wake_up(&map->m_waitq);
+       if (waitqueue_active(&rds_poll_waitq))
+@@ -258,7 +258,7 @@ EXPORT_SYMBOL_GPL(rds_cong_map_updated);
+ int rds_cong_updated_since(unsigned long *recent)
+ {
+-      unsigned long gen = atomic_read(&rds_cong_generation);
++      unsigned long gen = atomic_read_unchecked(&rds_cong_generation);
+       if (likely(*recent == gen))
+               return 0;
+diff --git a/net/rds/iw_rdma.c b/net/rds/iw_rdma.c
+index de4a1b1..94ec861 100644
+--- a/net/rds/iw_rdma.c
++++ b/net/rds/iw_rdma.c
+@@ -181,6 +181,8 @@ int rds_iw_update_cm_id(struct rds_iw_device *rds_iwdev, struct rdma_cm_id *cm_i
+       struct rdma_cm_id *pcm_id;
+       int rc;
++      pax_track_stack();
++
+       src_addr = (struct sockaddr_in *)&cm_id->route.addr.src_addr;
+       dst_addr = (struct sockaddr_in *)&cm_id->route.addr.dst_addr;
+diff --git a/net/rds/tcp.c b/net/rds/tcp.c
+index b5198ae..8b9fb90 100644
+--- a/net/rds/tcp.c
++++ b/net/rds/tcp.c
+@@ -57,7 +57,7 @@ void rds_tcp_nonagle(struct socket *sock)
+       int val = 1;
+       set_fs(KERNEL_DS);
+-      sock->ops->setsockopt(sock, SOL_TCP, TCP_NODELAY, (char __user *)&val,
++      sock->ops->setsockopt(sock, SOL_TCP, TCP_NODELAY, (char __force_user *)&val,
+                             sizeof(val));
+       set_fs(oldfs);
+ }
+diff --git a/net/rds/tcp_send.c b/net/rds/tcp_send.c
+index ab545e0..4079b3b 100644
+--- a/net/rds/tcp_send.c
++++ b/net/rds/tcp_send.c
+@@ -43,7 +43,7 @@ static void rds_tcp_cork(struct socket *sock, int val)
+       oldfs = get_fs();
+       set_fs(KERNEL_DS);
+-      sock->ops->setsockopt(sock, SOL_TCP, TCP_CORK, (char __user *)&val,
++      sock->ops->setsockopt(sock, SOL_TCP, TCP_CORK, (char __force_user *)&val,
+                             sizeof(val));
+       set_fs(oldfs);
+ }
+diff --git a/net/rxrpc/af_rxrpc.c b/net/rxrpc/af_rxrpc.c
+index a86afce..8657bce 100644
+--- a/net/rxrpc/af_rxrpc.c
++++ b/net/rxrpc/af_rxrpc.c
+@@ -38,7 +38,7 @@ static const struct proto_ops rxrpc_rpc_ops;
+ __be32 rxrpc_epoch;
+ /* current debugging ID */
+-atomic_t rxrpc_debug_id;
++atomic_unchecked_t rxrpc_debug_id;
+ /* count of skbs currently in use */
+ atomic_t rxrpc_n_skbs;
+diff --git a/net/rxrpc/ar-ack.c b/net/rxrpc/ar-ack.c
+index b4a2209..539106c 100644
+--- a/net/rxrpc/ar-ack.c
++++ b/net/rxrpc/ar-ack.c
+@@ -174,7 +174,7 @@ static void rxrpc_resend(struct rxrpc_call *call)
+       _enter("{%d,%d,%d,%d},",
+              call->acks_hard, call->acks_unacked,
+-             atomic_read(&call->sequence),
++             atomic_read_unchecked(&call->sequence),
+              CIRC_CNT(call->acks_head, call->acks_tail, call->acks_winsz));
+       stop = 0;
+@@ -198,7 +198,7 @@ static void rxrpc_resend(struct rxrpc_call *call)
+                       /* each Tx packet has a new serial number */
+                       sp->hdr.serial =
+-                              htonl(atomic_inc_return(&call->conn->serial));
++                              htonl(atomic_inc_return_unchecked(&call->conn->serial));
+                       hdr = (struct rxrpc_header *) txb->head;
+                       hdr->serial = sp->hdr.serial;
+@@ -401,7 +401,7 @@ static void rxrpc_rotate_tx_window(struct rxrpc_call *call, u32 hard)
+  */
+ static void rxrpc_clear_tx_window(struct rxrpc_call *call)
+ {
+-      rxrpc_rotate_tx_window(call, atomic_read(&call->sequence));
++      rxrpc_rotate_tx_window(call, atomic_read_unchecked(&call->sequence));
+ }
+ /*
+@@ -627,7 +627,7 @@ process_further:
+               latest = ntohl(sp->hdr.serial);
+               hard = ntohl(ack.firstPacket);
+-              tx = atomic_read(&call->sequence);
++              tx = atomic_read_unchecked(&call->sequence);
+               _proto("Rx ACK %%%u { m=%hu f=#%u p=#%u s=%%%u r=%s n=%u }",
+                      latest,
+@@ -840,6 +840,8 @@ void rxrpc_process_call(struct work_struct *work)
+       u32 abort_code = RX_PROTOCOL_ERROR;
+       u8 *acks = NULL;
++      pax_track_stack();
++
+       //printk("\n--------------------\n");
+       _enter("{%d,%s,%lx} [%lu]",
+              call->debug_id, rxrpc_call_states[call->state], call->events,
+@@ -1159,7 +1161,7 @@ void rxrpc_process_call(struct work_struct *work)
+       goto maybe_reschedule;
+ send_ACK_with_skew:
+-      ack.maxSkew = htons(atomic_read(&call->conn->hi_serial) -
++      ack.maxSkew = htons(atomic_read_unchecked(&call->conn->hi_serial) -
+                           ntohl(ack.serial));
+ send_ACK:
+       mtu = call->conn->trans->peer->if_mtu;
+@@ -1171,7 +1173,7 @@ send_ACK:
+       ackinfo.rxMTU   = htonl(5692);
+       ackinfo.jumbo_max = htonl(4);
+-      hdr.serial = htonl(atomic_inc_return(&call->conn->serial));
++      hdr.serial = htonl(atomic_inc_return_unchecked(&call->conn->serial));
+       _proto("Tx ACK %%%u { m=%hu f=#%u p=#%u s=%%%u r=%s n=%u }",
+              ntohl(hdr.serial),
+              ntohs(ack.maxSkew),
+@@ -1189,7 +1191,7 @@ send_ACK:
+ send_message:
+       _debug("send message");
+-      hdr.serial = htonl(atomic_inc_return(&call->conn->serial));
++      hdr.serial = htonl(atomic_inc_return_unchecked(&call->conn->serial));
+       _proto("Tx %s %%%u", rxrpc_pkts[hdr.type], ntohl(hdr.serial));
+ send_message_2:
+diff --git a/net/rxrpc/ar-call.c b/net/rxrpc/ar-call.c
+index bc0019f..e1b4b24 100644
+--- a/net/rxrpc/ar-call.c
++++ b/net/rxrpc/ar-call.c
+@@ -82,7 +82,7 @@ static struct rxrpc_call *rxrpc_alloc_call(gfp_t gfp)
+       spin_lock_init(&call->lock);
+       rwlock_init(&call->state_lock);
+       atomic_set(&call->usage, 1);
+-      call->debug_id = atomic_inc_return(&rxrpc_debug_id);
++      call->debug_id = atomic_inc_return_unchecked(&rxrpc_debug_id);
+       call->state = RXRPC_CALL_CLIENT_SEND_REQUEST;
+       memset(&call->sock_node, 0xed, sizeof(call->sock_node));
+diff --git a/net/rxrpc/ar-connection.c b/net/rxrpc/ar-connection.c
+index 9f1ce84..ff8d061 100644
+--- a/net/rxrpc/ar-connection.c
++++ b/net/rxrpc/ar-connection.c
+@@ -205,7 +205,7 @@ static struct rxrpc_connection *rxrpc_alloc_connection(gfp_t gfp)
+               rwlock_init(&conn->lock);
+               spin_lock_init(&conn->state_lock);
+               atomic_set(&conn->usage, 1);
+-              conn->debug_id = atomic_inc_return(&rxrpc_debug_id);
++              conn->debug_id = atomic_inc_return_unchecked(&rxrpc_debug_id);
+               conn->avail_calls = RXRPC_MAXCALLS;
+               conn->size_align = 4;
+               conn->header_size = sizeof(struct rxrpc_header);
+diff --git a/net/rxrpc/ar-connevent.c b/net/rxrpc/ar-connevent.c
+index 0505cdc..f0748ce 100644
+--- a/net/rxrpc/ar-connevent.c
++++ b/net/rxrpc/ar-connevent.c
+@@ -109,7 +109,7 @@ static int rxrpc_abort_connection(struct rxrpc_connection *conn,
+       len = iov[0].iov_len + iov[1].iov_len;
+-      hdr.serial = htonl(atomic_inc_return(&conn->serial));
++      hdr.serial = htonl(atomic_inc_return_unchecked(&conn->serial));
+       _proto("Tx CONN ABORT %%%u { %d }", ntohl(hdr.serial), abort_code);
+       ret = kernel_sendmsg(conn->trans->local->socket, &msg, iov, 2, len);
+diff --git a/net/rxrpc/ar-input.c b/net/rxrpc/ar-input.c
+index f98c802..9e8488e 100644
+--- a/net/rxrpc/ar-input.c
++++ b/net/rxrpc/ar-input.c
+@@ -339,9 +339,9 @@ void rxrpc_fast_process_packet(struct rxrpc_call *call, struct sk_buff *skb)
+       /* track the latest serial number on this connection for ACK packet
+        * information */
+       serial = ntohl(sp->hdr.serial);
+-      hi_serial = atomic_read(&call->conn->hi_serial);
++      hi_serial = atomic_read_unchecked(&call->conn->hi_serial);
+       while (serial > hi_serial)
+-              hi_serial = atomic_cmpxchg(&call->conn->hi_serial, hi_serial,
++              hi_serial = atomic_cmpxchg_unchecked(&call->conn->hi_serial, hi_serial,
+                                          serial);
+       /* request ACK generation for any ACK or DATA packet that requests
+diff --git a/net/rxrpc/ar-internal.h b/net/rxrpc/ar-internal.h
+index 7043b29..06edcdf 100644
+--- a/net/rxrpc/ar-internal.h
++++ b/net/rxrpc/ar-internal.h
+@@ -272,8 +272,8 @@ struct rxrpc_connection {
+       int                     error;          /* error code for local abort */
+       int                     debug_id;       /* debug ID for printks */
+       unsigned                call_counter;   /* call ID counter */
+-      atomic_t                serial;         /* packet serial number counter */
+-      atomic_t                hi_serial;      /* highest serial number received */
++      atomic_unchecked_t      serial;         /* packet serial number counter */
++      atomic_unchecked_t      hi_serial;      /* highest serial number received */
+       u8                      avail_calls;    /* number of calls available */
+       u8                      size_align;     /* data size alignment (for security) */
+       u8                      header_size;    /* rxrpc + security header size */
+@@ -346,7 +346,7 @@ struct rxrpc_call {
+       spinlock_t              lock;
+       rwlock_t                state_lock;     /* lock for state transition */
+       atomic_t                usage;
+-      atomic_t                sequence;       /* Tx data packet sequence counter */
++      atomic_unchecked_t      sequence;       /* Tx data packet sequence counter */
+       u32                     abort_code;     /* local/remote abort code */
+       enum {                                  /* current state of call */
+               RXRPC_CALL_CLIENT_SEND_REQUEST, /* - client sending request phase */
+@@ -420,7 +420,7 @@ static inline void rxrpc_abort_call(struct rxrpc_call *call, u32 abort_code)
+  */
+ extern atomic_t rxrpc_n_skbs;
+ extern __be32 rxrpc_epoch;
+-extern atomic_t rxrpc_debug_id;
++extern atomic_unchecked_t rxrpc_debug_id;
+ extern struct workqueue_struct *rxrpc_workqueue;
+ /*
+diff --git a/net/rxrpc/ar-key.c b/net/rxrpc/ar-key.c
+index 74697b2..10f9b77 100644
+--- a/net/rxrpc/ar-key.c
++++ b/net/rxrpc/ar-key.c
+@@ -88,11 +88,11 @@ static int rxrpc_instantiate_xdr_rxkad(struct key *key, const __be32 *xdr,
+               return ret;
+       plen -= sizeof(*token);
+-      token = kmalloc(sizeof(*token), GFP_KERNEL);
++      token = kzalloc(sizeof(*token), GFP_KERNEL);
+       if (!token)
+               return -ENOMEM;
+-      token->kad = kmalloc(plen, GFP_KERNEL);
++      token->kad = kzalloc(plen, GFP_KERNEL);
+       if (!token->kad) {
+               kfree(token);
+               return -ENOMEM;
+@@ -730,10 +730,10 @@ static int rxrpc_instantiate(struct key *key, const void *data, size_t datalen)
+               goto error;
+       ret = -ENOMEM;
+-      token = kmalloc(sizeof(*token), GFP_KERNEL);
++      token = kzalloc(sizeof(*token), GFP_KERNEL);
+       if (!token)
+               goto error;
+-      token->kad = kmalloc(plen, GFP_KERNEL);
++      token->kad = kzalloc(plen, GFP_KERNEL);
+       if (!token->kad)
+               goto error_free;
+diff --git a/net/rxrpc/ar-local.c b/net/rxrpc/ar-local.c
+index 807535f..5b7f19e 100644
+--- a/net/rxrpc/ar-local.c
++++ b/net/rxrpc/ar-local.c
+@@ -44,7 +44,7 @@ struct rxrpc_local *rxrpc_alloc_local(struct sockaddr_rxrpc *srx)
+               spin_lock_init(&local->lock);
+               rwlock_init(&local->services_lock);
+               atomic_set(&local->usage, 1);
+-              local->debug_id = atomic_inc_return(&rxrpc_debug_id);
++              local->debug_id = atomic_inc_return_unchecked(&rxrpc_debug_id);
+               memcpy(&local->srx, srx, sizeof(*srx));
+       }
+diff --git a/net/rxrpc/ar-output.c b/net/rxrpc/ar-output.c
+index cc9102c..7d3888e 100644
+--- a/net/rxrpc/ar-output.c
++++ b/net/rxrpc/ar-output.c
+@@ -680,9 +680,9 @@ static int rxrpc_send_data(struct kiocb *iocb,
+                       sp->hdr.cid = call->cid;
+                       sp->hdr.callNumber = call->call_id;
+                       sp->hdr.seq =
+-                              htonl(atomic_inc_return(&call->sequence));
++                              htonl(atomic_inc_return_unchecked(&call->sequence));
+                       sp->hdr.serial =
+-                              htonl(atomic_inc_return(&conn->serial));
++                              htonl(atomic_inc_return_unchecked(&conn->serial));
+                       sp->hdr.type = RXRPC_PACKET_TYPE_DATA;
+                       sp->hdr.userStatus = 0;
+                       sp->hdr.securityIndex = conn->security_ix;
+diff --git a/net/rxrpc/ar-peer.c b/net/rxrpc/ar-peer.c
+index edc026c..4bd4e2d 100644
+--- a/net/rxrpc/ar-peer.c
++++ b/net/rxrpc/ar-peer.c
+@@ -86,7 +86,7 @@ static struct rxrpc_peer *rxrpc_alloc_peer(struct sockaddr_rxrpc *srx,
+               INIT_LIST_HEAD(&peer->error_targets);
+               spin_lock_init(&peer->lock);
+               atomic_set(&peer->usage, 1);
+-              peer->debug_id = atomic_inc_return(&rxrpc_debug_id);
++              peer->debug_id = atomic_inc_return_unchecked(&rxrpc_debug_id);
+               memcpy(&peer->srx, srx, sizeof(*srx));
+               rxrpc_assess_MTU_size(peer);
+diff --git a/net/rxrpc/ar-proc.c b/net/rxrpc/ar-proc.c
+index 38047f7..9f48511 100644
+--- a/net/rxrpc/ar-proc.c
++++ b/net/rxrpc/ar-proc.c
+@@ -164,8 +164,8 @@ static int rxrpc_connection_seq_show(struct seq_file *seq, void *v)
+                  atomic_read(&conn->usage),
+                  rxrpc_conn_states[conn->state],
+                  key_serial(conn->key),
+-                 atomic_read(&conn->serial),
+-                 atomic_read(&conn->hi_serial));
++                 atomic_read_unchecked(&conn->serial),
++                 atomic_read_unchecked(&conn->hi_serial));
+       return 0;
+ }
+diff --git a/net/rxrpc/ar-transport.c b/net/rxrpc/ar-transport.c
+index 0936e1a..437c640 100644
+--- a/net/rxrpc/ar-transport.c
++++ b/net/rxrpc/ar-transport.c
+@@ -46,7 +46,7 @@ static struct rxrpc_transport *rxrpc_alloc_transport(struct rxrpc_local *local,
+               spin_lock_init(&trans->client_lock);
+               rwlock_init(&trans->conn_lock);
+               atomic_set(&trans->usage, 1);
+-              trans->debug_id = atomic_inc_return(&rxrpc_debug_id);
++              trans->debug_id = atomic_inc_return_unchecked(&rxrpc_debug_id);
+               if (peer->srx.transport.family == AF_INET) {
+                       switch (peer->srx.transport_type) {
+diff --git a/net/rxrpc/rxkad.c b/net/rxrpc/rxkad.c
+index 713ac59..306f6ae 100644
+--- a/net/rxrpc/rxkad.c
++++ b/net/rxrpc/rxkad.c
+@@ -210,6 +210,8 @@ static int rxkad_secure_packet_encrypt(const struct rxrpc_call *call,
+       u16 check;
+       int nsg;
++      pax_track_stack();
++
+       sp = rxrpc_skb(skb);
+       _enter("");
+@@ -337,6 +339,8 @@ static int rxkad_verify_packet_auth(const struct rxrpc_call *call,
+       u16 check;
+       int nsg;
++      pax_track_stack();
++
+       _enter("");
+       sp = rxrpc_skb(skb);
+@@ -609,7 +613,7 @@ static int rxkad_issue_challenge(struct rxrpc_connection *conn)
+       len = iov[0].iov_len + iov[1].iov_len;
+-      hdr.serial = htonl(atomic_inc_return(&conn->serial));
++      hdr.serial = htonl(atomic_inc_return_unchecked(&conn->serial));
+       _proto("Tx CHALLENGE %%%u", ntohl(hdr.serial));
+       ret = kernel_sendmsg(conn->trans->local->socket, &msg, iov, 2, len);
+@@ -659,7 +663,7 @@ static int rxkad_send_response(struct rxrpc_connection *conn,
+       len = iov[0].iov_len + iov[1].iov_len + iov[2].iov_len;
+-      hdr->serial = htonl(atomic_inc_return(&conn->serial));
++      hdr->serial = htonl(atomic_inc_return_unchecked(&conn->serial));
+       _proto("Tx RESPONSE %%%u", ntohl(hdr->serial));
+       ret = kernel_sendmsg(conn->trans->local->socket, &msg, iov, 3, len);
+diff --git a/net/sctp/auth.c b/net/sctp/auth.c
+index 914c419..7a16d2c 100644
+--- a/net/sctp/auth.c
++++ b/net/sctp/auth.c
+@@ -81,7 +81,7 @@ static struct sctp_auth_bytes *sctp_auth_create_key(__u32 key_len, gfp_t gfp)
+       struct sctp_auth_bytes *key;
+       /* Verify that we are not going to overflow INT_MAX */
+-      if ((INT_MAX - key_len) < sizeof(struct sctp_auth_bytes))
++      if (key_len > (INT_MAX - sizeof(struct sctp_auth_bytes)))
+               return NULL;
+       /* Allocate the shared key */
+diff --git a/net/sctp/proc.c b/net/sctp/proc.c
+index d093cbf..9fc36fc 100644
+--- a/net/sctp/proc.c
++++ b/net/sctp/proc.c
+@@ -213,7 +213,12 @@ static int sctp_eps_seq_show(struct seq_file *seq, void *v)
+       sctp_for_each_hentry(epb, node, &head->chain) {
+               ep = sctp_ep(epb);
+               sk = epb->sk;
+-              seq_printf(seq, "%8p %8p %-3d %-3d %-4d %-5d %5d %5lu ", ep, sk,
++              seq_printf(seq, "%8p %8p %-3d %-3d %-4d %-5d %5d %5lu ",
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         NULL, NULL,
++#else
++                         ep, sk,
++#endif
+                          sctp_sk(sk)->type, sk->sk_state, hash,
+                          epb->bind_addr.port,
+                          sock_i_uid(sk), sock_i_ino(sk));
+@@ -320,7 +325,12 @@ static int sctp_assocs_seq_show(struct seq_file *seq, void *v)
+               seq_printf(seq,
+                          "%8p %8p %-3d %-3d %-2d %-4d "
+                          "%4d %8d %8d %7d %5lu %-5d %5d ",
+-                         assoc, sk, sctp_sk(sk)->type, sk->sk_state,
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                         NULL, NULL,
++#else
++                         assoc, sk,
++#endif
++                         sctp_sk(sk)->type, sk->sk_state,
+                          assoc->state, hash,
+                          assoc->assoc_id,
+                          assoc->sndbuf_used,
+diff --git a/net/sctp/socket.c b/net/sctp/socket.c
+index 3a95fcb..c40fc1d 100644
+--- a/net/sctp/socket.c
++++ b/net/sctp/socket.c
+@@ -5802,7 +5802,6 @@ pp_found:
+                */
+               int reuse = sk->sk_reuse;
+               struct sock *sk2;
+-              struct hlist_node *node;
+               SCTP_DEBUG_PRINTK("sctp_get_port() found a possible match\n");
+               if (pp->fastreuse && sk->sk_reuse &&
+diff --git a/net/socket.c b/net/socket.c
+index d449812..4ac08d3c 100644
+--- a/net/socket.c
++++ b/net/socket.c
+@@ -87,6 +87,7 @@
+ #include <linux/wireless.h>
+ #include <linux/nsproxy.h>
+ #include <linux/magic.h>
++#include <linux/in.h>
+ #include <asm/uaccess.h>
+ #include <asm/unistd.h>
+@@ -97,6 +98,21 @@
+ #include <net/sock.h>
+ #include <linux/netfilter.h>
++extern void gr_attach_curr_ip(const struct sock *sk);
++extern int gr_handle_sock_all(const int family, const int type,
++                            const int protocol);
++extern int gr_handle_sock_server(const struct sockaddr *sck);
++extern int gr_handle_sock_server_other(const struct sock *sck);
++extern int gr_handle_sock_client(const struct sockaddr *sck);
++extern int gr_search_connect(struct socket * sock,
++                           struct sockaddr_in * addr);
++extern int gr_search_bind(struct socket * sock,
++                        struct sockaddr_in * addr);
++extern int gr_search_listen(struct socket * sock);
++extern int gr_search_accept(struct socket * sock);
++extern int gr_search_socket(const int domain, const int type,
++                          const int protocol);
++
+ static int sock_no_open(struct inode *irrelevant, struct file *dontcare);
+ static ssize_t sock_aio_read(struct kiocb *iocb, const struct iovec *iov,
+                        unsigned long nr_segs, loff_t pos);
+@@ -298,7 +314,7 @@ static int sockfs_get_sb(struct file_system_type *fs_type,
+                            mnt);
+ }
+-static struct vfsmount *sock_mnt __read_mostly;
++struct vfsmount *sock_mnt __read_mostly;
+ static struct file_system_type sock_fs_type = {
+       .name =         "sockfs",
+@@ -1154,6 +1170,8 @@ static int __sock_create(struct net *net, int family, int type, int protocol,
+               return -EAFNOSUPPORT;
+       if (type < 0 || type >= SOCK_MAX)
+               return -EINVAL;
++      if (protocol < 0)
++              return -EINVAL;
+       /* Compatibility.
+@@ -1283,6 +1301,16 @@ SYSCALL_DEFINE3(socket, int, family, int, type, int, protocol)
+       if (SOCK_NONBLOCK != O_NONBLOCK && (flags & SOCK_NONBLOCK))
+               flags = (flags & ~SOCK_NONBLOCK) | O_NONBLOCK;
++      if(!gr_search_socket(family, type, protocol)) {
++              retval = -EACCES;
++              goto out;
++      }
++
++      if (gr_handle_sock_all(family, type, protocol)) {
++              retval = -EACCES;
++              goto out;
++      }
++
+       retval = sock_create(family, type, protocol, &sock);
+       if (retval < 0)
+               goto out;
+@@ -1415,6 +1443,14 @@ SYSCALL_DEFINE3(bind, int, fd, struct sockaddr __user *, umyaddr, int, addrlen)
+       if (sock) {
+               err = move_addr_to_kernel(umyaddr, addrlen, (struct sockaddr *)&address);
+               if (err >= 0) {
++                      if (gr_handle_sock_server((struct sockaddr *)&address)) {
++                              err = -EACCES;
++                              goto error;
++                      }
++                      err = gr_search_bind(sock, (struct sockaddr_in *)&address);
++                      if (err)
++                              goto error;
++
+                       err = security_socket_bind(sock,
+                                                  (struct sockaddr *)&address,
+                                                  addrlen);
+@@ -1423,6 +1459,7 @@ SYSCALL_DEFINE3(bind, int, fd, struct sockaddr __user *, umyaddr, int, addrlen)
+                                                     (struct sockaddr *)
+                                                     &address, addrlen);
+               }
++error:
+               fput_light(sock->file, fput_needed);
+       }
+       return err;
+@@ -1446,10 +1483,20 @@ SYSCALL_DEFINE2(listen, int, fd, int, backlog)
+               if ((unsigned)backlog > somaxconn)
+                       backlog = somaxconn;
++              if (gr_handle_sock_server_other(sock->sk)) {
++                      err = -EPERM;
++                      goto error;
++              }
++
++              err = gr_search_listen(sock);
++              if (err)
++                      goto error;
++
+               err = security_socket_listen(sock, backlog);
+               if (!err)
+                       err = sock->ops->listen(sock, backlog);
++error:
+               fput_light(sock->file, fput_needed);
+       }
+       return err;
+@@ -1492,6 +1539,18 @@ SYSCALL_DEFINE4(accept4, int, fd, struct sockaddr __user *, upeer_sockaddr,
+       newsock->type = sock->type;
+       newsock->ops = sock->ops;
++      if (gr_handle_sock_server_other(sock->sk)) {
++              err = -EPERM;
++              sock_release(newsock);
++              goto out_put;
++      }
++
++      err = gr_search_accept(sock);
++      if (err) {
++              sock_release(newsock);
++              goto out_put;
++      }
++
+       /*
+        * We don't need try_module_get here, as the listening socket (sock)
+        * has the protocol module (sock->ops->owner) held.
+@@ -1534,6 +1593,8 @@ SYSCALL_DEFINE4(accept4, int, fd, struct sockaddr __user *, upeer_sockaddr,
+       fd_install(newfd, newfile);
+       err = newfd;
++      gr_attach_curr_ip(newsock->sk);
++
+ out_put:
+       fput_light(sock->file, fput_needed);
+ out:
+@@ -1571,6 +1632,7 @@ SYSCALL_DEFINE3(connect, int, fd, struct sockaddr __user *, uservaddr,
+               int, addrlen)
+ {
+       struct socket *sock;
++      struct sockaddr *sck;
+       struct sockaddr_storage address;
+       int err, fput_needed;
+@@ -1581,6 +1643,17 @@ SYSCALL_DEFINE3(connect, int, fd, struct sockaddr __user *, uservaddr,
+       if (err < 0)
+               goto out_put;
++      sck = (struct sockaddr *)&address;
++
++      if (gr_handle_sock_client(sck)) {
++              err = -EACCES;
++              goto out_put;
++      }
++
++      err = gr_search_connect(sock, (struct sockaddr_in *)sck);
++      if (err)
++              goto out_put;
++
+       err =
+           security_socket_connect(sock, (struct sockaddr *)&address, addrlen);
+       if (err)
+@@ -1882,6 +1955,8 @@ SYSCALL_DEFINE3(sendmsg, int, fd, struct msghdr __user *, msg, unsigned, flags)
+       int err, ctl_len, iov_size, total_len;
+       int fput_needed;
++      pax_track_stack();
++
+       err = -EFAULT;
+       if (MSG_CMSG_COMPAT & flags) {
+               if (get_compat_msghdr(&msg_sys, msg_compat))
+@@ -2022,7 +2097,7 @@ SYSCALL_DEFINE3(recvmsg, int, fd, struct msghdr __user *, msg,
+        *      kernel msghdr to use the kernel address space)
+        */
+-      uaddr = (__force void __user *)msg_sys.msg_name;
++      uaddr = (void __force_user *)msg_sys.msg_name;
+       uaddr_len = COMPAT_NAMELEN(msg);
+       if (MSG_CMSG_COMPAT & flags) {
+               err = verify_compat_iovec(&msg_sys, iov,
+diff --git a/net/sunrpc/sched.c b/net/sunrpc/sched.c
+index ac94477..8afe5c3 100644
+--- a/net/sunrpc/sched.c
++++ b/net/sunrpc/sched.c
+@@ -234,10 +234,10 @@ static int rpc_wait_bit_killable(void *word)
+ #ifdef RPC_DEBUG
+ static void rpc_task_set_debuginfo(struct rpc_task *task)
+ {
+-      static atomic_t rpc_pid;
++      static atomic_unchecked_t rpc_pid;
+       task->tk_magic = RPC_TASK_MAGIC_ID;
+-      task->tk_pid = atomic_inc_return(&rpc_pid);
++      task->tk_pid = atomic_inc_return_unchecked(&rpc_pid);
+ }
+ #else
+ static inline void rpc_task_set_debuginfo(struct rpc_task *task)
+diff --git a/net/sunrpc/xprtrdma/svc_rdma.c b/net/sunrpc/xprtrdma/svc_rdma.c
+index 35fb68b..236a8bf 100644
+--- a/net/sunrpc/xprtrdma/svc_rdma.c
++++ b/net/sunrpc/xprtrdma/svc_rdma.c
+@@ -59,15 +59,15 @@ unsigned int svcrdma_max_req_size = RPCRDMA_MAX_REQ_SIZE;
+ static unsigned int min_max_inline = 4096;
+ static unsigned int max_max_inline = 65536;
+-atomic_t rdma_stat_recv;
+-atomic_t rdma_stat_read;
+-atomic_t rdma_stat_write;
+-atomic_t rdma_stat_sq_starve;
+-atomic_t rdma_stat_rq_starve;
+-atomic_t rdma_stat_rq_poll;
+-atomic_t rdma_stat_rq_prod;
+-atomic_t rdma_stat_sq_poll;
+-atomic_t rdma_stat_sq_prod;
++atomic_unchecked_t rdma_stat_recv;
++atomic_unchecked_t rdma_stat_read;
++atomic_unchecked_t rdma_stat_write;
++atomic_unchecked_t rdma_stat_sq_starve;
++atomic_unchecked_t rdma_stat_rq_starve;
++atomic_unchecked_t rdma_stat_rq_poll;
++atomic_unchecked_t rdma_stat_rq_prod;
++atomic_unchecked_t rdma_stat_sq_poll;
++atomic_unchecked_t rdma_stat_sq_prod;
+ /* Temporary NFS request map and context caches */
+ struct kmem_cache *svc_rdma_map_cachep;
+@@ -105,7 +105,7 @@ static int read_reset_stat(ctl_table *table, int write,
+               len -= *ppos;
+               if (len > *lenp)
+                       len = *lenp;
+-              if (len && copy_to_user(buffer, str_buf, len))
++              if (len > sizeof str_buf || (len && copy_to_user(buffer, str_buf, len)))
+                       return -EFAULT;
+               *lenp = len;
+               *ppos += len;
+@@ -149,63 +149,63 @@ static ctl_table svcrdma_parm_table[] = {
+       {
+               .procname       = "rdma_stat_read",
+               .data           = &rdma_stat_read,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_recv",
+               .data           = &rdma_stat_recv,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_write",
+               .data           = &rdma_stat_write,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_sq_starve",
+               .data           = &rdma_stat_sq_starve,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_rq_starve",
+               .data           = &rdma_stat_rq_starve,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_rq_poll",
+               .data           = &rdma_stat_rq_poll,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_rq_prod",
+               .data           = &rdma_stat_rq_prod,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_sq_poll",
+               .data           = &rdma_stat_sq_poll,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+       {
+               .procname       = "rdma_stat_sq_prod",
+               .data           = &rdma_stat_sq_prod,
+-              .maxlen         = sizeof(atomic_t),
++              .maxlen         = sizeof(atomic_unchecked_t),
+               .mode           = 0644,
+               .proc_handler   = &read_reset_stat,
+       },
+diff --git a/net/sunrpc/xprtrdma/svc_rdma_recvfrom.c b/net/sunrpc/xprtrdma/svc_rdma_recvfrom.c
+index 9e88438..8ed5cf0 100644
+--- a/net/sunrpc/xprtrdma/svc_rdma_recvfrom.c
++++ b/net/sunrpc/xprtrdma/svc_rdma_recvfrom.c
+@@ -495,7 +495,7 @@ next_sge:
+                       svc_rdma_put_context(ctxt, 0);
+                       goto out;
+               }
+-              atomic_inc(&rdma_stat_read);
++              atomic_inc_unchecked(&rdma_stat_read);
+               if (read_wr.num_sge < chl_map->ch[ch_no].count) {
+                       chl_map->ch[ch_no].count -= read_wr.num_sge;
+@@ -606,7 +606,7 @@ int svc_rdma_recvfrom(struct svc_rqst *rqstp)
+                                 dto_q);
+               list_del_init(&ctxt->dto_q);
+       } else {
+-              atomic_inc(&rdma_stat_rq_starve);
++              atomic_inc_unchecked(&rdma_stat_rq_starve);
+               clear_bit(XPT_DATA, &xprt->xpt_flags);
+               ctxt = NULL;
+       }
+@@ -626,7 +626,7 @@ int svc_rdma_recvfrom(struct svc_rqst *rqstp)
+       dprintk("svcrdma: processing ctxt=%p on xprt=%p, rqstp=%p, status=%d\n",
+               ctxt, rdma_xprt, rqstp, ctxt->wc_status);
+       BUG_ON(ctxt->wc_status != IB_WC_SUCCESS);
+-      atomic_inc(&rdma_stat_recv);
++      atomic_inc_unchecked(&rdma_stat_recv);
+       /* Build up the XDR from the receive buffers. */
+       rdma_build_arg_xdr(rqstp, ctxt, ctxt->byte_len);
+diff --git a/net/sunrpc/xprtrdma/svc_rdma_sendto.c b/net/sunrpc/xprtrdma/svc_rdma_sendto.c
+index f11be72..7aad4e8 100644
+--- a/net/sunrpc/xprtrdma/svc_rdma_sendto.c
++++ b/net/sunrpc/xprtrdma/svc_rdma_sendto.c
+@@ -328,7 +328,7 @@ static int send_write(struct svcxprt_rdma *xprt, struct svc_rqst *rqstp,
+       write_wr.wr.rdma.remote_addr = to;
+       /* Post It */
+-      atomic_inc(&rdma_stat_write);
++      atomic_inc_unchecked(&rdma_stat_write);
+       if (svc_rdma_send(xprt, &write_wr))
+               goto err;
+       return 0;
+diff --git a/net/sunrpc/xprtrdma/svc_rdma_transport.c b/net/sunrpc/xprtrdma/svc_rdma_transport.c
+index 3fa5751..030ba89 100644
+--- a/net/sunrpc/xprtrdma/svc_rdma_transport.c
++++ b/net/sunrpc/xprtrdma/svc_rdma_transport.c
+@@ -292,7 +292,7 @@ static void rq_cq_reap(struct svcxprt_rdma *xprt)
+               return;
+       ib_req_notify_cq(xprt->sc_rq_cq, IB_CQ_NEXT_COMP);
+-      atomic_inc(&rdma_stat_rq_poll);
++      atomic_inc_unchecked(&rdma_stat_rq_poll);
+       while ((ret = ib_poll_cq(xprt->sc_rq_cq, 1, &wc)) > 0) {
+               ctxt = (struct svc_rdma_op_ctxt *)(unsigned long)wc.wr_id;
+@@ -314,7 +314,7 @@ static void rq_cq_reap(struct svcxprt_rdma *xprt)
+       }
+       if (ctxt)
+-              atomic_inc(&rdma_stat_rq_prod);
++              atomic_inc_unchecked(&rdma_stat_rq_prod);
+       set_bit(XPT_DATA, &xprt->sc_xprt.xpt_flags);
+       /*
+@@ -386,7 +386,7 @@ static void sq_cq_reap(struct svcxprt_rdma *xprt)
+               return;
+       ib_req_notify_cq(xprt->sc_sq_cq, IB_CQ_NEXT_COMP);
+-      atomic_inc(&rdma_stat_sq_poll);
++      atomic_inc_unchecked(&rdma_stat_sq_poll);
+       while ((ret = ib_poll_cq(cq, 1, &wc)) > 0) {
+               if (wc.status != IB_WC_SUCCESS)
+                       /* Close the transport */
+@@ -404,7 +404,7 @@ static void sq_cq_reap(struct svcxprt_rdma *xprt)
+       }
+       if (ctxt)
+-              atomic_inc(&rdma_stat_sq_prod);
++              atomic_inc_unchecked(&rdma_stat_sq_prod);
+ }
+ static void sq_comp_handler(struct ib_cq *cq, void *cq_context)
+@@ -1260,7 +1260,7 @@ int svc_rdma_send(struct svcxprt_rdma *xprt, struct ib_send_wr *wr)
+               spin_lock_bh(&xprt->sc_lock);
+               if (xprt->sc_sq_depth < atomic_read(&xprt->sc_sq_count) + wr_count) {
+                       spin_unlock_bh(&xprt->sc_lock);
+-                      atomic_inc(&rdma_stat_sq_starve);
++                      atomic_inc_unchecked(&rdma_stat_sq_starve);
+                       /* See if we can opportunistically reap SQ WR to make room */
+                       sq_cq_reap(xprt);
+diff --git a/net/sysctl_net.c b/net/sysctl_net.c
+index 0b15d72..7934fbb 100644
+--- a/net/sysctl_net.c
++++ b/net/sysctl_net.c
+@@ -46,7 +46,7 @@ static int net_ctl_permissions(struct ctl_table_root *root,
+                              struct ctl_table *table)
+ {
+       /* Allow network administrator to have same access as root. */
+-      if (capable(CAP_NET_ADMIN)) {
++      if (capable_nolog(CAP_NET_ADMIN)) {
+               int mode = (table->mode >> 6) & 7;
+               return (mode << 6) | (mode << 3) | mode;
+       }
+diff --git a/net/tipc/link.c b/net/tipc/link.c
+index dd4c18b..f40d38d 100644
+--- a/net/tipc/link.c
++++ b/net/tipc/link.c
+@@ -1418,7 +1418,7 @@ again:
+               if (!sect_rest) {
+                       sect_rest = msg_sect[++curr_sect].iov_len;
+-                      sect_crs = (const unchar *)msg_sect[curr_sect].iov_base;
++                      sect_crs = (const unchar __user *)msg_sect[curr_sect].iov_base;
+               }
+               if (sect_rest < fragm_rest)
+@@ -1437,7 +1437,7 @@ error:
+                       }
+               } else
+                       skb_copy_to_linear_data_offset(buf, fragm_crs,
+-                                                     sect_crs, sz);
++                                                     (const void __force_kernel *)sect_crs, sz);
+               sect_crs += sz;
+               sect_rest -= sz;
+               fragm_crs += sz;
+diff --git a/net/tipc/subscr.c b/net/tipc/subscr.c
+index 0747d8a..e8bf3f3 100644
+--- a/net/tipc/subscr.c
++++ b/net/tipc/subscr.c
+@@ -104,7 +104,7 @@ static void subscr_send_event(struct subscription *sub,
+ {
+       struct iovec msg_sect;
+-      msg_sect.iov_base = (void *)&sub->evt;
++      msg_sect.iov_base = (void __force_user *)&sub->evt;
+       msg_sect.iov_len = sizeof(struct tipc_event);
+       sub->evt.event = htohl(event, sub->swap);
+diff --git a/net/unix/af_unix.c b/net/unix/af_unix.c
+index db8d51a..608692d 100644
+--- a/net/unix/af_unix.c
++++ b/net/unix/af_unix.c
+@@ -745,6 +745,12 @@ static struct sock *unix_find_other(struct net *net,
+               err = -ECONNREFUSED;
+               if (!S_ISSOCK(inode->i_mode))
+                       goto put_fail;
++
++              if (!gr_acl_handle_unix(path.dentry, path.mnt)) {
++                      err = -EACCES;
++                      goto put_fail;
++              }
++
+               u = unix_find_socket_byinode(net, inode);
+               if (!u)
+                       goto put_fail;
+@@ -765,6 +771,13 @@ static struct sock *unix_find_other(struct net *net,
+               if (u) {
+                       struct dentry *dentry;
+                       dentry = unix_sk(u)->dentry;
++
++                      if (!gr_handle_chroot_unix(u->sk_peercred.pid)) {
++                              err = -EPERM;
++                              sock_put(u);
++                              goto fail;
++                      }
++
+                       if (dentry)
+                               touch_atime(unix_sk(u)->mnt, dentry);
+               } else
+@@ -850,11 +863,18 @@ static int unix_bind(struct socket *sock, struct sockaddr *uaddr, int addr_len)
+               err = security_path_mknod(&nd.path, dentry, mode, 0);
+               if (err)
+                       goto out_mknod_drop_write;
++              if (!gr_acl_handle_mknod(dentry, nd.path.dentry, nd.path.mnt, mode)) {
++                      err = -EACCES;
++                      goto out_mknod_drop_write;
++              }
+               err = vfs_mknod(nd.path.dentry->d_inode, dentry, mode, 0);
+ out_mknod_drop_write:
+               mnt_drop_write(nd.path.mnt);
+               if (err)
+                       goto out_mknod_dput;
++
++              gr_handle_create(dentry, nd.path.mnt);
++
+               mutex_unlock(&nd.path.dentry->d_inode->i_mutex);
+               dput(nd.path.dentry);
+               nd.path.dentry = dentry;
+@@ -2211,7 +2231,11 @@ static int unix_seq_show(struct seq_file *seq, void *v)
+               unix_state_lock(s);
+               seq_printf(seq, "%p: %08X %08X %08X %04X %02X %5lu",
++#ifdef CONFIG_GRKERNSEC_HIDESYM
++                      NULL,
++#else
+                       s,
++#endif
+                       atomic_read(&s->sk_refcnt),
+                       0,
+                       s->sk_state == TCP_LISTEN ? __SO_ACCEPTCON : 0,
+diff --git a/net/wireless/core.h b/net/wireless/core.h
+index 376798f..109a61f 100644
+--- a/net/wireless/core.h
++++ b/net/wireless/core.h
+@@ -27,7 +27,7 @@ struct cfg80211_registered_device {
+       struct mutex mtx;
+       /* rfkill support */
+-      struct rfkill_ops rfkill_ops;
++      rfkill_ops_no_const rfkill_ops;
+       struct rfkill *rfkill;
+       struct work_struct rfkill_sync;
+diff --git a/net/wireless/wext.c b/net/wireless/wext.c
+index a2e4c60..0979cbe 100644
+--- a/net/wireless/wext.c
++++ b/net/wireless/wext.c
+@@ -816,8 +816,7 @@ static int ioctl_standard_iw_point(struct iw_point *iwp, unsigned int cmd,
+                */
+               /* Support for very large requests */
+-              if ((descr->flags & IW_DESCR_FLAG_NOMAX) &&
+-                  (user_length > descr->max_tokens)) {
++              if (user_length > descr->max_tokens) {
+                       /* Allow userspace to GET more than max so
+                        * we can support any size GET requests.
+                        * There is still a limit : -ENOMEM.
+@@ -854,22 +853,6 @@ static int ioctl_standard_iw_point(struct iw_point *iwp, unsigned int cmd,
+               }
+       }
+-      if (IW_IS_GET(cmd) && !(descr->flags & IW_DESCR_FLAG_NOMAX)) {
+-              /*
+-               * If this is a GET, but not NOMAX, it means that the extra
+-               * data is not bounded by userspace, but by max_tokens. Thus
+-               * set the length to max_tokens. This matches the extra data
+-               * allocation.
+-               * The driver should fill it with the number of tokens it
+-               * provided, and it may check iwp->length rather than having
+-               * knowledge of max_tokens. If the driver doesn't change the
+-               * iwp->length, this ioctl just copies back max_token tokens
+-               * filled with zeroes. Hopefully the driver isn't claiming
+-               * them to be valid data.
+-               */
+-              iwp->length = descr->max_tokens;
+-      }
+-
+       err = handler(dev, info, (union iwreq_data *) iwp, extra);
+       iwp->length += essid_compat;
+diff --git a/net/xfrm/xfrm_policy.c b/net/xfrm/xfrm_policy.c
+index cb81ca3..e15d49a 100644
+--- a/net/xfrm/xfrm_policy.c
++++ b/net/xfrm/xfrm_policy.c
+@@ -586,7 +586,7 @@ int xfrm_policy_insert(int dir, struct xfrm_policy *policy, int excl)
+               hlist_add_head(&policy->bydst, chain);
+       xfrm_pol_hold(policy);
+       net->xfrm.policy_count[dir]++;
+-      atomic_inc(&flow_cache_genid);
++      atomic_inc_unchecked(&flow_cache_genid);
+       if (delpol)
+               __xfrm_policy_unlink(delpol, dir);
+       policy->index = delpol ? delpol->index : xfrm_gen_index(net, dir);
+@@ -669,7 +669,7 @@ struct xfrm_policy *xfrm_policy_bysel_ctx(struct net *net, u8 type, int dir,
+       write_unlock_bh(&xfrm_policy_lock);
+       if (ret && delete) {
+-              atomic_inc(&flow_cache_genid);
++              atomic_inc_unchecked(&flow_cache_genid);
+               xfrm_policy_kill(ret);
+       }
+       return ret;
+@@ -710,7 +710,7 @@ struct xfrm_policy *xfrm_policy_byid(struct net *net, u8 type, int dir, u32 id,
+       write_unlock_bh(&xfrm_policy_lock);
+       if (ret && delete) {
+-              atomic_inc(&flow_cache_genid);
++              atomic_inc_unchecked(&flow_cache_genid);
+               xfrm_policy_kill(ret);
+       }
+       return ret;
+@@ -824,7 +824,7 @@ int xfrm_policy_flush(struct net *net, u8 type, struct xfrm_audit *audit_info)
+               }
+       }
+-      atomic_inc(&flow_cache_genid);
++      atomic_inc_unchecked(&flow_cache_genid);
+ out:
+       write_unlock_bh(&xfrm_policy_lock);
+       return err;
+@@ -1088,7 +1088,7 @@ int xfrm_policy_delete(struct xfrm_policy *pol, int dir)
+       write_unlock_bh(&xfrm_policy_lock);
+       if (pol) {
+               if (dir < XFRM_POLICY_MAX)
+-                      atomic_inc(&flow_cache_genid);
++                      atomic_inc_unchecked(&flow_cache_genid);
+               xfrm_policy_kill(pol);
+               return 0;
+       }
+@@ -1477,7 +1477,7 @@ free_dst:
+       goto out;
+ }
+-static int inline
++static inline int
+ xfrm_dst_alloc_copy(void **target, void *src, int size)
+ {
+       if (!*target) {
+@@ -1489,7 +1489,7 @@ xfrm_dst_alloc_copy(void **target, void *src, int size)
+       return 0;
+ }
+-static int inline
++static inline int
+ xfrm_dst_update_parent(struct dst_entry *dst, struct xfrm_selector *sel)
+ {
+ #ifdef CONFIG_XFRM_SUB_POLICY
+@@ -1501,7 +1501,7 @@ xfrm_dst_update_parent(struct dst_entry *dst, struct xfrm_selector *sel)
+ #endif
+ }
+-static int inline
++static inline int
+ xfrm_dst_update_origin(struct dst_entry *dst, struct flowi *fl)
+ {
+ #ifdef CONFIG_XFRM_SUB_POLICY
+@@ -1537,7 +1537,7 @@ int __xfrm_lookup(struct net *net, struct dst_entry **dst_p, struct flowi *fl,
+       u8 dir = policy_to_flow_dir(XFRM_POLICY_OUT);
+ restart:
+-      genid = atomic_read(&flow_cache_genid);
++      genid = atomic_read_unchecked(&flow_cache_genid);
+       policy = NULL;
+       for (pi = 0; pi < ARRAY_SIZE(pols); pi++)
+               pols[pi] = NULL;
+@@ -1680,7 +1680,7 @@ restart:
+                                       goto error;
+                               }
+                               if (nx == -EAGAIN ||
+-                                  genid != atomic_read(&flow_cache_genid)) {
++                                  genid != atomic_read_unchecked(&flow_cache_genid)) {
+                                       xfrm_pols_put(pols, npols);
+                                       goto restart;
+                               }
+diff --git a/net/xfrm/xfrm_user.c b/net/xfrm/xfrm_user.c
+index b95a2d6..85c4d78 100644
+--- a/net/xfrm/xfrm_user.c
++++ b/net/xfrm/xfrm_user.c
+@@ -1169,6 +1169,8 @@ static int copy_to_user_tmpl(struct xfrm_policy *xp, struct sk_buff *skb)
+       struct xfrm_user_tmpl vec[XFRM_MAX_DEPTH];
+       int i;
++      pax_track_stack();
++
+       if (xp->xfrm_nr == 0)
+               return 0;
+@@ -1784,6 +1786,8 @@ static int xfrm_do_migrate(struct sk_buff *skb, struct nlmsghdr *nlh,
+       int err;
+       int n = 0;
++      pax_track_stack();
++
+       if (attrs[XFRMA_MIGRATE] == NULL)
+               return -EINVAL;
+diff --git a/samples/kobject/kset-example.c b/samples/kobject/kset-example.c
+index 45b7d56..19e828c 100644
+--- a/samples/kobject/kset-example.c
++++ b/samples/kobject/kset-example.c
+@@ -87,7 +87,7 @@ static ssize_t foo_attr_store(struct kobject *kobj,
+ }
+ /* Our custom sysfs_ops that we will associate with our ktype later on */
+-static struct sysfs_ops foo_sysfs_ops = {
++static const struct sysfs_ops foo_sysfs_ops = {
+       .show = foo_attr_show,
+       .store = foo_attr_store,
+ };
+diff --git a/scripts/Makefile.build b/scripts/Makefile.build
+index 341b589..405aed3 100644
+--- a/scripts/Makefile.build
++++ b/scripts/Makefile.build
+@@ -59,7 +59,7 @@ endif
+ endif
+ # Do not include host rules unless needed
+-ifneq ($(hostprogs-y)$(hostprogs-m),)
++ifneq ($(hostprogs-y)$(hostprogs-m)$(hostlibs-y)$(hostlibs-m),)
+ include scripts/Makefile.host
+ endif
+diff --git a/scripts/Makefile.clean b/scripts/Makefile.clean
+index 6f89fbb..53adc9c 100644
+--- a/scripts/Makefile.clean
++++ b/scripts/Makefile.clean
+@@ -43,7 +43,8 @@ subdir-ymn   := $(addprefix $(obj)/,$(subdir-ymn))
+ __clean-files := $(extra-y) $(always)                  \
+                  $(targets) $(clean-files)             \
+                  $(host-progs)                         \
+-                 $(hostprogs-y) $(hostprogs-m) $(hostprogs-)
++                 $(hostprogs-y) $(hostprogs-m) $(hostprogs-) \
++                 $(hostlibs-y) $(hostlibs-m) $(hostlibs-)
+ # as clean-files is given relative to the current directory, this adds
+ # a $(obj) prefix, except for absolute paths
+diff --git a/scripts/Makefile.host b/scripts/Makefile.host
+index 1ac414f..a1c1451 100644
+--- a/scripts/Makefile.host
++++ b/scripts/Makefile.host
+@@ -31,6 +31,7 @@
+ # Note: Shared libraries consisting of C++ files are not supported
+ __hostprogs := $(sort $(hostprogs-y) $(hostprogs-m))
++__hostlibs := $(sort $(hostlibs-y) $(hostlibs-m))
+ # C code
+ # Executables compiled from a single .c file
+@@ -54,6 +55,7 @@ host-cxxobjs := $(sort $(foreach m,$(host-cxxmulti),$($(m)-cxxobjs)))
+ # Shared libaries (only .c supported)
+ # Shared libraries (.so) - all .so files referenced in "xxx-objs"
+ host-cshlib   := $(sort $(filter %.so, $(host-cobjs)))
++host-cshlib   += $(sort $(filter %.so, $(__hostlibs)))
+ # Remove .so files from "xxx-objs"
+ host-cobjs    := $(filter-out %.so,$(host-cobjs))
+diff --git a/scripts/basic/fixdep.c b/scripts/basic/fixdep.c
+index 6bf21f8..c0546b3 100644
+--- a/scripts/basic/fixdep.c
++++ b/scripts/basic/fixdep.c
+@@ -162,7 +162,7 @@ static void grow_config(int len)
+ /*
+  * Lookup a value in the configuration string.
+  */
+-static int is_defined_config(const char * name, int len)
++static int is_defined_config(const char * name, unsigned int len)
+ {
+       const char * pconfig;
+       const char * plast = str_config + len_config - len;
+@@ -199,7 +199,7 @@ static void clear_config(void)
+ /*
+  * Record the use of a CONFIG_* word.
+  */
+-static void use_config(char *m, int slen)
++static void use_config(char *m, unsigned int slen)
+ {
+       char s[PATH_MAX];
+       char *p;
+@@ -222,9 +222,9 @@ static void use_config(char *m, int slen)
+ static void parse_config_file(char *map, size_t len)
+ {
+-      int *end = (int *) (map + len);
++      unsigned int *end = (unsigned int *) (map + len);
+       /* start at +1, so that p can never be < map */
+-      int *m   = (int *) map + 1;
++      unsigned int *m   = (unsigned int *) map + 1;
+       char *p, *q;
+       for (; m < end; m++) {
+@@ -371,7 +371,7 @@ static void print_deps(void)
+ static void traps(void)
+ {
+       static char test[] __attribute__((aligned(sizeof(int)))) = "CONF";
+-      int *p = (int *)test;
++      unsigned int *p = (unsigned int *)test;
+       if (*p != INT_CONF) {
+               fprintf(stderr, "fixdep: sizeof(int) != 4 or wrong endianess? %#x\n",
+diff --git a/scripts/gcc-plugin.sh b/scripts/gcc-plugin.sh
+new file mode 100644
+index 0000000..8729101
+--- /dev/null
++++ b/scripts/gcc-plugin.sh
+@@ -0,0 +1,2 @@
++#!/bin/sh
++echo -e "#include \"gcc-plugin.h\"\n#include \"tree.h\"\n#include \"tm.h\"\n#include \"rtl.h\"" | $1 -x c -shared - -o /dev/null -I`$2 -print-file-name=plugin`/include >/dev/null 2>&1 && echo "y"
+diff --git a/scripts/mod/file2alias.c b/scripts/mod/file2alias.c
+index 62a9025..65b82ad 100644
+--- a/scripts/mod/file2alias.c
++++ b/scripts/mod/file2alias.c
+@@ -72,7 +72,7 @@ static void device_id_check(const char *modname, const char *device_id,
+                           unsigned long size, unsigned long id_size,
+                           void *symval)
+ {
+-      int i;
++      unsigned int i;
+       if (size % id_size || size < id_size) {
+               if (cross_build != 0)
+@@ -102,7 +102,7 @@ static void device_id_check(const char *modname, const char *device_id,
+ /* USB is special because the bcdDevice can be matched against a numeric range */
+ /* Looks like "usb:vNpNdNdcNdscNdpNicNiscNipN" */
+ static void do_usb_entry(struct usb_device_id *id,
+-                       unsigned int bcdDevice_initial, int bcdDevice_initial_digits,
++                       unsigned int bcdDevice_initial, unsigned int bcdDevice_initial_digits,
+                        unsigned char range_lo, unsigned char range_hi,
+                        struct module *mod)
+ {
+@@ -151,7 +151,7 @@ static void do_usb_entry_multi(struct usb_device_id *id, struct module *mod)
+ {
+       unsigned int devlo, devhi;
+       unsigned char chi, clo;
+-      int ndigits;
++      unsigned int ndigits;
+       id->match_flags = TO_NATIVE(id->match_flags);
+       id->idVendor = TO_NATIVE(id->idVendor);
+@@ -368,7 +368,7 @@ static void do_pnp_device_entry(void *symval, unsigned long size,
+       for (i = 0; i < count; i++) {
+               const char *id = (char *)devs[i].id;
+               char acpi_id[sizeof(devs[0].id)];
+-              int j;
++              unsigned int j;
+               buf_printf(&mod->dev_table_buf,
+                          "MODULE_ALIAS(\"pnp:d%s*\");\n", id);
+@@ -398,7 +398,7 @@ static void do_pnp_card_entries(void *symval, unsigned long size,
+               for (j = 0; j < PNP_MAX_DEVICES; j++) {
+                       const char *id = (char *)card->devs[j].id;
+-                      int i2, j2;
++                      unsigned int i2, j2;
+                       int dup = 0;
+                       if (!id[0])
+@@ -424,7 +424,7 @@ static void do_pnp_card_entries(void *symval, unsigned long size,
+                       /* add an individual alias for every device entry */
+                       if (!dup) {
+                               char acpi_id[sizeof(card->devs[0].id)];
+-                              int k;
++                              unsigned int k;
+                               buf_printf(&mod->dev_table_buf,
+                                          "MODULE_ALIAS(\"pnp:d%s*\");\n", id);
+@@ -699,7 +699,7 @@ static void dmi_ascii_filter(char *d, const char *s)
+ static int do_dmi_entry(const char *filename, struct dmi_system_id *id,
+                       char *alias)
+ {
+-      int i, j;
++      unsigned int i, j;
+       sprintf(alias, "dmi*");
+diff --git a/scripts/mod/modpost.c b/scripts/mod/modpost.c
+index 03efeab..0888989 100644
+--- a/scripts/mod/modpost.c
++++ b/scripts/mod/modpost.c
+@@ -835,6 +835,7 @@ enum mismatch {
+       INIT_TO_EXIT,
+       EXIT_TO_INIT,
+       EXPORT_TO_INIT_EXIT,
++      DATA_TO_TEXT
+ };
+ struct sectioncheck {
+@@ -920,6 +921,12 @@ const struct sectioncheck sectioncheck[] = {
+       .fromsec = { "__ksymtab*", NULL },
+       .tosec   = { INIT_SECTIONS, EXIT_SECTIONS, NULL },
+       .mismatch = EXPORT_TO_INIT_EXIT
++},
++/* Do not reference code from writable data */
++{
++      .fromsec = { DATA_SECTIONS, NULL },
++      .tosec   = { TEXT_SECTIONS, NULL },
++      .mismatch = DATA_TO_TEXT
+ }
+ };
+@@ -1024,10 +1031,10 @@ static Elf_Sym *find_elf_symbol(struct elf_info *elf, Elf64_Sword addr,
+                       continue;
+               if (ELF_ST_TYPE(sym->st_info) == STT_SECTION)
+                       continue;
+-              if (sym->st_value == addr)
+-                      return sym;
+               /* Find a symbol nearby - addr are maybe negative */
+               d = sym->st_value - addr;
++              if (d == 0)
++                      return sym;
+               if (d < 0)
+                       d = addr - sym->st_value;
+               if (d < distance) {
+@@ -1268,6 +1275,14 @@ static void report_sec_mismatch(const char *modname, enum mismatch mismatch,
+               "Fix this by removing the %sannotation of %s "
+               "or drop the export.\n",
+               tosym, sec2annotation(tosec), sec2annotation(tosec), tosym);
++      case DATA_TO_TEXT:
++/*
++              fprintf(stderr,
++              "The variable %s references\n"
++              "the %s %s%s%s\n",
++              fromsym, to, sec2annotation(tosec), tosym, to_p);
++*/
++              break;
+       case NO_MISMATCH:
+               /* To get warnings on missing members */
+               break;
+@@ -1495,7 +1510,7 @@ static void section_rel(const char *modname, struct elf_info *elf,
+ static void check_sec_ref(struct module *mod, const char *modname,
+                           struct elf_info *elf)
+ {
+-      int i;
++      unsigned int i;
+       Elf_Shdr *sechdrs = elf->sechdrs;
+       /* Walk through all sections */
+@@ -1651,7 +1666,7 @@ void __attribute__((format(printf, 2, 3))) buf_printf(struct buffer *buf,
+       va_end(ap);
+ }
+-void buf_write(struct buffer *buf, const char *s, int len)
++void buf_write(struct buffer *buf, const char *s, unsigned int len)
+ {
+       if (buf->size - buf->pos < len) {
+               buf->size += len + SZ;
+@@ -1863,7 +1878,7 @@ static void write_if_changed(struct buffer *b, const char *fname)
+       if (fstat(fileno(file), &st) < 0)
+               goto close_write;
+-      if (st.st_size != b->pos)
++      if (st.st_size != (off_t)b->pos)
+               goto close_write;
+       tmp = NOFAIL(malloc(b->pos));
+diff --git a/scripts/mod/modpost.h b/scripts/mod/modpost.h
+index 09f58e3..4b66092 100644
+--- a/scripts/mod/modpost.h
++++ b/scripts/mod/modpost.h
+@@ -92,15 +92,15 @@ void *do_nofail(void *ptr, const char *expr);
+ struct buffer {
+       char *p;
+-      int pos;
+-      int size;
++      unsigned int pos;
++      unsigned int size;
+ };
+ void __attribute__((format(printf, 2, 3)))
+ buf_printf(struct buffer *buf, const char *fmt, ...);
+ void
+-buf_write(struct buffer *buf, const char *s, int len);
++buf_write(struct buffer *buf, const char *s, unsigned int len);
+ struct module {
+       struct module *next;
+diff --git a/scripts/mod/sumversion.c b/scripts/mod/sumversion.c
+index ecf9c7d..d52b38e 100644
+--- a/scripts/mod/sumversion.c
++++ b/scripts/mod/sumversion.c
+@@ -455,7 +455,7 @@ static void write_version(const char *filename, const char *sum,
+               goto out;
+       }
+-      if (write(fd, sum, strlen(sum)+1) != strlen(sum)+1) {
++      if (write(fd, sum, strlen(sum)+1) != (ssize_t)strlen(sum)+1) {
+               warn("writing sum in %s failed: %s\n",
+                       filename, strerror(errno));
+               goto out;
+diff --git a/scripts/package/mkspec b/scripts/package/mkspec
+index 47bdd2f..d4d4e93 100755
+--- a/scripts/package/mkspec
++++ b/scripts/package/mkspec
+@@ -70,7 +70,7 @@ echo 'mkdir -p $RPM_BUILD_ROOT/boot $RPM_BUILD_ROOT/lib/modules'
+ echo 'mkdir -p $RPM_BUILD_ROOT/lib/firmware'
+ echo "%endif"
+-echo 'INSTALL_MOD_PATH=$RPM_BUILD_ROOT make %{_smp_mflags} KBUILD_SRC= modules_install'
++echo 'INSTALL_MOD_PATH=$RPM_BUILD_ROOT make %{?_smp_mflags} KBUILD_SRC= modules_install'
+ echo "%ifarch ia64"
+ echo 'cp $KBUILD_IMAGE $RPM_BUILD_ROOT'"/boot/efi/vmlinuz-$KERNELRELEASE"
+ echo 'ln -s '"efi/vmlinuz-$KERNELRELEASE" '$RPM_BUILD_ROOT'"/boot/"
+diff --git a/scripts/pnmtologo.c b/scripts/pnmtologo.c
+index 5c11312..72742b5 100644
+--- a/scripts/pnmtologo.c
++++ b/scripts/pnmtologo.c
+@@ -237,14 +237,14 @@ static void write_header(void)
+     fprintf(out, " *  Linux logo %s\n", logoname);
+     fputs(" */\n\n", out);
+     fputs("#include <linux/linux_logo.h>\n\n", out);
+-    fprintf(out, "static unsigned char %s_data[] __initdata = {\n",
++    fprintf(out, "static unsigned char %s_data[] = {\n",
+           logoname);
+ }
+ static void write_footer(void)
+ {
+     fputs("\n};\n\n", out);
+-    fprintf(out, "const struct linux_logo %s __initconst = {\n", logoname);
++    fprintf(out, "const struct linux_logo %s = {\n", logoname);
+     fprintf(out, "\t.type\t\t= %s,\n", logo_types[logo_type]);
+     fprintf(out, "\t.width\t\t= %d,\n", logo_width);
+     fprintf(out, "\t.height\t\t= %d,\n", logo_height);
+@@ -374,7 +374,7 @@ static void write_logo_clut224(void)
+     fputs("\n};\n\n", out);
+     /* write logo clut */
+-    fprintf(out, "static unsigned char %s_clut[] __initdata = {\n",
++    fprintf(out, "static unsigned char %s_clut[] = {\n",
+           logoname);
+     write_hex_cnt = 0;
+     for (i = 0; i < logo_clutsize; i++) {
+diff --git a/scripts/tags.sh b/scripts/tags.sh
+index d52f7a0..269eb1b 100755
+--- a/scripts/tags.sh
++++ b/scripts/tags.sh
+@@ -93,6 +93,11 @@ docscope()
+       cscope -b -f cscope.out
+ }
++dogtags()
++{
++      all_sources | gtags -f -
++}
++
+ exuberant()
+ {
+       all_sources | xargs $1 -a                               \
+@@ -164,6 +169,10 @@ case "$1" in
+               docscope
+               ;;
++      "gtags")
++              dogtags
++              ;;
++
+       "tags")
+               rm -f tags
+               xtags ctags
+diff --git a/security/Kconfig b/security/Kconfig
+index fb363cd..886ace4 100644
+--- a/security/Kconfig
++++ b/security/Kconfig
+@@ -4,6 +4,626 @@
+ menu "Security options"
++source grsecurity/Kconfig
++
++menu "PaX"
++
++      config ARCH_TRACK_EXEC_LIMIT
++      bool
++
++      config PAX_KERNEXEC_PLUGIN
++      bool
++
++      config PAX_PER_CPU_PGD
++      bool
++
++      config TASK_SIZE_MAX_SHIFT
++      int
++      depends on X86_64
++      default 47 if !PAX_PER_CPU_PGD
++      default 42 if PAX_PER_CPU_PGD
++
++      config PAX_ENABLE_PAE
++      bool
++      default y if (X86_32 && (MPENTIUM4 || MK8 || MPSC || MCORE2 || MATOM))
++      
++config PAX
++      bool "Enable various PaX features"
++      depends on GRKERNSEC && (ALPHA || ARM || AVR32 || IA64 || MIPS || PARISC || PPC || SPARC || X86)
++      help
++        This allows you to enable various PaX features.  PaX adds
++        intrusion prevention mechanisms to the kernel that reduce
++        the risks posed by exploitable memory corruption bugs.
++
++menu "PaX Control"
++      depends on PAX
++
++config PAX_SOFTMODE
++      bool 'Support soft mode'
++      help
++        Enabling this option will allow you to run PaX in soft mode, that
++        is, PaX features will not be enforced by default, only on executables
++        marked explicitly.  You must also enable PT_PAX_FLAGS or XATTR_PAX_FLAGS
++        support as they are the only way to mark executables for soft mode use.
++
++        Soft mode can be activated by using the "pax_softmode=1" kernel command
++        line option on boot.  Furthermore you can control various PaX features
++        at runtime via the entries in /proc/sys/kernel/pax.
++
++config PAX_EI_PAX
++      bool 'Use legacy ELF header marking'
++      help
++        Enabling this option will allow you to control PaX features on
++        a per executable basis via the 'chpax' utility available at
++        http://pax.grsecurity.net/.  The control flags will be read from
++        an otherwise reserved part of the ELF header.  This marking has
++        numerous drawbacks (no support for soft-mode, toolchain does not
++        know about the non-standard use of the ELF header) therefore it
++        has been deprecated in favour of PT_PAX_FLAGS and XATTR_PAX_FLAGS
++        support.
++
++        If you have applications not marked by the PT_PAX_FLAGS ELF program
++        header and you cannot use XATTR_PAX_FLAGS then you MUST enable this
++        option otherwise they will not get any protection.
++
++        Note that if you enable PT_PAX_FLAGS or XATTR_PAX_FLAGS marking
++        support as well, they will override the legacy EI_PAX marks.
++
++config PAX_PT_PAX_FLAGS
++      bool 'Use ELF program header marking'
++      help
++        Enabling this option will allow you to control PaX features on
++        a per executable basis via the 'paxctl' utility available at
++        http://pax.grsecurity.net/.  The control flags will be read from
++        a PaX specific ELF program header (PT_PAX_FLAGS).  This marking
++        has the benefits of supporting both soft mode and being fully
++        integrated into the toolchain (the binutils patch is available
++        from http://pax.grsecurity.net).
++
++        If you have applications not marked by the PT_PAX_FLAGS ELF program
++        header then you MUST enable either XATTR_PAX_FLAGS or EI_PAX marking
++        support otherwise they will not get any protection.
++
++        If you enable both PT_PAX_FLAGS and XATTR_PAX_FLAGS support then you
++        must make sure that the marks are the same if a binary has both marks.
++
++        Note that if you enable the legacy EI_PAX marking support as well,
++        the EI_PAX marks will be overridden by the PT_PAX_FLAGS marks.
++
++config PAX_XATTR_PAX_FLAGS
++      bool 'Use filesystem extended attributes marking'
++      depends on EXPERT
++      select CIFS_XATTR if CIFS
++      select EXT2_FS_XATTR if EXT2_FS
++      select EXT3_FS_XATTR if EXT3_FS
++      select EXT4_FS_XATTR if EXT4_FS
++      select JFFS2_FS_XATTR if JFFS2_FS
++      select REISERFS_FS_XATTR if REISERFS_FS
++      select UBIFS_FS_XATTR if UBIFS_FS
++      help
++        Enabling this option will allow you to control PaX features on
++        a per executable basis via the 'setfattr' utility.  The control
++        flags will be read from the user.pax.flags extended attribute of
++        the file.  This marking has the benefit of supporting binary-only
++        applications that self-check themselves (e.g., skype) and would
++        not tolerate chpax/paxctl changes.  The main drawback is that
++        extended attributes are not supported by some filesystems (e.g.,
++        isofs, squashfs, tmpfs, udf, vfat) so copying files through such
++        filesystems will lose the extended attributes and these PaX markings.
++
++        If you have applications not marked by the PT_PAX_FLAGS ELF program
++        header then you MUST enable either XATTR_PAX_FLAGS or EI_PAX marking
++        support otherwise they will not get any protection.
++
++        If you enable both PT_PAX_FLAGS and XATTR_PAX_FLAGS support then you
++        must make sure that the marks are the same if a binary has both marks.
++
++        Note that if you enable the legacy EI_PAX marking support as well,
++        the EI_PAX marks will be overridden by the XATTR_PAX_FLAGS marks.
++
++choice
++      prompt 'MAC system integration'
++      default PAX_HAVE_ACL_FLAGS
++      help
++        Mandatory Access Control systems have the option of controlling
++        PaX flags on a per executable basis, choose the method supported
++        by your particular system.
++
++        - "none": if your MAC system does not interact with PaX,
++        - "direct": if your MAC system defines pax_set_initial_flags() itself,
++        - "hook": if your MAC system uses the pax_set_initial_flags_func callback.
++
++        NOTE: this option is for developers/integrators only.
++
++      config PAX_NO_ACL_FLAGS
++              bool 'none'
++
++      config PAX_HAVE_ACL_FLAGS
++              bool 'direct'
++
++      config PAX_HOOK_ACL_FLAGS
++              bool 'hook'
++endchoice
++
++endmenu
++
++menu "Non-executable pages"
++      depends on PAX
++
++config PAX_NOEXEC
++      bool "Enforce non-executable pages"
++      depends on ALPHA || (ARM && (CPU_V6 || CPU_V7)) || IA64 || MIPS || PARISC || PPC || S390 || SPARC || X86
++      help
++        By design some architectures do not allow for protecting memory
++        pages against execution or even if they do, Linux does not make
++        use of this feature.  In practice this means that if a page is
++        readable (such as the stack or heap) it is also executable.
++
++        There is a well known exploit technique that makes use of this
++        fact and a common programming mistake where an attacker can
++        introduce code of his choice somewhere in the attacked program's
++        memory (typically the stack or the heap) and then execute it.
++
++        If the attacked program was running with different (typically
++        higher) privileges than that of the attacker, then he can elevate
++        his own privilege level (e.g. get a root shell, write to files for
++        which he does not have write access to, etc).
++
++        Enabling this option will let you choose from various features
++        that prevent the injection and execution of 'foreign' code in
++        a program.
++
++        This will also break programs that rely on the old behaviour and
++        expect that dynamically allocated memory via the malloc() family
++        of functions is executable (which it is not).  Notable examples
++        are the XFree86 4.x server, the java runtime and wine.
++
++config PAX_PAGEEXEC
++      bool "Paging based non-executable pages"
++      depends on PAX_NOEXEC && (!X86_32 || M586 || M586TSC || M586MMX || M686 || MPENTIUMII || MPENTIUMIII || MPENTIUMM || MCORE2 || MATOM || MPENTIUM4 || MPSC || MK7 || MK8 || MWINCHIPC6 || MWINCHIP2 || MWINCHIP3D || MVIAC3_2 || MVIAC7)
++      select S390_SWITCH_AMODE if S390
++      select S390_EXEC_PROTECT if S390
++      select ARCH_TRACK_EXEC_LIMIT if X86_32
++      help
++        This implementation is based on the paging feature of the CPU.
++        On i386 without hardware non-executable bit support there is a
++        variable but usually low performance impact, however on Intel's
++        P4 core based CPUs it is very high so you should not enable this
++        for kernels meant to be used on such CPUs.
++
++        On alpha, avr32, ia64, parisc, sparc, sparc64, x86_64 and i386
++        with hardware non-executable bit support there is no performance
++        impact, on ppc the impact is negligible.
++
++        Note that several architectures require various emulations due to
++        badly designed userland ABIs, this will cause a performance impact
++        but will disappear as soon as userland is fixed. For example, ppc
++        userland MUST have been built with secure-plt by a recent toolchain.
++
++config PAX_SEGMEXEC
++      bool "Segmentation based non-executable pages"
++      depends on PAX_NOEXEC && X86_32
++      help
++        This implementation is based on the segmentation feature of the
++        CPU and has a very small performance impact, however applications
++        will be limited to a 1.5 GB address space instead of the normal
++        3 GB.
++
++config PAX_EMUTRAMP
++      bool "Emulate trampolines" if (PAX_PAGEEXEC || PAX_SEGMEXEC) && (PARISC || X86)
++      default y if PARISC
++      help
++        There are some programs and libraries that for one reason or
++        another attempt to execute special small code snippets from
++        non-executable memory pages.  Most notable examples are the
++        signal handler return code generated by the kernel itself and
++        the GCC trampolines.
++
++        If you enabled CONFIG_PAX_PAGEEXEC or CONFIG_PAX_SEGMEXEC then
++        such programs will no longer work under your kernel.
++
++        As a remedy you can say Y here and use the 'chpax' or 'paxctl'
++        utilities to enable trampoline emulation for the affected programs
++        yet still have the protection provided by the non-executable pages.
++
++        On parisc you MUST enable this option and EMUSIGRT as well, otherwise
++        your system will not even boot.
++
++        Alternatively you can say N here and use the 'chpax' or 'paxctl'
++        utilities to disable CONFIG_PAX_PAGEEXEC and CONFIG_PAX_SEGMEXEC
++        for the affected files.
++
++        NOTE: enabling this feature *may* open up a loophole in the
++        protection provided by non-executable pages that an attacker
++        could abuse.  Therefore the best solution is to not have any
++        files on your system that would require this option.  This can
++        be achieved by not using libc5 (which relies on the kernel
++        signal handler return code) and not using or rewriting programs
++        that make use of the nested function implementation of GCC.
++        Skilled users can just fix GCC itself so that it implements
++        nested function calls in a way that does not interfere with PaX.
++
++config PAX_EMUSIGRT
++      bool "Automatically emulate sigreturn trampolines"
++      depends on PAX_EMUTRAMP && PARISC
++      default y
++      help
++        Enabling this option will have the kernel automatically detect
++        and emulate signal return trampolines executing on the stack
++        that would otherwise lead to task termination.
++
++        This solution is intended as a temporary one for users with
++        legacy versions of libc (libc5, glibc 2.0, uClibc before 0.9.17,
++        Modula-3 runtime, etc) or executables linked to such, basically
++        everything that does not specify its own SA_RESTORER function in
++        normal executable memory like glibc 2.1+ does.
++
++        On parisc you MUST enable this option, otherwise your system will
++        not even boot.
++
++        NOTE: this feature cannot be disabled on a per executable basis
++        and since it *does* open up a loophole in the protection provided
++        by non-executable pages, the best solution is to not have any
++        files on your system that would require this option.
++
++config PAX_MPROTECT
++      bool "Restrict mprotect()"
++      depends on (PAX_PAGEEXEC || PAX_SEGMEXEC)
++      help
++        Enabling this option will prevent programs from
++         - changing the executable status of memory pages that were
++           not originally created as executable,
++         - making read-only executable pages writable again,
++         - creating executable pages from anonymous memory,
++         - making read-only-after-relocations (RELRO) data pages writable again.
++
++        You should say Y here to complete the protection provided by
++        the enforcement of non-executable pages.
++
++        NOTE: you can use the 'chpax' or 'paxctl' utilities to control
++        this feature on a per file basis.
++
++config PAX_MPROTECT_COMPAT
++      bool "Use legacy/compat protection demoting (read help)"
++      depends on PAX_MPROTECT
++      default n
++      help
++        The current implementation of PAX_MPROTECT denies RWX allocations/mprotects
++        by sending the proper error code to the application.  For some broken
++        userland, this can cause problems with Python or other applications.  The
++        current implementation however allows for applications like clamav to
++        detect if JIT compilation/execution is allowed and to fall back gracefully
++        to an interpreter-based mode if it does not.  While we encourage everyone
++        to use the current implementation as-is and push upstream to fix broken
++        userland (note that the RWX logging option can assist with this), in some
++        environments this may not be possible.  Having to disable MPROTECT
++        completely on certain binaries reduces the security benefit of PaX,
++        so this option is provided for those environments to revert to the old
++        behavior.
++
++config PAX_ELFRELOCS
++      bool "Allow ELF text relocations (read help)"
++      depends on PAX_MPROTECT
++      default n
++      help
++        Non-executable pages and mprotect() restrictions are effective
++        in preventing the introduction of new executable code into an
++        attacked task's address space.  There remain only two venues
++        for this kind of attack: if the attacker can execute already
++        existing code in the attacked task then he can either have it
++        create and mmap() a file containing his code or have it mmap()
++        an already existing ELF library that does not have position
++        independent code in it and use mprotect() on it to make it
++        writable and copy his code there.  While protecting against
++        the former approach is beyond PaX, the latter can be prevented
++        by having only PIC ELF libraries on one's system (which do not
++        need to relocate their code).  If you are sure this is your case,
++        as is the case with all modern Linux distributions, then leave
++        this option disabled.  You should say 'n' here.
++
++config PAX_ETEXECRELOCS
++      bool "Allow ELF ET_EXEC text relocations"
++      depends on PAX_MPROTECT && (ALPHA || IA64 || PARISC)
++      select PAX_ELFRELOCS
++      default y
++      help
++        On some architectures there are incorrectly created applications
++        that require text relocations and would not work without enabling
++        this option.  If you are an alpha, ia64 or parisc user, you should
++        enable this option and disable it once you have made sure that
++        none of your applications need it.
++
++config PAX_EMUPLT
++      bool "Automatically emulate ELF PLT"
++      depends on PAX_MPROTECT && (ALPHA || PARISC || SPARC)
++      default y
++      help
++        Enabling this option will have the kernel automatically detect
++        and emulate the Procedure Linkage Table entries in ELF files.
++        On some architectures such entries are in writable memory, and
++        become non-executable leading to task termination.  Therefore
++        it is mandatory that you enable this option on alpha, parisc,
++        sparc and sparc64, otherwise your system would not even boot.
++
++        NOTE: this feature *does* open up a loophole in the protection
++        provided by the non-executable pages, therefore the proper
++        solution is to modify the toolchain to produce a PLT that does
++        not need to be writable.
++
++config PAX_DLRESOLVE
++      bool 'Emulate old glibc resolver stub'
++      depends on PAX_EMUPLT && SPARC
++      default n
++      help
++        This option is needed if userland has an old glibc (before 2.4)
++        that puts a 'save' instruction into the runtime generated resolver
++        stub that needs special emulation.
++
++config PAX_KERNEXEC
++      bool "Enforce non-executable kernel pages"
++      depends on (PPC || X86) && (!X86_32 || X86_WP_WORKS_OK) && !XEN
++      select PAX_PER_CPU_PGD if X86_64 || (X86_32 && X86_PAE)
++      select PAX_KERNEXEC_PLUGIN if X86_64
++      help
++        This is the kernel land equivalent of PAGEEXEC and MPROTECT,
++        that is, enabling this option will make it harder to inject
++        and execute 'foreign' code in kernel memory itself.
++
++        Note that on x86_64 kernels there is a known regression when
++        this feature and KVM/VMX are both enabled in the host kernel.
++
++choice
++      prompt "Return Address Instrumentation Method"
++      default PAX_KERNEXEC_PLUGIN_METHOD_BTS
++      depends on PAX_KERNEXEC_PLUGIN
++      help
++        Select the method used to instrument function pointer dereferences.
++        Note that binary modules cannot be instrumented by this approach.
++
++      config PAX_KERNEXEC_PLUGIN_METHOD_BTS
++              bool "bts"
++              help
++                This method is compatible with binary only modules but has
++                a higher runtime overhead.
++
++      config PAX_KERNEXEC_PLUGIN_METHOD_OR
++              bool "or"
++              depends on !PARAVIRT
++              help
++                This method is incompatible with binary only modules but has
++                a lower runtime overhead.
++endchoice
++
++config PAX_KERNEXEC_PLUGIN_METHOD
++      string
++      default "bts" if PAX_KERNEXEC_PLUGIN_METHOD_BTS
++      default "or" if PAX_KERNEXEC_PLUGIN_METHOD_OR
++      default ""
++
++config PAX_KERNEXEC_MODULE_TEXT
++      int "Minimum amount of memory reserved for module code"
++      default "4"
++      depends on PAX_KERNEXEC && X86_32 && MODULES
++      help
++        Due to implementation details the kernel must reserve a fixed
++        amount of memory for module code at compile time that cannot be
++        changed at runtime.  Here you can specify the minimum amount
++        in MB that will be reserved.  Due to the same implementation
++        details this size will always be rounded up to the next 2/4 MB
++        boundary (depends on PAE) so the actually available memory for
++        module code will usually be more than this minimum.
++
++        The default 4 MB should be enough for most users but if you have
++        an excessive number of modules (e.g., most distribution configs
++        compile many drivers as modules) or use huge modules such as
++        nvidia's kernel driver, you will need to adjust this amount.
++        A good rule of thumb is to look at your currently loaded kernel
++        modules and add up their sizes.
++
++endmenu
++
++menu "Address Space Layout Randomization"
++      depends on PAX
++
++config PAX_ASLR
++      bool "Address Space Layout Randomization"
++      help
++        Many if not most exploit techniques rely on the knowledge of
++        certain addresses in the attacked program.  The following options
++        will allow the kernel to apply a certain amount of randomization
++        to specific parts of the program thereby forcing an attacker to
++        guess them in most cases.  Any failed guess will most likely crash
++        the attacked program which allows the kernel to detect such attempts
++        and react on them.  PaX itself provides no reaction mechanisms,
++        instead it is strongly encouraged that you make use of Nergal's
++        segvguard (ftp://ftp.pl.openwall.com/misc/segvguard/) or grsecurity's
++        (http://www.grsecurity.net/) built-in crash detection features or
++        develop one yourself.
++
++        By saying Y here you can choose to randomize the following areas:
++         - top of the task's kernel stack
++         - top of the task's userland stack
++         - base address for mmap() requests that do not specify one
++           (this includes all libraries)
++         - base address of the main executable
++
++        It is strongly recommended to say Y here as address space layout
++        randomization has negligible impact on performance yet it provides
++        a very effective protection.
++
++        NOTE: you can use the 'chpax' or 'paxctl' utilities to control
++        this feature on a per file basis.
++
++config PAX_RANDKSTACK
++      bool "Randomize kernel stack base"
++      depends on X86_TSC && X86
++      help
++        By saying Y here the kernel will randomize every task's kernel
++        stack on every system call.  This will not only force an attacker
++        to guess it but also prevent him from making use of possible
++        leaked information about it.
++
++        Since the kernel stack is a rather scarce resource, randomization
++        may cause unexpected stack overflows, therefore you should very
++        carefully test your system.  Note that once enabled in the kernel
++        configuration, this feature cannot be disabled on a per file basis.
++
++config PAX_RANDUSTACK
++      bool "Randomize user stack base"
++      depends on PAX_ASLR
++      help
++        By saying Y here the kernel will randomize every task's userland
++        stack.  The randomization is done in two steps where the second
++        one may apply a big amount of shift to the top of the stack and
++        cause problems for programs that want to use lots of memory (more
++        than 2.5 GB if SEGMEXEC is not active, or 1.25 GB when it is).
++        For this reason the second step can be controlled by 'chpax' or
++        'paxctl' on a per file basis.
++
++config PAX_RANDMMAP
++      bool "Randomize mmap() base"
++      depends on PAX_ASLR
++      help
++        By saying Y here the kernel will use a randomized base address for
++        mmap() requests that do not specify one themselves.  As a result
++        all dynamically loaded libraries will appear at random addresses
++        and therefore be harder to exploit by a technique where an attacker
++        attempts to execute library code for his purposes (e.g. spawn a
++        shell from an exploited program that is running at an elevated
++        privilege level).
++
++        Furthermore, if a program is relinked as a dynamic ELF file, its
++        base address will be randomized as well, completing the full
++        randomization of the address space layout.  Attacking such programs
++        becomes a guess game.  You can find an example of doing this at
++        http://pax.grsecurity.net/et_dyn.tar.gz and practical samples at
++        http://www.grsecurity.net/grsec-gcc-specs.tar.gz .
++
++        NOTE: you can use the 'chpax' or 'paxctl' utilities to control this
++        feature on a per file basis.
++
++endmenu
++
++menu "Miscellaneous hardening features"
++
++config PAX_MEMORY_SANITIZE
++      bool "Sanitize all freed memory"
++      depends on !HIBERNATION
++      help
++        By saying Y here the kernel will erase memory pages as soon as they
++        are freed.  This in turn reduces the lifetime of data stored in the
++        pages, making it less likely that sensitive information such as
++        passwords, cryptographic secrets, etc stay in memory for too long.
++
++        This is especially useful for programs whose runtime is short, long
++        lived processes and the kernel itself benefit from this as long as
++        they operate on whole memory pages and ensure timely freeing of pages
++        that may hold sensitive information.
++
++        The tradeoff is performance impact, on a single CPU system kernel
++        compilation sees a 3% slowdown, other systems and workloads may vary
++        and you are advised to test this feature on your expected workload
++        before deploying it.
++
++        Note that this feature does not protect data stored in live pages,
++        e.g., process memory swapped to disk may stay there for a long time.
++
++config PAX_MEMORY_STACKLEAK
++      bool "Sanitize kernel stack"
++      depends on X86
++      help
++        By saying Y here the kernel will erase the kernel stack before it
++        returns from a system call.  This in turn reduces the information
++        that a kernel stack leak bug can reveal.
++
++        Note that such a bug can still leak information that was put on
++        the stack by the current system call (the one eventually triggering
++        the bug) but traces of earlier system calls on the kernel stack
++        cannot leak anymore.
++
++        The tradeoff is performance impact, on a single CPU system kernel
++        compilation sees a 1% slowdown, other systems and workloads may vary
++        and you are advised to test this feature on your expected workload
++        before deploying it.
++
++        Note: full support for this feature requires gcc with plugin support
++        so make sure your compiler is at least gcc 4.5.0.  Using older gcc
++        versions means that functions with large enough stack frames may
++        leave uninitialized memory behind that may be exposed to a later
++        syscall leaking the stack.
++
++config PAX_MEMORY_UDEREF
++      bool "Prevent invalid userland pointer dereference"
++      depends on X86 && !UML_X86 && !XEN
++      select PAX_PER_CPU_PGD if X86_64
++      help
++        By saying Y here the kernel will be prevented from dereferencing
++        userland pointers in contexts where the kernel expects only kernel
++        pointers.  This is both a useful runtime debugging feature and a
++        security measure that prevents exploiting a class of kernel bugs.
++
++        The tradeoff is that some virtualization solutions may experience
++        a huge slowdown and therefore you should not enable this feature
++        for kernels meant to run in such environments.  Whether a given VM
++        solution is affected or not is best determined by simply trying it
++        out, the performance impact will be obvious right on boot as this
++        mechanism engages from very early on.  A good rule of thumb is that
++        VMs running on CPUs without hardware virtualization support (i.e.,
++        the majority of IA-32 CPUs) will likely experience the slowdown.
++
++config PAX_REFCOUNT
++      bool "Prevent various kernel object reference counter overflows"
++      depends on GRKERNSEC && (X86 || SPARC64)
++      help
++        By saying Y here the kernel will detect and prevent overflowing
++        various (but not all) kinds of object reference counters.  Such
++        overflows can normally occur due to bugs only and are often, if
++        not always, exploitable.
++
++        The tradeoff is that data structures protected by an overflowed
++        refcount will never be freed and therefore will leak memory.  Note
++        that this leak also happens even without this protection but in
++        that case the overflow can eventually trigger the freeing of the
++        data structure while it is still being used elsewhere, resulting
++        in the exploitable situation that this feature prevents.
++
++        Since this has a negligible performance impact, you should enable
++        this feature.
++
++config PAX_USERCOPY
++      bool "Harden heap object copies between kernel and userland"
++      depends on X86 || PPC || SPARC || ARM
++      depends on GRKERNSEC && (SLAB || SLUB || SLOB)
++      help
++        By saying Y here the kernel will enforce the size of heap objects
++        when they are copied in either direction between the kernel and
++        userland, even if only a part of the heap object is copied.
++
++        Specifically, this checking prevents information leaking from the
++        kernel heap during kernel to userland copies (if the kernel heap
++        object is otherwise fully initialized) and prevents kernel heap
++        overflows during userland to kernel copies.
++
++        Note that the current implementation provides the strictest bounds
++        checks for the SLUB allocator.
++
++        Enabling this option also enables per-slab cache protection against
++        data in a given cache being copied into/out of via userland
++        accessors.  Though the whitelist of regions will be reduced over
++        time, it notably protects important data structures like task structs.
++
++
++        If frame pointers are enabled on x86, this option will also
++        restrict copies into and out of the kernel stack to local variables
++        within a single frame.
++
++        Since this has a negligible performance impact, you should enable
++        this feature.
++
++endmenu
++
++endmenu
++
+ config KEYS
+       bool "Enable access key retention support"
+       help
+@@ -146,7 +766,7 @@ config INTEL_TXT
+ config LSM_MMAP_MIN_ADDR
+       int "Low address space for LSM to protect from user allocation"
+       depends on SECURITY && SECURITY_SELINUX
+-      default 65536
++      default 32768
+       help
+         This is the portion of low virtual memory which should be protected
+         from userspace allocation.  Keeping a user from writing to low pages
+diff --git a/security/capability.c b/security/capability.c
+index fce07a7..5f12858 100644
+--- a/security/capability.c
++++ b/security/capability.c
+@@ -890,7 +890,7 @@ static void cap_audit_rule_free(void *lsmrule)
+ }
+ #endif /* CONFIG_AUDIT */
+-struct security_operations default_security_ops = {
++struct security_operations default_security_ops __read_only = {
+       .name   = "default",
+ };
+diff --git a/security/commoncap.c b/security/commoncap.c
+index fe30751..aaba312 100644
+--- a/security/commoncap.c
++++ b/security/commoncap.c
+@@ -27,6 +27,8 @@
+ #include <linux/sched.h>
+ #include <linux/prctl.h>
+ #include <linux/securebits.h>
++#include <linux/syslog.h>
++#include <net/sock.h>
+ /*
+  * If a non-root user executes a setuid-root binary in
+@@ -50,9 +52,18 @@ static void warn_setuid_and_fcaps_mixed(char *fname)
+       }
+ }
++#ifdef CONFIG_NET
++extern kernel_cap_t gr_cap_rtnetlink(struct sock *sk);
++#endif
++
+ int cap_netlink_send(struct sock *sk, struct sk_buff *skb)
+ {
++#ifdef CONFIG_NET
++      NETLINK_CB(skb).eff_cap = gr_cap_rtnetlink(sk);
++#else
+       NETLINK_CB(skb).eff_cap = current_cap();
++#endif
++      
+       return 0;
+ }
+@@ -582,6 +593,9 @@ int cap_bprm_secureexec(struct linux_binprm *bprm)
+ {
+       const struct cred *cred = current_cred();
++      if (gr_acl_enable_at_secure())
++              return 1;
++
+       if (cred->uid != 0) {
+               if (bprm->cap_effective)
+                       return 1;
+@@ -956,13 +970,18 @@ error:
+ /**
+  * cap_syslog - Determine whether syslog function is permitted
+  * @type: Function requested
++ * @from_file: Whether this request came from an open file (i.e. /proc)
+  *
+  * Determine whether the current process is permitted to use a particular
+  * syslog function, returning 0 if permission is granted, -ve if not.
+  */
+-int cap_syslog(int type)
++int cap_syslog(int type, bool from_file)
+ {
+-      if ((type != 3 && type != 10) && !capable(CAP_SYS_ADMIN))
++      /* /proc/kmsg can open be opened by CAP_SYS_ADMIN */
++      if (type != SYSLOG_ACTION_OPEN && from_file)
++              return 0;
++      if ((type != SYSLOG_ACTION_READ_ALL &&
++           type != SYSLOG_ACTION_SIZE_BUFFER) && !capable(CAP_SYS_ADMIN))
+               return -EPERM;
+       return 0;
+ }
+diff --git a/security/integrity/ima/ima.h b/security/integrity/ima/ima.h
+index 165eb53..b1db4eb 100644
+--- a/security/integrity/ima/ima.h
++++ b/security/integrity/ima/ima.h
+@@ -84,8 +84,8 @@ void ima_add_violation(struct inode *inode, const unsigned char *filename,
+ extern spinlock_t ima_queue_lock;
+ struct ima_h_table {
+-      atomic_long_t len;      /* number of stored measurements in the list */
+-      atomic_long_t violations;
++      atomic_long_unchecked_t len;    /* number of stored measurements in the list */
++      atomic_long_unchecked_t violations;
+       struct hlist_head queue[IMA_MEASURE_HTABLE_SIZE];
+ };
+ extern struct ima_h_table ima_htable;
+diff --git a/security/integrity/ima/ima_api.c b/security/integrity/ima/ima_api.c
+index 852bf85..35d6df3 100644
+--- a/security/integrity/ima/ima_api.c
++++ b/security/integrity/ima/ima_api.c
+@@ -74,7 +74,7 @@ void ima_add_violation(struct inode *inode, const unsigned char *filename,
+       int result;
+       /* can overflow, only indicator */
+-      atomic_long_inc(&ima_htable.violations);
++      atomic_long_inc_unchecked(&ima_htable.violations);
+       entry = kmalloc(sizeof(*entry), GFP_KERNEL);
+       if (!entry) {
+diff --git a/security/integrity/ima/ima_fs.c b/security/integrity/ima/ima_fs.c
+index 0c72c9c..433e29b 100644
+--- a/security/integrity/ima/ima_fs.c
++++ b/security/integrity/ima/ima_fs.c
+@@ -27,12 +27,12 @@
+ static int valid_policy = 1;
+ #define TMPBUFLEN 12
+ static ssize_t ima_show_htable_value(char __user *buf, size_t count,
+-                                   loff_t *ppos, atomic_long_t *val)
++                                   loff_t *ppos, atomic_long_unchecked_t *val)
+ {
+       char tmpbuf[TMPBUFLEN];
+       ssize_t len;
+-      len = scnprintf(tmpbuf, TMPBUFLEN, "%li\n", atomic_long_read(val));
++      len = scnprintf(tmpbuf, TMPBUFLEN, "%li\n", atomic_long_read_unchecked(val));
+       return simple_read_from_buffer(buf, count, ppos, tmpbuf, len);
+ }
+diff --git a/security/integrity/ima/ima_queue.c b/security/integrity/ima/ima_queue.c
+index e19316d..339f7ae 100644
+--- a/security/integrity/ima/ima_queue.c
++++ b/security/integrity/ima/ima_queue.c
+@@ -78,7 +78,7 @@ static int ima_add_digest_entry(struct ima_template_entry *entry)
+       INIT_LIST_HEAD(&qe->later);
+       list_add_tail_rcu(&qe->later, &ima_measurements);
+-      atomic_long_inc(&ima_htable.len);
++      atomic_long_inc_unchecked(&ima_htable.len);
+       key = ima_hash_key(entry->digest);
+       hlist_add_head_rcu(&qe->hnext, &ima_htable.queue[key]);
+       return 0;
+diff --git a/security/keys/keyring.c b/security/keys/keyring.c
+index e031952..c9a535d 100644
+--- a/security/keys/keyring.c
++++ b/security/keys/keyring.c
+@@ -214,15 +214,15 @@ static long keyring_read(const struct key *keyring,
+                       ret = -EFAULT;
+                       for (loop = 0; loop < klist->nkeys; loop++) {
++                              key_serial_t serial;
+                               key = klist->keys[loop];
++                              serial = key->serial;
+                               tmp = sizeof(key_serial_t);
+                               if (tmp > buflen)
+                                       tmp = buflen;
+-                              if (copy_to_user(buffer,
+-                                               &key->serial,
+-                                               tmp) != 0)
++                              if (copy_to_user(buffer, &serial, tmp))
+                                       goto error;
+                               buflen -= tmp;
+diff --git a/security/keys/process_keys.c b/security/keys/process_keys.c
+index 931cfda..e71808a 100644
+--- a/security/keys/process_keys.c
++++ b/security/keys/process_keys.c
+@@ -208,7 +208,7 @@ static int install_process_keyring(void)
+       ret = install_process_keyring_to_cred(new);
+       if (ret < 0) {
+               abort_creds(new);
+-              return ret != -EEXIST ?: 0;
++              return ret != -EEXIST ? ret : 0;
+       }
+       return commit_creds(new);
+diff --git a/security/min_addr.c b/security/min_addr.c
+index d9f9425..c28cef4 100644
+--- a/security/min_addr.c
++++ b/security/min_addr.c
+@@ -14,6 +14,7 @@ unsigned long dac_mmap_min_addr = CONFIG_DEFAULT_MMAP_MIN_ADDR;
+  */
+ static void update_mmap_min_addr(void)
+ {
++#ifndef SPARC
+ #ifdef CONFIG_LSM_MMAP_MIN_ADDR
+       if (dac_mmap_min_addr > CONFIG_LSM_MMAP_MIN_ADDR)
+               mmap_min_addr = dac_mmap_min_addr;
+@@ -22,6 +23,7 @@ static void update_mmap_min_addr(void)
+ #else
+       mmap_min_addr = dac_mmap_min_addr;
+ #endif
++#endif
+ }
+ /*
+diff --git a/security/root_plug.c b/security/root_plug.c
+index 2f7ffa6..0455400 100644
+--- a/security/root_plug.c
++++ b/security/root_plug.c
+@@ -70,7 +70,7 @@ static int rootplug_bprm_check_security (struct linux_binprm *bprm)
+       return 0;
+ }
+-static struct security_operations rootplug_security_ops = {
++static struct security_operations rootplug_security_ops __read_only = {
+       .bprm_check_security =          rootplug_bprm_check_security,
+ };
+diff --git a/security/security.c b/security/security.c
+index c4c6732..7abf13b 100644
+--- a/security/security.c
++++ b/security/security.c
+@@ -24,7 +24,7 @@ static __initdata char chosen_lsm[SECURITY_NAME_MAX + 1];
+ extern struct security_operations default_security_ops;
+ extern void security_fixup_ops(struct security_operations *ops);
+-struct security_operations *security_ops;     /* Initialized to NULL */
++struct security_operations *security_ops __read_only; /* Initialized to NULL */
+ static inline int verify(struct security_operations *ops)
+ {
+@@ -106,7 +106,7 @@ int __init security_module_enable(struct security_operations *ops)
+  * If there is already a security module registered with the kernel,
+  * an error will be returned.  Otherwise %0 is returned on success.
+  */
+-int register_security(struct security_operations *ops)
++int __init register_security(struct security_operations *ops)
+ {
+       if (verify(ops)) {
+               printk(KERN_DEBUG "%s could not verify "
+@@ -199,9 +199,9 @@ int security_quota_on(struct dentry *dentry)
+       return security_ops->quota_on(dentry);
+ }
+-int security_syslog(int type)
++int security_syslog(int type, bool from_file)
+ {
+-      return security_ops->syslog(type);
++      return security_ops->syslog(type, from_file);
+ }
+ int security_settime(struct timespec *ts, struct timezone *tz)
+diff --git a/security/selinux/hooks.c b/security/selinux/hooks.c
+index a106754..ca3a589 100644
+--- a/security/selinux/hooks.c
++++ b/security/selinux/hooks.c
+@@ -76,6 +76,7 @@
+ #include <linux/selinux.h>
+ #include <linux/mutex.h>
+ #include <linux/posix-timers.h>
++#include <linux/syslog.h>
+ #include "avc.h"
+ #include "objsec.h"
+@@ -131,7 +132,7 @@ int selinux_enabled = 1;
+  * Minimal support for a secondary security module,
+  * just to allow the use of the capability module.
+  */
+-static struct security_operations *secondary_ops;
++static struct security_operations *secondary_ops __read_only;
+ /* Lists of inode and superblock security structures initialized
+    before the policy was loaded. */
+@@ -2050,29 +2051,30 @@ static int selinux_quota_on(struct dentry *dentry)
+       return dentry_has_perm(cred, NULL, dentry, FILE__QUOTAON);
+ }
+-static int selinux_syslog(int type)
++static int selinux_syslog(int type, bool from_file)
+ {
+       int rc;
+-      rc = cap_syslog(type);
++      rc = cap_syslog(type, from_file);
+       if (rc)
+               return rc;
+       switch (type) {
+-      case 3:         /* Read last kernel messages */
+-      case 10:        /* Return size of the log buffer */
++      case SYSLOG_ACTION_READ_ALL:    /* Read last kernel messages */
++      case SYSLOG_ACTION_SIZE_BUFFER: /* Return size of the log buffer */
+               rc = task_has_system(current, SYSTEM__SYSLOG_READ);
+               break;
+-      case 6:         /* Disable logging to console */
+-      case 7:         /* Enable logging to console */
+-      case 8:         /* Set level of messages printed to console */
++      case SYSLOG_ACTION_CONSOLE_OFF: /* Disable logging to console */
++      case SYSLOG_ACTION_CONSOLE_ON:  /* Enable logging to console */
++      /* Set level of messages printed to console */
++      case SYSLOG_ACTION_CONSOLE_LEVEL:
+               rc = task_has_system(current, SYSTEM__SYSLOG_CONSOLE);
+               break;
+-      case 0:         /* Close log */
+-      case 1:         /* Open log */
+-      case 2:         /* Read from log */
+-      case 4:         /* Read/clear last kernel messages */
+-      case 5:         /* Clear ring buffer */
++      case SYSLOG_ACTION_CLOSE:       /* Close log */
++      case SYSLOG_ACTION_OPEN:        /* Open log */
++      case SYSLOG_ACTION_READ:        /* Read from log */
++      case SYSLOG_ACTION_READ_CLEAR:  /* Read/clear last kernel messages */
++      case SYSLOG_ACTION_CLEAR:       /* Clear ring buffer */
+       default:
+               rc = task_has_system(current, SYSTEM__SYSLOG_MOD);
+               break;
+@@ -5457,7 +5459,7 @@ static int selinux_key_getsecurity(struct key *key, char **_buffer)
+ #endif
+-static struct security_operations selinux_ops = {
++static struct security_operations selinux_ops __read_only = {
+       .name =                         "selinux",
+       .ptrace_access_check =          selinux_ptrace_access_check,
+@@ -5841,7 +5843,9 @@ int selinux_disable(void)
+       avc_disable();
+       /* Reset security_ops to the secondary module, dummy or capability. */
++      pax_open_kernel();
+       security_ops = secondary_ops;
++      pax_close_kernel();
+       /* Unregister netfilter hooks. */
+       selinux_nf_ip_exit();
+diff --git a/security/selinux/include/xfrm.h b/security/selinux/include/xfrm.h
+index 13128f9..c23c736 100644
+--- a/security/selinux/include/xfrm.h
++++ b/security/selinux/include/xfrm.h
+@@ -48,7 +48,7 @@ int selinux_xfrm_decode_session(struct sk_buff *skb, u32 *sid, int ckall);
+ static inline void selinux_xfrm_notify_policyload(void)
+ {
+-      atomic_inc(&flow_cache_genid);
++      atomic_inc_unchecked(&flow_cache_genid);
+ }
+ #else
+ static inline int selinux_xfrm_enabled(void)
+diff --git a/security/selinux/ss/services.c b/security/selinux/ss/services.c
+index ff17820..d68084c 100644
+--- a/security/selinux/ss/services.c
++++ b/security/selinux/ss/services.c
+@@ -1715,6 +1715,8 @@ int security_load_policy(void *data, size_t len)
+       int rc = 0;
+       struct policy_file file = { data, len }, *fp = &file;
++      pax_track_stack();
++
+       if (!ss_initialized) {
+               avtab_cache_init();
+               if (policydb_read(&policydb, fp)) {
+diff --git a/security/smack/smack_lsm.c b/security/smack/smack_lsm.c
+index c33b6bb..b51f19e 100644
+--- a/security/smack/smack_lsm.c
++++ b/security/smack/smack_lsm.c
+@@ -157,12 +157,12 @@ static int smack_ptrace_traceme(struct task_struct *ptp)
+  *
+  * Returns 0 on success, error code otherwise.
+  */
+-static int smack_syslog(int type)
++static int smack_syslog(int type, bool from_file)
+ {
+       int rc;
+       char *sp = current_security();
+-      rc = cap_syslog(type);
++      rc = cap_syslog(type, from_file);
+       if (rc != 0)
+               return rc;
+@@ -3073,7 +3073,7 @@ static int smack_inode_getsecctx(struct inode *inode, void **ctx, u32 *ctxlen)
+       return 0;
+ }
+-struct security_operations smack_ops = {
++struct security_operations smack_ops __read_only = {
+       .name =                         "smack",
+       .ptrace_access_check =          smack_ptrace_access_check,
+diff --git a/security/tomoyo/tomoyo.c b/security/tomoyo/tomoyo.c
+index 9548a09..9a5f384 100644
+--- a/security/tomoyo/tomoyo.c
++++ b/security/tomoyo/tomoyo.c
+@@ -275,7 +275,7 @@ static int tomoyo_dentry_open(struct file *f, const struct cred *cred)
+  * tomoyo_security_ops is a "struct security_operations" which is used for
+  * registering TOMOYO.
+  */
+-static struct security_operations tomoyo_security_ops = {
++static struct security_operations tomoyo_security_ops __read_only = {
+       .name                = "tomoyo",
+       .cred_alloc_blank    = tomoyo_cred_alloc_blank,
+       .cred_prepare        = tomoyo_cred_prepare,
+diff --git a/sound/aoa/codecs/onyx.c b/sound/aoa/codecs/onyx.c
+index 84bb07d..c2ab6b6 100644
+--- a/sound/aoa/codecs/onyx.c
++++ b/sound/aoa/codecs/onyx.c
+@@ -53,7 +53,7 @@ struct onyx {
+                               spdif_locked:1,
+                               analog_locked:1,
+                               original_mute:2;
+-      int                     open_count;
++      local_t                 open_count;
+       struct codec_info       *codec_info;
+       /* mutex serializes concurrent access to the device
+@@ -752,7 +752,7 @@ static int onyx_open(struct codec_info_item *cii,
+       struct onyx *onyx = cii->codec_data;
+       mutex_lock(&onyx->mutex);
+-      onyx->open_count++;
++      local_inc(&onyx->open_count);
+       mutex_unlock(&onyx->mutex);
+       return 0;
+@@ -764,8 +764,7 @@ static int onyx_close(struct codec_info_item *cii,
+       struct onyx *onyx = cii->codec_data;
+       mutex_lock(&onyx->mutex);
+-      onyx->open_count--;
+-      if (!onyx->open_count)
++      if (local_dec_and_test(&onyx->open_count))
+               onyx->spdif_locked = onyx->analog_locked = 0;
+       mutex_unlock(&onyx->mutex);
+diff --git a/sound/aoa/codecs/onyx.h b/sound/aoa/codecs/onyx.h
+index ffd2025..df062c9 100644
+--- a/sound/aoa/codecs/onyx.h
++++ b/sound/aoa/codecs/onyx.h
+@@ -11,6 +11,7 @@
+ #include <linux/i2c.h>
+ #include <asm/pmac_low_i2c.h>
+ #include <asm/prom.h>
++#include <asm/local.h>
+ /* PCM3052 register definitions */
+diff --git a/sound/core/oss/pcm_oss.c b/sound/core/oss/pcm_oss.c
+index d9c9635..bc0a5a2 100644
+--- a/sound/core/oss/pcm_oss.c
++++ b/sound/core/oss/pcm_oss.c
+@@ -1395,7 +1395,7 @@ static ssize_t snd_pcm_oss_write1(struct snd_pcm_substream *substream, const cha
+                       }
+               } else {
+                       tmp = snd_pcm_oss_write2(substream,
+-                                               (const char __force *)buf,
++                                               (const char __force_kernel *)buf,
+                                                runtime->oss.period_bytes, 0);
+                       if (tmp <= 0)
+                               goto err;
+@@ -1483,7 +1483,7 @@ static ssize_t snd_pcm_oss_read1(struct snd_pcm_substream *substream, char __use
+                       xfer += tmp;
+                       runtime->oss.buffer_used -= tmp;
+               } else {
+-                      tmp = snd_pcm_oss_read2(substream, (char __force *)buf,
++                      tmp = snd_pcm_oss_read2(substream, (char __force_kernel *)buf,
+                                               runtime->oss.period_bytes, 0);
+                       if (tmp <= 0)
+                               goto err;
+diff --git a/sound/core/pcm_compat.c b/sound/core/pcm_compat.c
+index 038232d..7dd9e5c 100644
+--- a/sound/core/pcm_compat.c
++++ b/sound/core/pcm_compat.c
+@@ -30,7 +30,7 @@ static int snd_pcm_ioctl_delay_compat(struct snd_pcm_substream *substream,
+       int err;
+       fs = snd_enter_user();
+-      err = snd_pcm_delay(substream, &delay);
++      err = snd_pcm_delay(substream, (snd_pcm_sframes_t __force_user *)&delay);
+       snd_leave_user(fs);
+       if (err < 0)
+               return err;
+diff --git a/sound/core/pcm_native.c b/sound/core/pcm_native.c
+index e6d2d97..4843949 100644
+--- a/sound/core/pcm_native.c
++++ b/sound/core/pcm_native.c
+@@ -2747,11 +2747,11 @@ int snd_pcm_kernel_ioctl(struct snd_pcm_substream *substream,
+       switch (substream->stream) {
+       case SNDRV_PCM_STREAM_PLAYBACK:
+               result = snd_pcm_playback_ioctl1(NULL, substream, cmd,
+-                                               (void __user *)arg);
++                                               (void __force_user *)arg);
+               break;
+       case SNDRV_PCM_STREAM_CAPTURE:
+               result = snd_pcm_capture_ioctl1(NULL, substream, cmd,
+-                                              (void __user *)arg);
++                                              (void __force_user *)arg);
+               break;
+       default:
+               result = -EINVAL;
+diff --git a/sound/core/seq/seq_device.c b/sound/core/seq/seq_device.c
+index 1f99767..14636533 100644
+--- a/sound/core/seq/seq_device.c
++++ b/sound/core/seq/seq_device.c
+@@ -63,7 +63,7 @@ struct ops_list {
+       int argsize;            /* argument size */
+       /* operators */
+-      struct snd_seq_dev_ops ops;
++      struct snd_seq_dev_ops *ops;
+       /* registred devices */
+       struct list_head dev_list;      /* list of devices */
+@@ -332,7 +332,7 @@ int snd_seq_device_register_driver(char *id, struct snd_seq_dev_ops *entry,
+       mutex_lock(&ops->reg_mutex);
+       /* copy driver operators */
+-      ops->ops = *entry;
++      ops->ops = entry;
+       ops->driver |= DRIVER_LOADED;
+       ops->argsize = argsize;
+@@ -462,7 +462,7 @@ static int init_device(struct snd_seq_device *dev, struct ops_list *ops)
+                          dev->name, ops->id, ops->argsize, dev->argsize);
+               return -EINVAL;
+       }
+-      if (ops->ops.init_device(dev) >= 0) {
++      if (ops->ops->init_device(dev) >= 0) {
+               dev->status = SNDRV_SEQ_DEVICE_REGISTERED;
+               ops->num_init_devices++;
+       } else {
+@@ -489,7 +489,7 @@ static int free_device(struct snd_seq_device *dev, struct ops_list *ops)
+                          dev->name, ops->id, ops->argsize, dev->argsize);
+               return -EINVAL;
+       }
+-      if ((result = ops->ops.free_device(dev)) >= 0 || result == -ENXIO) {
++      if ((result = ops->ops->free_device(dev)) >= 0 || result == -ENXIO) {
+               dev->status = SNDRV_SEQ_DEVICE_FREE;
+               dev->driver_data = NULL;
+               ops->num_init_devices--;
+diff --git a/sound/drivers/mts64.c b/sound/drivers/mts64.c
+index 9284829..ac8e8b2 100644
+--- a/sound/drivers/mts64.c
++++ b/sound/drivers/mts64.c
+@@ -27,6 +27,7 @@
+ #include <sound/initval.h>
+ #include <sound/rawmidi.h>
+ #include <sound/control.h>
++#include <asm/local.h>
+ #define CARD_NAME "Miditerminal 4140"
+ #define DRIVER_NAME "MTS64"
+@@ -65,7 +66,7 @@ struct mts64 {
+       struct pardevice *pardev;
+       int pardev_claimed;
+-      int open_count;
++      local_t open_count;
+       int current_midi_output_port;
+       int current_midi_input_port;
+       u8 mode[MTS64_NUM_INPUT_PORTS];
+@@ -695,7 +696,7 @@ static int snd_mts64_rawmidi_open(struct snd_rawmidi_substream *substream)
+ {
+       struct mts64 *mts = substream->rmidi->private_data;
+-      if (mts->open_count == 0) {
++      if (local_read(&mts->open_count) == 0) {
+               /* We don't need a spinlock here, because this is just called 
+                  if the device has not been opened before. 
+                  So there aren't any IRQs from the device */
+@@ -703,7 +704,7 @@ static int snd_mts64_rawmidi_open(struct snd_rawmidi_substream *substream)
+               msleep(50);
+       }
+-      ++(mts->open_count);
++      local_inc(&mts->open_count);
+       return 0;
+ }
+@@ -713,8 +714,7 @@ static int snd_mts64_rawmidi_close(struct snd_rawmidi_substream *substream)
+       struct mts64 *mts = substream->rmidi->private_data;
+       unsigned long flags;
+-      --(mts->open_count);
+-      if (mts->open_count == 0) {
++      if (local_dec_return(&mts->open_count) == 0) {
+               /* We need the spinlock_irqsave here because we can still
+                  have IRQs at this point */
+               spin_lock_irqsave(&mts->lock, flags);
+@@ -723,8 +723,8 @@ static int snd_mts64_rawmidi_close(struct snd_rawmidi_substream *substream)
+               msleep(500);
+-      } else if (mts->open_count < 0)
+-              mts->open_count = 0;
++      } else if (local_read(&mts->open_count) < 0)
++              local_set(&mts->open_count, 0);
+       return 0;
+ }
+diff --git a/sound/drivers/opl4/opl4_lib.c b/sound/drivers/opl4/opl4_lib.c
+index 01997f2..cbc1195 100644
+--- a/sound/drivers/opl4/opl4_lib.c
++++ b/sound/drivers/opl4/opl4_lib.c
+@@ -27,7 +27,7 @@ MODULE_AUTHOR("Clemens Ladisch <clemens@ladisch.de>");
+ MODULE_DESCRIPTION("OPL4 driver");
+ MODULE_LICENSE("GPL");
+-static void inline snd_opl4_wait(struct snd_opl4 *opl4)
++static inline void snd_opl4_wait(struct snd_opl4 *opl4)
+ {
+       int timeout = 10;
+       while ((inb(opl4->fm_port) & OPL4_STATUS_BUSY) && --timeout > 0)
+diff --git a/sound/drivers/portman2x4.c b/sound/drivers/portman2x4.c
+index 60158e2..0a0cc1a 100644
+--- a/sound/drivers/portman2x4.c
++++ b/sound/drivers/portman2x4.c
+@@ -46,6 +46,7 @@
+ #include <sound/initval.h>
+ #include <sound/rawmidi.h>
+ #include <sound/control.h>
++#include <asm/local.h>
+ #define CARD_NAME "Portman 2x4"
+ #define DRIVER_NAME "portman"
+@@ -83,7 +84,7 @@ struct portman {
+       struct pardevice *pardev;
+       int pardev_claimed;
+-      int open_count;
++      local_t open_count;
+       int mode[PORTMAN_NUM_INPUT_PORTS];
+       struct snd_rawmidi_substream *midi_input[PORTMAN_NUM_INPUT_PORTS];
+ };
+diff --git a/sound/isa/cmi8330.c b/sound/isa/cmi8330.c
+index 02f79d2..8691d43 100644
+--- a/sound/isa/cmi8330.c
++++ b/sound/isa/cmi8330.c
+@@ -173,7 +173,7 @@ struct snd_cmi8330 {
+       struct snd_pcm *pcm;
+       struct snd_cmi8330_stream {
+-              struct snd_pcm_ops ops;
++              snd_pcm_ops_no_const ops;
+               snd_pcm_open_callback_t open;
+               void *private_data; /* sb or wss */
+       } streams[2];
+diff --git a/sound/oss/sb_audio.c b/sound/oss/sb_audio.c
+index 733b014..56ce96f 100644
+--- a/sound/oss/sb_audio.c
++++ b/sound/oss/sb_audio.c
+@@ -901,7 +901,7 @@ sb16_copy_from_user(int dev,
+               buf16 = (signed short *)(localbuf + localoffs);
+               while (c)
+               {
+-                      locallen = (c >= LBUFCOPYSIZE ? LBUFCOPYSIZE : c);
++                      locallen = ((unsigned)c >= LBUFCOPYSIZE ? LBUFCOPYSIZE : c);
+                       if (copy_from_user(lbuf8,
+                                          userbuf+useroffs + p,
+                                          locallen))
+diff --git a/sound/oss/swarm_cs4297a.c b/sound/oss/swarm_cs4297a.c
+index 3136c88..28ad950 100644
+--- a/sound/oss/swarm_cs4297a.c
++++ b/sound/oss/swarm_cs4297a.c
+@@ -2577,7 +2577,6 @@ static int __init cs4297a_init(void)
+ {
+       struct cs4297a_state *s;
+       u32 pwr, id;
+-      mm_segment_t fs;
+       int rval;
+ #ifndef CONFIG_BCM_CS4297A_CSWARM
+       u64 cfg;
+@@ -2667,22 +2666,23 @@ static int __init cs4297a_init(void)
+         if (!rval) {
+               char *sb1250_duart_present;
++#if 0
++                mm_segment_t fs;
+                 fs = get_fs();
+                 set_fs(KERNEL_DS);
+-#if 0
+                 val = SOUND_MASK_LINE;
+                 mixer_ioctl(s, SOUND_MIXER_WRITE_RECSRC, (unsigned long) &val);
+                 for (i = 0; i < ARRAY_SIZE(initvol); i++) {
+                         val = initvol[i].vol;
+                         mixer_ioctl(s, initvol[i].mixch, (unsigned long) &val);
+                 }
++                set_fs(fs);
+ //                cs4297a_write_ac97(s, 0x18, 0x0808);
+ #else
+                 //                cs4297a_write_ac97(s, 0x5e, 0x180);
+                 cs4297a_write_ac97(s, 0x02, 0x0808);
+                 cs4297a_write_ac97(s, 0x18, 0x0808);
+ #endif
+-                set_fs(fs);
+                 list_add(&s->list, &cs4297a_devs);
+diff --git a/sound/pci/ac97/ac97_codec.c b/sound/pci/ac97/ac97_codec.c
+index 78288db..0406809 100644
+--- a/sound/pci/ac97/ac97_codec.c
++++ b/sound/pci/ac97/ac97_codec.c
+@@ -1952,7 +1952,7 @@ static int snd_ac97_dev_disconnect(struct snd_device *device)
+ }
+ /* build_ops to do nothing */
+-static struct snd_ac97_build_ops null_build_ops;
++static const struct snd_ac97_build_ops null_build_ops;
+ #ifdef CONFIG_SND_AC97_POWER_SAVE
+ static void do_update_power(struct work_struct *work)
+diff --git a/sound/pci/ac97/ac97_patch.c b/sound/pci/ac97/ac97_patch.c
+index eeb2e23..82bf625 100644
+--- a/sound/pci/ac97/ac97_patch.c
++++ b/sound/pci/ac97/ac97_patch.c
+@@ -371,7 +371,7 @@ static int patch_yamaha_ymf743_build_spdif(struct snd_ac97 *ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_yamaha_ymf743_ops = {
++static const struct snd_ac97_build_ops patch_yamaha_ymf743_ops = {
+       .build_spdif    = patch_yamaha_ymf743_build_spdif,
+       .build_3d       = patch_yamaha_ymf7x3_3d,
+ };
+@@ -455,7 +455,7 @@ static int patch_yamaha_ymf753_post_spdif(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_yamaha_ymf753_ops = {
++static const struct snd_ac97_build_ops patch_yamaha_ymf753_ops = {
+       .build_3d       = patch_yamaha_ymf7x3_3d,
+       .build_post_spdif = patch_yamaha_ymf753_post_spdif
+ };
+@@ -502,7 +502,7 @@ static int patch_wolfson_wm9703_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_wolfson_wm9703_ops = {
++static const struct snd_ac97_build_ops patch_wolfson_wm9703_ops = {
+       .build_specific = patch_wolfson_wm9703_specific,
+ };
+@@ -533,7 +533,7 @@ static int patch_wolfson_wm9704_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_wolfson_wm9704_ops = {
++static const struct snd_ac97_build_ops patch_wolfson_wm9704_ops = {
+       .build_specific = patch_wolfson_wm9704_specific,
+ };
+@@ -555,7 +555,7 @@ static int patch_wolfson_wm9705_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_wolfson_wm9705_ops = {
++static const struct snd_ac97_build_ops patch_wolfson_wm9705_ops = {
+       .build_specific = patch_wolfson_wm9705_specific,
+ };
+@@ -692,7 +692,7 @@ static int patch_wolfson_wm9711_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_wolfson_wm9711_ops = {
++static const struct snd_ac97_build_ops patch_wolfson_wm9711_ops = {
+       .build_specific = patch_wolfson_wm9711_specific,
+ };
+@@ -886,7 +886,7 @@ static void patch_wolfson_wm9713_resume (struct snd_ac97 * ac97)
+ }
+ #endif
+-static struct snd_ac97_build_ops patch_wolfson_wm9713_ops = {
++static const struct snd_ac97_build_ops patch_wolfson_wm9713_ops = {
+       .build_specific = patch_wolfson_wm9713_specific,
+       .build_3d = patch_wolfson_wm9713_3d,
+ #ifdef CONFIG_PM      
+@@ -991,7 +991,7 @@ static int patch_sigmatel_stac97xx_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_sigmatel_stac9700_ops = {
++static const struct snd_ac97_build_ops patch_sigmatel_stac9700_ops = {
+       .build_3d       = patch_sigmatel_stac9700_3d,
+       .build_specific = patch_sigmatel_stac97xx_specific
+ };
+@@ -1038,7 +1038,7 @@ static int patch_sigmatel_stac9708_specific(struct snd_ac97 *ac97)
+       return patch_sigmatel_stac97xx_specific(ac97);
+ }
+-static struct snd_ac97_build_ops patch_sigmatel_stac9708_ops = {
++static const struct snd_ac97_build_ops patch_sigmatel_stac9708_ops = {
+       .build_3d       = patch_sigmatel_stac9708_3d,
+       .build_specific = patch_sigmatel_stac9708_specific
+ };
+@@ -1267,7 +1267,7 @@ static int patch_sigmatel_stac9758_specific(struct snd_ac97 *ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_sigmatel_stac9758_ops = {
++static const struct snd_ac97_build_ops patch_sigmatel_stac9758_ops = {
+       .build_3d       = patch_sigmatel_stac9700_3d,
+       .build_specific = patch_sigmatel_stac9758_specific
+ };
+@@ -1342,7 +1342,7 @@ static int patch_cirrus_build_spdif(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_cirrus_ops = {
++static const struct snd_ac97_build_ops patch_cirrus_ops = {
+       .build_spdif = patch_cirrus_build_spdif
+ };
+@@ -1399,7 +1399,7 @@ static int patch_conexant_build_spdif(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_conexant_ops = {
++static const struct snd_ac97_build_ops patch_conexant_ops = {
+       .build_spdif = patch_conexant_build_spdif
+ };
+@@ -1575,7 +1575,7 @@ static void patch_ad1881_chained(struct snd_ac97 * ac97, int unchained_idx, int
+       }
+ }
+-static struct snd_ac97_build_ops patch_ad1881_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1881_build_ops = {
+ #ifdef CONFIG_PM
+       .resume = ad18xx_resume
+ #endif
+@@ -1662,7 +1662,7 @@ static int patch_ad1885_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_ad1885_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1885_build_ops = {
+       .build_specific = &patch_ad1885_specific,
+ #ifdef CONFIG_PM
+       .resume = ad18xx_resume
+@@ -1689,7 +1689,7 @@ static int patch_ad1886_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_ad1886_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1886_build_ops = {
+       .build_specific = &patch_ad1886_specific,
+ #ifdef CONFIG_PM
+       .resume = ad18xx_resume
+@@ -1896,7 +1896,7 @@ static int patch_ad1981a_specific(struct snd_ac97 * ac97)
+                                   ARRAY_SIZE(snd_ac97_ad1981x_jack_sense));
+ }
+-static struct snd_ac97_build_ops patch_ad1981a_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1981a_build_ops = {
+       .build_post_spdif = patch_ad198x_post_spdif,
+       .build_specific = patch_ad1981a_specific,
+ #ifdef CONFIG_PM
+@@ -1952,7 +1952,7 @@ static int patch_ad1981b_specific(struct snd_ac97 *ac97)
+                                   ARRAY_SIZE(snd_ac97_ad1981x_jack_sense));
+ }
+-static struct snd_ac97_build_ops patch_ad1981b_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1981b_build_ops = {
+       .build_post_spdif = patch_ad198x_post_spdif,
+       .build_specific = patch_ad1981b_specific,
+ #ifdef CONFIG_PM
+@@ -2091,7 +2091,7 @@ static int patch_ad1888_specific(struct snd_ac97 *ac97)
+       return patch_build_controls(ac97, snd_ac97_ad1888_controls, ARRAY_SIZE(snd_ac97_ad1888_controls));
+ }
+-static struct snd_ac97_build_ops patch_ad1888_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1888_build_ops = {
+       .build_post_spdif = patch_ad198x_post_spdif,
+       .build_specific = patch_ad1888_specific,
+ #ifdef CONFIG_PM
+@@ -2140,7 +2140,7 @@ static int patch_ad1980_specific(struct snd_ac97 *ac97)
+       return patch_build_controls(ac97, &snd_ac97_ad198x_2cmic, 1);
+ }
+-static struct snd_ac97_build_ops patch_ad1980_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1980_build_ops = {
+       .build_post_spdif = patch_ad198x_post_spdif,
+       .build_specific = patch_ad1980_specific,
+ #ifdef CONFIG_PM
+@@ -2255,7 +2255,7 @@ static int patch_ad1985_specific(struct snd_ac97 *ac97)
+                                   ARRAY_SIZE(snd_ac97_ad1985_controls));
+ }
+-static struct snd_ac97_build_ops patch_ad1985_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1985_build_ops = {
+       .build_post_spdif = patch_ad198x_post_spdif,
+       .build_specific = patch_ad1985_specific,
+ #ifdef CONFIG_PM
+@@ -2547,7 +2547,7 @@ static int patch_ad1986_specific(struct snd_ac97 *ac97)
+                                   ARRAY_SIZE(snd_ac97_ad1985_controls));
+ }
+-static struct snd_ac97_build_ops patch_ad1986_build_ops = {
++static const struct snd_ac97_build_ops patch_ad1986_build_ops = {
+       .build_post_spdif = patch_ad198x_post_spdif,
+       .build_specific = patch_ad1986_specific,
+ #ifdef CONFIG_PM
+@@ -2652,7 +2652,7 @@ static int patch_alc650_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_alc650_ops = {
++static const struct snd_ac97_build_ops patch_alc650_ops = {
+       .build_specific = patch_alc650_specific,
+       .update_jacks = alc650_update_jacks
+ };
+@@ -2804,7 +2804,7 @@ static int patch_alc655_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_alc655_ops = {
++static const struct snd_ac97_build_ops patch_alc655_ops = {
+       .build_specific = patch_alc655_specific,
+       .update_jacks = alc655_update_jacks
+ };
+@@ -2916,7 +2916,7 @@ static int patch_alc850_specific(struct snd_ac97 *ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_alc850_ops = {
++static const struct snd_ac97_build_ops patch_alc850_ops = {
+       .build_specific = patch_alc850_specific,
+       .update_jacks = alc850_update_jacks
+ };
+@@ -2978,7 +2978,7 @@ static int patch_cm9738_specific(struct snd_ac97 * ac97)
+       return patch_build_controls(ac97, snd_ac97_cm9738_controls, ARRAY_SIZE(snd_ac97_cm9738_controls));
+ }
+-static struct snd_ac97_build_ops patch_cm9738_ops = {
++static const struct snd_ac97_build_ops patch_cm9738_ops = {
+       .build_specific = patch_cm9738_specific,
+       .update_jacks = cm9738_update_jacks
+ };
+@@ -3069,7 +3069,7 @@ static int patch_cm9739_post_spdif(struct snd_ac97 * ac97)
+       return patch_build_controls(ac97, snd_ac97_cm9739_controls_spdif, ARRAY_SIZE(snd_ac97_cm9739_controls_spdif));
+ }
+-static struct snd_ac97_build_ops patch_cm9739_ops = {
++static const struct snd_ac97_build_ops patch_cm9739_ops = {
+       .build_specific = patch_cm9739_specific,
+       .build_post_spdif = patch_cm9739_post_spdif,
+       .update_jacks = cm9739_update_jacks
+@@ -3243,7 +3243,7 @@ static int patch_cm9761_specific(struct snd_ac97 * ac97)
+       return patch_build_controls(ac97, snd_ac97_cm9761_controls, ARRAY_SIZE(snd_ac97_cm9761_controls));
+ }
+-static struct snd_ac97_build_ops patch_cm9761_ops = {
++static const struct snd_ac97_build_ops patch_cm9761_ops = {
+       .build_specific = patch_cm9761_specific,
+       .build_post_spdif = patch_cm9761_post_spdif,
+       .update_jacks = cm9761_update_jacks
+@@ -3339,7 +3339,7 @@ static int patch_cm9780_specific(struct snd_ac97 *ac97)
+       return patch_build_controls(ac97, cm9780_controls, ARRAY_SIZE(cm9780_controls));
+ }
+-static struct snd_ac97_build_ops patch_cm9780_ops = {
++static const struct snd_ac97_build_ops patch_cm9780_ops = {
+       .build_specific = patch_cm9780_specific,
+       .build_post_spdif = patch_cm9761_post_spdif     /* identical with CM9761 */
+ };
+@@ -3459,7 +3459,7 @@ static int patch_vt1616_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_vt1616_ops = {
++static const struct snd_ac97_build_ops patch_vt1616_ops = {
+       .build_specific = patch_vt1616_specific
+ };
+@@ -3813,7 +3813,7 @@ static int patch_it2646_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_it2646_ops = {
++static const struct snd_ac97_build_ops patch_it2646_ops = {
+       .build_specific = patch_it2646_specific,
+       .update_jacks = it2646_update_jacks
+ };
+@@ -3847,7 +3847,7 @@ static int patch_si3036_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_si3036_ops = {
++static const struct snd_ac97_build_ops patch_si3036_ops = {
+       .build_specific = patch_si3036_specific,
+ };
+@@ -3914,7 +3914,7 @@ static int patch_ucb1400_specific(struct snd_ac97 * ac97)
+       return 0;
+ }
+-static struct snd_ac97_build_ops patch_ucb1400_ops = {
++static const struct snd_ac97_build_ops patch_ucb1400_ops = {
+       .build_specific = patch_ucb1400_specific,
+ };
+diff --git a/sound/pci/hda/hda_codec.h b/sound/pci/hda/hda_codec.h
+index 99552fb..4dcc2c5 100644
+--- a/sound/pci/hda/hda_codec.h
++++ b/sound/pci/hda/hda_codec.h
+@@ -580,7 +580,7 @@ struct hda_bus_ops {
+       /* notify power-up/down from codec to controller */
+       void (*pm_notify)(struct hda_bus *bus);
+ #endif
+-};
++} __no_const;
+ /* template to pass to the bus constructor */
+ struct hda_bus_template {
+@@ -675,6 +675,7 @@ struct hda_codec_ops {
+       int (*check_power_status)(struct hda_codec *codec, hda_nid_t nid);
+ #endif
+ };
++typedef struct hda_codec_ops __no_const hda_codec_ops_no_const;
+ /* record for amp information cache */
+ struct hda_cache_head {
+@@ -705,7 +706,7 @@ struct hda_pcm_ops {
+                      struct snd_pcm_substream *substream);
+       int (*cleanup)(struct hda_pcm_stream *info, struct hda_codec *codec,
+                      struct snd_pcm_substream *substream);
+-};
++} __no_const;
+ /* PCM information for each substream */
+ struct hda_pcm_stream {
+@@ -760,7 +761,7 @@ struct hda_codec {
+       const char *modelname;  /* model name for preset */
+       /* set by patch */
+-      struct hda_codec_ops patch_ops;
++      hda_codec_ops_no_const patch_ops;
+       /* PCM to create, set by patch_ops.build_pcms callback */
+       unsigned int num_pcms;
+diff --git a/sound/pci/hda/patch_atihdmi.c b/sound/pci/hda/patch_atihdmi.c
+index fb684f0..2b11cea 100644
+--- a/sound/pci/hda/patch_atihdmi.c
++++ b/sound/pci/hda/patch_atihdmi.c
+@@ -177,7 +177,7 @@ static int patch_atihdmi(struct hda_codec *codec)
+        */
+       spec->multiout.dig_out_nid = CVT_NID;
+-      codec->patch_ops = atihdmi_patch_ops;
++      memcpy((void *)&codec->patch_ops, &atihdmi_patch_ops, sizeof(atihdmi_patch_ops));
+       return 0;
+ }
+diff --git a/sound/pci/hda/patch_intelhdmi.c b/sound/pci/hda/patch_intelhdmi.c
+index 7c23016..c5bfdd7 100644
+--- a/sound/pci/hda/patch_intelhdmi.c
++++ b/sound/pci/hda/patch_intelhdmi.c
+@@ -511,10 +511,10 @@ static void hdmi_non_intrinsic_event(struct hda_codec *codec, unsigned int res)
+               cp_ready);
+       /* TODO */
+-      if (cp_state)
+-              ;
+-      if (cp_ready)
+-              ;
++      if (cp_state) {
++      }
++      if (cp_ready) {
++      }
+ }
+@@ -656,7 +656,7 @@ static int do_patch_intel_hdmi(struct hda_codec *codec)
+       spec->multiout.dig_out_nid = cvt_nid;
+       codec->spec = spec;
+-      codec->patch_ops = intel_hdmi_patch_ops;
++      memcpy((void *)&codec->patch_ops, &intel_hdmi_patch_ops, sizeof(intel_hdmi_patch_ops));
+       snd_hda_eld_proc_new(codec, &spec->sink_eld);
+diff --git a/sound/pci/hda/patch_nvhdmi.c b/sound/pci/hda/patch_nvhdmi.c
+index 6afdab0..68ed352 100644
+--- a/sound/pci/hda/patch_nvhdmi.c
++++ b/sound/pci/hda/patch_nvhdmi.c
+@@ -367,7 +367,7 @@ static int patch_nvhdmi_8ch(struct hda_codec *codec)
+       spec->multiout.max_channels = 8;
+       spec->multiout.dig_out_nid = Nv_Master_Convert_nid;
+-      codec->patch_ops = nvhdmi_patch_ops_8ch;
++      memcpy((void *)&codec->patch_ops, &nvhdmi_patch_ops_8ch, sizeof(nvhdmi_patch_ops_8ch));
+       return 0;
+ }
+@@ -386,7 +386,7 @@ static int patch_nvhdmi_2ch(struct hda_codec *codec)
+       spec->multiout.max_channels = 2;
+       spec->multiout.dig_out_nid = Nv_Master_Convert_nid;
+-      codec->patch_ops = nvhdmi_patch_ops_2ch;
++      memcpy((void *)&codec->patch_ops, &nvhdmi_patch_ops_2ch, sizeof(nvhdmi_patch_ops_2ch));
+       return 0;
+ }
+diff --git a/sound/pci/hda/patch_sigmatel.c b/sound/pci/hda/patch_sigmatel.c
+index 2fcd70d..a143eaf 100644
+--- a/sound/pci/hda/patch_sigmatel.c
++++ b/sound/pci/hda/patch_sigmatel.c
+@@ -5220,7 +5220,7 @@ again:
+       snd_hda_codec_write_cache(codec, nid, 0,
+                       AC_VERB_SET_CONNECT_SEL, num_dacs);
+-      codec->patch_ops = stac92xx_patch_ops;
++      memcpy((void *)&codec->patch_ops, &stac92xx_patch_ops, sizeof(stac92xx_patch_ops));
+       codec->proc_widget_hook = stac92hd_proc_hook;
+@@ -5294,7 +5294,7 @@ static int patch_stac92hd71bxx(struct hda_codec *codec)
+               return -ENOMEM;
+       codec->spec = spec;
+-      codec->patch_ops = stac92xx_patch_ops;
++      memcpy((void *)&codec->patch_ops, &stac92xx_patch_ops, sizeof(stac92xx_patch_ops));
+       spec->num_pins = STAC92HD71BXX_NUM_PINS;
+       switch (codec->vendor_id) {
+       case 0x111d76b6:
+diff --git a/sound/pci/ice1712/ice1712.h b/sound/pci/ice1712/ice1712.h
+index d063149..01599a4 100644
+--- a/sound/pci/ice1712/ice1712.h
++++ b/sound/pci/ice1712/ice1712.h
+@@ -269,7 +269,7 @@ struct snd_ak4xxx_private {
+       unsigned int mask_flags;        /* total mask bits */
+       struct snd_akm4xxx_ops {
+               void (*set_rate_val)(struct snd_akm4xxx *ak, unsigned int rate);
+-      } ops;
++      } __no_const ops;
+ };
+ struct snd_ice1712_spdif {
+@@ -285,7 +285,7 @@ struct snd_ice1712_spdif {
+               int (*default_put)(struct snd_ice1712 *, struct snd_ctl_elem_value *ucontrol);
+               void (*stream_get)(struct snd_ice1712 *, struct snd_ctl_elem_value *ucontrol);
+               int (*stream_put)(struct snd_ice1712 *, struct snd_ctl_elem_value *ucontrol);
+-      } ops;
++      } __no_const ops;
+ };
+diff --git a/sound/pci/intel8x0m.c b/sound/pci/intel8x0m.c
+index 9e7d12e..3e3bc64 100644
+--- a/sound/pci/intel8x0m.c
++++ b/sound/pci/intel8x0m.c
+@@ -1264,7 +1264,7 @@ static struct shortname_table {
+       { 0x5455, "ALi M5455" },
+       { 0x746d, "AMD AMD8111" },
+ #endif
+-      { 0 },
++      { 0, },
+ };
+ static int __devinit snd_intel8x0m_probe(struct pci_dev *pci,
+diff --git a/sound/pci/ymfpci/ymfpci_main.c b/sound/pci/ymfpci/ymfpci_main.c
+index 5518371..45cf7ac 100644
+--- a/sound/pci/ymfpci/ymfpci_main.c
++++ b/sound/pci/ymfpci/ymfpci_main.c
+@@ -202,8 +202,8 @@ static void snd_ymfpci_hw_stop(struct snd_ymfpci *chip)
+               if ((snd_ymfpci_readl(chip, YDSXGR_STATUS) & 2) == 0)
+                       break;
+       }
+-      if (atomic_read(&chip->interrupt_sleep_count)) {
+-              atomic_set(&chip->interrupt_sleep_count, 0);
++      if (atomic_read_unchecked(&chip->interrupt_sleep_count)) {
++              atomic_set_unchecked(&chip->interrupt_sleep_count, 0);
+               wake_up(&chip->interrupt_sleep);
+       }
+       __end:
+@@ -787,7 +787,7 @@ static void snd_ymfpci_irq_wait(struct snd_ymfpci *chip)
+                       continue;
+               init_waitqueue_entry(&wait, current);
+               add_wait_queue(&chip->interrupt_sleep, &wait);
+-              atomic_inc(&chip->interrupt_sleep_count);
++              atomic_inc_unchecked(&chip->interrupt_sleep_count);
+               schedule_timeout_uninterruptible(msecs_to_jiffies(50));
+               remove_wait_queue(&chip->interrupt_sleep, &wait);
+       }
+@@ -825,8 +825,8 @@ static irqreturn_t snd_ymfpci_interrupt(int irq, void *dev_id)
+               snd_ymfpci_writel(chip, YDSXGR_MODE, mode);
+               spin_unlock(&chip->reg_lock);
+-              if (atomic_read(&chip->interrupt_sleep_count)) {
+-                      atomic_set(&chip->interrupt_sleep_count, 0);
++              if (atomic_read_unchecked(&chip->interrupt_sleep_count)) {
++                      atomic_set_unchecked(&chip->interrupt_sleep_count, 0);
+                       wake_up(&chip->interrupt_sleep);
+               }
+       }
+@@ -2369,7 +2369,7 @@ int __devinit snd_ymfpci_create(struct snd_card *card,
+       spin_lock_init(&chip->reg_lock);
+       spin_lock_init(&chip->voice_lock);
+       init_waitqueue_head(&chip->interrupt_sleep);
+-      atomic_set(&chip->interrupt_sleep_count, 0);
++      atomic_set_unchecked(&chip->interrupt_sleep_count, 0);
+       chip->card = card;
+       chip->pci = pci;
+       chip->irq = -1;
+diff --git a/sound/soc/soc-core.c b/sound/soc/soc-core.c
+index 0a1b2f6..776bb19 100644
+--- a/sound/soc/soc-core.c
++++ b/sound/soc/soc-core.c
+@@ -609,7 +609,7 @@ static int soc_pcm_trigger(struct snd_pcm_substream *substream, int cmd)
+ }
+ /* ASoC PCM operations */
+-static struct snd_pcm_ops soc_pcm_ops = {
++static snd_pcm_ops_no_const soc_pcm_ops = {
+       .open           = soc_pcm_open,
+       .close          = soc_codec_close,
+       .hw_params      = soc_pcm_hw_params,
+diff --git a/sound/usb/usbaudio.c b/sound/usb/usbaudio.c
+index 79633ea..9732e90 100644
+--- a/sound/usb/usbaudio.c
++++ b/sound/usb/usbaudio.c
+@@ -963,12 +963,12 @@ static int snd_usb_pcm_playback_trigger(struct snd_pcm_substream *substream,
+       switch (cmd) {
+       case SNDRV_PCM_TRIGGER_START:
+       case SNDRV_PCM_TRIGGER_PAUSE_RELEASE:
+-              subs->ops.prepare = prepare_playback_urb;
++              *(void **)&subs->ops.prepare = prepare_playback_urb;
+               return 0;
+       case SNDRV_PCM_TRIGGER_STOP:
+               return deactivate_urbs(subs, 0, 0);
+       case SNDRV_PCM_TRIGGER_PAUSE_PUSH:
+-              subs->ops.prepare = prepare_nodata_playback_urb;
++              *(void **)&subs->ops.prepare = prepare_nodata_playback_urb;
+               return 0;
+       default:
+               return -EINVAL;
+@@ -985,15 +985,15 @@ static int snd_usb_pcm_capture_trigger(struct snd_pcm_substream *substream,
+       switch (cmd) {
+       case SNDRV_PCM_TRIGGER_START:
+-              subs->ops.retire = retire_capture_urb;
++              *(void **)&subs->ops.retire = retire_capture_urb;
+               return start_urbs(subs, substream->runtime);
+       case SNDRV_PCM_TRIGGER_STOP:
+               return deactivate_urbs(subs, 0, 0);
+       case SNDRV_PCM_TRIGGER_PAUSE_PUSH:
+-              subs->ops.retire = retire_paused_capture_urb;
++              *(void **)&subs->ops.retire = retire_paused_capture_urb;
+               return 0;
+       case SNDRV_PCM_TRIGGER_PAUSE_RELEASE:
+-              subs->ops.retire = retire_capture_urb;
++              *(void **)&subs->ops.retire = retire_capture_urb;
+               return 0;
+       default:
+               return -EINVAL;
+@@ -1542,7 +1542,7 @@ static int snd_usb_pcm_prepare(struct snd_pcm_substream *substream)
+       /* for playback, submit the URBs now; otherwise, the first hwptr_done
+        * updates for all URBs would happen at the same time when starting */
+       if (subs->direction == SNDRV_PCM_STREAM_PLAYBACK) {
+-              subs->ops.prepare = prepare_nodata_playback_urb;
++              *(void **)&subs->ops.prepare = prepare_nodata_playback_urb;
+               return start_urbs(subs, runtime);
+       } else
+               return 0;
+@@ -2228,14 +2228,14 @@ static void init_substream(struct snd_usb_stream *as, int stream, struct audiofo
+       subs->direction = stream;
+       subs->dev = as->chip->dev;
+       if (snd_usb_get_speed(subs->dev) == USB_SPEED_FULL) {
+-              subs->ops = audio_urb_ops[stream];
++              memcpy((void *)&subs->ops, &audio_urb_ops[stream], sizeof(subs->ops));
+       } else {
+-              subs->ops = audio_urb_ops_high_speed[stream];
++              memcpy((void *)&subs->ops, &audio_urb_ops_high_speed[stream], sizeof(subs->ops));
+               switch (as->chip->usb_id) {
+               case USB_ID(0x041e, 0x3f02): /* E-Mu 0202 USB */
+               case USB_ID(0x041e, 0x3f04): /* E-Mu 0404 USB */
+               case USB_ID(0x041e, 0x3f0a): /* E-Mu Tracker Pre */
+-                      subs->ops.retire_sync = retire_playback_sync_urb_hs_emu;
++                      *(void **)&subs->ops.retire_sync = retire_playback_sync_urb_hs_emu;
+                       break;
+               }
+       }
+diff --git a/tools/gcc/Makefile b/tools/gcc/Makefile
+new file mode 100644
+index 0000000..b044b80
+--- /dev/null
++++ b/tools/gcc/Makefile
+@@ -0,0 +1,21 @@
++#CC := gcc
++#PLUGIN_SOURCE_FILES := pax_plugin.c
++#PLUGIN_OBJECT_FILES := $(patsubst %.c,%.o,$(PLUGIN_SOURCE_FILES))
++GCCPLUGINS_DIR := $(shell $(CC) -print-file-name=plugin)
++#CFLAGS += -I$(GCCPLUGINS_DIR)/include -fPIC -O2 -Wall -W
++
++HOST_EXTRACFLAGS += -I$(GCCPLUGINS_DIR)/include
++
++hostlibs-y := constify_plugin.so
++hostlibs-$(CONFIG_PAX_MEMORY_STACKLEAK) += stackleak_plugin.so
++hostlibs-$(CONFIG_KALLOCSTAT_PLUGIN) += kallocstat_plugin.so
++hostlibs-$(CONFIG_PAX_KERNEXEC_PLUGIN) += kernexec_plugin.so
++hostlibs-$(CONFIG_CHECKER_PLUGIN) += checker_plugin.so
++
++always := $(hostlibs-y)
++
++constify_plugin-objs := constify_plugin.o
++stackleak_plugin-objs := stackleak_plugin.o
++kallocstat_plugin-objs := kallocstat_plugin.o
++kernexec_plugin-objs := kernexec_plugin.o
++checker_plugin-objs := checker_plugin.o
+diff --git a/tools/gcc/checker_plugin.c b/tools/gcc/checker_plugin.c
+new file mode 100644
+index 0000000..d41b5af
+--- /dev/null
++++ b/tools/gcc/checker_plugin.c
+@@ -0,0 +1,171 @@
++/*
++ * Copyright 2011 by the PaX Team <pageexec@freemail.hu>
++ * Licensed under the GPL v2
++ *
++ * Note: the choice of the license means that the compilation process is
++ *       NOT 'eligible' as defined by gcc's library exception to the GPL v3,
++ *       but for the kernel it doesn't matter since it doesn't link against
++ *       any of the gcc libraries
++ *
++ * gcc plugin to implement various sparse (source code checker) features
++ *
++ * TODO:
++ * - define separate __iomem, __percpu and __rcu address spaces (lots of code to patch)
++ *
++ * BUGS:
++ * - none known
++ */
++#include "gcc-plugin.h"
++#include "config.h"
++#include "system.h"
++#include "coretypes.h"
++#include "tree.h"
++#include "tree-pass.h"
++#include "flags.h"
++#include "intl.h"
++#include "toplev.h"
++#include "plugin.h"
++//#include "expr.h" where are you...
++#include "diagnostic.h"
++#include "plugin-version.h"
++#include "tm.h"
++#include "function.h"
++#include "basic-block.h"
++#include "gimple.h"
++#include "rtl.h"
++#include "emit-rtl.h"
++#include "tree-flow.h"
++#include "target.h"
++
++extern void c_register_addr_space (const char *str, addr_space_t as);
++extern enum machine_mode default_addr_space_pointer_mode (addr_space_t);
++extern enum machine_mode default_addr_space_address_mode (addr_space_t);
++extern bool default_addr_space_valid_pointer_mode(enum machine_mode mode, addr_space_t as);
++extern bool default_addr_space_legitimate_address_p(enum machine_mode mode, rtx mem, bool strict, addr_space_t as);
++extern rtx default_addr_space_legitimize_address(rtx x, rtx oldx, enum machine_mode mode, addr_space_t as);
++
++extern void print_gimple_stmt(FILE *, gimple, int, int);
++extern rtx emit_move_insn(rtx x, rtx y);
++
++int plugin_is_GPL_compatible;
++
++static struct plugin_info checker_plugin_info = {
++      .version        = "201111150100",
++};
++
++#define ADDR_SPACE_KERNEL             0
++#define ADDR_SPACE_FORCE_KERNEL               1
++#define ADDR_SPACE_USER                       2
++#define ADDR_SPACE_FORCE_USER         3
++#define ADDR_SPACE_IOMEM              0
++#define ADDR_SPACE_FORCE_IOMEM                0
++#define ADDR_SPACE_PERCPU             0
++#define ADDR_SPACE_FORCE_PERCPU               0
++#define ADDR_SPACE_RCU                        0
++#define ADDR_SPACE_FORCE_RCU          0
++
++static enum machine_mode checker_addr_space_pointer_mode(addr_space_t addrspace)
++{
++      return default_addr_space_pointer_mode(ADDR_SPACE_GENERIC);
++}
++
++static enum machine_mode checker_addr_space_address_mode(addr_space_t addrspace)
++{
++      return default_addr_space_address_mode(ADDR_SPACE_GENERIC);
++}
++
++static bool checker_addr_space_valid_pointer_mode(enum machine_mode mode, addr_space_t as)
++{
++      return default_addr_space_valid_pointer_mode(mode, as);
++}
++
++static bool checker_addr_space_legitimate_address_p(enum machine_mode mode, rtx mem, bool strict, addr_space_t as)
++{
++      return default_addr_space_legitimate_address_p(mode, mem, strict, ADDR_SPACE_GENERIC);
++}
++
++static rtx checker_addr_space_legitimize_address(rtx x, rtx oldx, enum machine_mode mode, addr_space_t as)
++{
++      return default_addr_space_legitimize_address(x, oldx, mode, as);
++}
++
++static bool checker_addr_space_subset_p(addr_space_t subset, addr_space_t superset)
++{
++      if (subset == ADDR_SPACE_FORCE_KERNEL && superset == ADDR_SPACE_KERNEL)
++              return true;
++
++      if (subset == ADDR_SPACE_FORCE_USER && superset == ADDR_SPACE_USER)
++              return true;
++
++      if (subset == ADDR_SPACE_FORCE_IOMEM && superset == ADDR_SPACE_IOMEM)
++              return true;
++
++      if (subset == ADDR_SPACE_KERNEL && superset == ADDR_SPACE_FORCE_USER)
++              return true;
++
++      if (subset == ADDR_SPACE_KERNEL && superset == ADDR_SPACE_FORCE_IOMEM)
++              return true;
++
++      if (subset == ADDR_SPACE_USER && superset == ADDR_SPACE_FORCE_KERNEL)
++              return true;
++
++      if (subset == ADDR_SPACE_IOMEM && superset == ADDR_SPACE_FORCE_KERNEL)
++              return true;
++
++      return subset == superset;
++}
++
++static rtx checker_addr_space_convert(rtx op, tree from_type, tree to_type)
++{
++//    addr_space_t from_as = TYPE_ADDR_SPACE(TREE_TYPE(from_type));
++//    addr_space_t to_as = TYPE_ADDR_SPACE(TREE_TYPE(to_type));
++
++      return op;
++}
++
++static void register_checker_address_spaces(void *event_data, void *data)
++{
++      c_register_addr_space("__kernel", ADDR_SPACE_KERNEL);
++      c_register_addr_space("__force_kernel", ADDR_SPACE_FORCE_KERNEL);
++      c_register_addr_space("__user", ADDR_SPACE_USER);
++      c_register_addr_space("__force_user", ADDR_SPACE_FORCE_USER);
++//    c_register_addr_space("__iomem", ADDR_SPACE_IOMEM);
++//    c_register_addr_space("__force_iomem", ADDR_SPACE_FORCE_IOMEM);
++//    c_register_addr_space("__percpu", ADDR_SPACE_PERCPU);
++//    c_register_addr_space("__force_percpu", ADDR_SPACE_FORCE_PERCPU);
++//    c_register_addr_space("__rcu", ADDR_SPACE_RCU);
++//    c_register_addr_space("__force_rcu", ADDR_SPACE_FORCE_RCU);
++
++      targetm.addr_space.pointer_mode         = checker_addr_space_pointer_mode;
++      targetm.addr_space.address_mode         = checker_addr_space_address_mode;
++      targetm.addr_space.valid_pointer_mode   = checker_addr_space_valid_pointer_mode;
++      targetm.addr_space.legitimate_address_p = checker_addr_space_legitimate_address_p;
++//    targetm.addr_space.legitimize_address   = checker_addr_space_legitimize_address;
++      targetm.addr_space.subset_p             = checker_addr_space_subset_p;
++      targetm.addr_space.convert              = checker_addr_space_convert;
++}
++
++int plugin_init(struct plugin_name_args *plugin_info, struct plugin_gcc_version *version)
++{
++      const char * const plugin_name = plugin_info->base_name;
++      const int argc = plugin_info->argc;
++      const struct plugin_argument * const argv = plugin_info->argv;
++      int i;
++
++      if (!plugin_default_version_check(version, &gcc_version)) {
++              error(G_("incompatible gcc/plugin versions"));
++              return 1;
++      }
++
++      register_callback(plugin_name, PLUGIN_INFO, NULL, &checker_plugin_info);
++
++      for (i = 0; i < argc; ++i)
++              error(G_("unkown option '-fplugin-arg-%s-%s'"), plugin_name, argv[i].key);
++
++      if (TARGET_64BIT == 0)
++              return 0;
++
++      register_callback(plugin_name, PLUGIN_PRAGMAS, register_checker_address_spaces, NULL);
++
++      return 0;
++}
+diff --git a/tools/gcc/constify_plugin.c b/tools/gcc/constify_plugin.c
+new file mode 100644
+index 0000000..704a564
+--- /dev/null
++++ b/tools/gcc/constify_plugin.c
+@@ -0,0 +1,303 @@
++/*
++ * Copyright 2011 by Emese Revfy <re.emese@gmail.com>
++ * Copyright 2011 by PaX Team <pageexec@freemail.hu>
++ * Licensed under the GPL v2, or (at your option) v3
++ *
++ * This gcc plugin constifies all structures which contain only function pointers or are explicitly marked for constification.
++ *
++ * Homepage:
++ * http://www.grsecurity.net/~ephox/const_plugin/
++ *
++ * Usage:
++ * $ gcc -I`gcc -print-file-name=plugin`/include -fPIC -shared -O2 -o constify_plugin.so constify_plugin.c
++ * $ gcc -fplugin=constify_plugin.so test.c -O2
++ */
++
++#include "gcc-plugin.h"
++#include "config.h"
++#include "system.h"
++#include "coretypes.h"
++#include "tree.h"
++#include "tree-pass.h"
++#include "flags.h"
++#include "intl.h"
++#include "toplev.h"
++#include "plugin.h"
++#include "diagnostic.h"
++#include "plugin-version.h"
++#include "tm.h"
++#include "function.h"
++#include "basic-block.h"
++#include "gimple.h"
++#include "rtl.h"
++#include "emit-rtl.h"
++#include "tree-flow.h"
++
++#define C_TYPE_FIELDS_READONLY(TYPE) TREE_LANG_FLAG_1(TYPE)
++
++int plugin_is_GPL_compatible;
++
++static struct plugin_info const_plugin_info = {
++      .version        = "201111150100",
++      .help           = "no-constify\tturn off constification\n",
++};
++
++static void constify_type(tree type);
++static bool walk_struct(tree node);
++
++static tree deconstify_type(tree old_type)
++{
++      tree new_type, field;
++
++      new_type = build_qualified_type(old_type, TYPE_QUALS(old_type) & ~TYPE_QUAL_CONST);
++      TYPE_FIELDS(new_type) = copy_list(TYPE_FIELDS(new_type));
++      for (field = TYPE_FIELDS(new_type); field; field = TREE_CHAIN(field))
++              DECL_FIELD_CONTEXT(field) = new_type;
++      TYPE_READONLY(new_type) = 0;
++      C_TYPE_FIELDS_READONLY(new_type) = 0;
++      return new_type;
++}
++
++static tree handle_no_const_attribute(tree *node, tree name, tree args, int flags, bool *no_add_attrs)
++{
++      tree type;
++
++      *no_add_attrs = true;
++      if (TREE_CODE(*node) == FUNCTION_DECL) {
++              error("%qE attribute does not apply to functions", name);
++              return NULL_TREE;
++      }
++
++      if (TREE_CODE(*node) == VAR_DECL) {
++              error("%qE attribute does not apply to variables", name);
++              return NULL_TREE;
++      }
++
++      if (TYPE_P(*node)) {
++              if (TREE_CODE(*node) == RECORD_TYPE || TREE_CODE(*node) == UNION_TYPE)
++                      *no_add_attrs = false;
++              else
++                      error("%qE attribute applies to struct and union types only", name);
++              return NULL_TREE;
++      }
++
++      type = TREE_TYPE(*node);
++
++      if (TREE_CODE(type) != RECORD_TYPE && TREE_CODE(type) != UNION_TYPE) {
++              error("%qE attribute applies to struct and union types only", name);
++              return NULL_TREE;
++      }
++
++      if (lookup_attribute(IDENTIFIER_POINTER(name), TYPE_ATTRIBUTES(type))) {
++              error("%qE attribute is already applied to the type", name);
++              return NULL_TREE;
++      }
++
++      if (TREE_CODE(*node) == TYPE_DECL && !TYPE_READONLY(type)) {
++              error("%qE attribute used on type that is not constified", name);
++              return NULL_TREE;
++      }
++
++      if (TREE_CODE(*node) == TYPE_DECL) {
++              TREE_TYPE(*node) = deconstify_type(type);
++              TREE_READONLY(*node) = 0;
++              return NULL_TREE;
++      }
++
++      return NULL_TREE;
++}
++
++static tree handle_do_const_attribute(tree *node, tree name, tree args, int flags, bool *no_add_attrs)
++{
++      *no_add_attrs = true;
++      if (!TYPE_P(*node)) {
++              error("%qE attribute applies to types only", name);
++              return NULL_TREE;
++      }
++
++      if (TREE_CODE(*node) != RECORD_TYPE && TREE_CODE(*node) != UNION_TYPE) {
++              error("%qE attribute applies to struct and union types only", name);
++              return NULL_TREE;
++      }
++
++      *no_add_attrs = false;
++      constify_type(*node);
++      return NULL_TREE;
++}
++
++static struct attribute_spec no_const_attr = {
++      .name                   = "no_const",
++      .min_length             = 0,
++      .max_length             = 0,
++      .decl_required          = false,
++      .type_required          = false,
++      .function_type_required = false,
++      .handler                = handle_no_const_attribute,
++#if BUILDING_GCC_VERSION >= 4007
++      .affects_type_identity  = true
++#endif
++};
++
++static struct attribute_spec do_const_attr = {
++      .name                   = "do_const",
++      .min_length             = 0,
++      .max_length             = 0,
++      .decl_required          = false,
++      .type_required          = false,
++      .function_type_required = false,
++      .handler                = handle_do_const_attribute,
++#if BUILDING_GCC_VERSION >= 4007
++      .affects_type_identity  = true
++#endif
++};
++
++static void register_attributes(void *event_data, void *data)
++{
++      register_attribute(&no_const_attr);
++      register_attribute(&do_const_attr);
++}
++
++static void constify_type(tree type)
++{
++      TYPE_READONLY(type) = 1;
++      C_TYPE_FIELDS_READONLY(type) = 1;
++}
++
++static bool is_fptr(tree field)
++{
++      tree ptr = TREE_TYPE(field);
++
++      if (TREE_CODE(ptr) != POINTER_TYPE)
++              return false;
++
++      return TREE_CODE(TREE_TYPE(ptr)) == FUNCTION_TYPE;
++}
++
++static bool walk_struct(tree node)
++{
++      tree field;
++
++      if (lookup_attribute("no_const", TYPE_ATTRIBUTES(node)))
++              return false;
++
++      if (TYPE_FIELDS(node) == NULL_TREE)
++              return false;
++
++      for (field = TYPE_FIELDS(node); field; field = TREE_CHAIN(field)) {
++              tree type = TREE_TYPE(field);
++              enum tree_code code = TREE_CODE(type);
++              if (code == RECORD_TYPE || code == UNION_TYPE) {
++                      if (!(walk_struct(type)))
++                              return false;
++              } else if (!is_fptr(field) && !TREE_READONLY(field))
++                      return false;
++      }
++      return true;
++}
++
++static void finish_type(void *event_data, void *data)
++{
++      tree type = (tree)event_data;
++
++      if (type == NULL_TREE)
++              return;
++
++      if (TYPE_READONLY(type))
++              return;
++
++      if (walk_struct(type))
++              constify_type(type);
++}
++
++static unsigned int check_local_variables(void);
++
++struct gimple_opt_pass pass_local_variable = {
++      {
++              .type                   = GIMPLE_PASS,
++              .name                   = "check_local_variables",
++              .gate                   = NULL,
++              .execute                = check_local_variables,
++              .sub                    = NULL,
++              .next                   = NULL,
++              .static_pass_number     = 0,
++              .tv_id                  = TV_NONE,
++              .properties_required    = 0,
++              .properties_provided    = 0,
++              .properties_destroyed   = 0,
++              .todo_flags_start       = 0,
++              .todo_flags_finish      = 0
++      }
++};
++
++static unsigned int check_local_variables(void)
++{
++      tree var;
++      referenced_var_iterator rvi;
++
++#if BUILDING_GCC_VERSION == 4005
++      FOR_EACH_REFERENCED_VAR(var, rvi) {
++#else
++      FOR_EACH_REFERENCED_VAR(cfun, var, rvi) {
++#endif
++              tree type = TREE_TYPE(var);
++
++              if (!DECL_P(var) || TREE_STATIC(var) || DECL_EXTERNAL(var))
++                      continue;
++
++              if (TREE_CODE(type) != RECORD_TYPE && TREE_CODE(type) != UNION_TYPE)
++                      continue;
++
++              if (!TYPE_READONLY(type))
++                      continue;
++
++//            if (lookup_attribute("no_const", DECL_ATTRIBUTES(var)))
++//                    continue;
++
++//            if (lookup_attribute("no_const", TYPE_ATTRIBUTES(type)))
++//                    continue;
++
++              if (walk_struct(type)) {
++                      error("constified variable %qE cannot be local", var);
++                      return 1;
++              }
++      }
++      return 0;
++}
++
++int plugin_init(struct plugin_name_args *plugin_info, struct plugin_gcc_version *version)
++{
++      const char * const plugin_name = plugin_info->base_name;
++      const int argc = plugin_info->argc;
++      const struct plugin_argument * const argv = plugin_info->argv;
++      int i;
++      bool constify = true;
++
++      struct register_pass_info local_variable_pass_info = {
++              .pass                           = &pass_local_variable.pass,
++              .reference_pass_name            = "*referenced_vars",
++              .ref_pass_instance_number       = 0,
++              .pos_op                         = PASS_POS_INSERT_AFTER
++      };
++
++      if (!plugin_default_version_check(version, &gcc_version)) {
++              error(G_("incompatible gcc/plugin versions"));
++              return 1;
++      }
++
++      for (i = 0; i < argc; ++i) {
++              if (!(strcmp(argv[i].key, "no-constify"))) {
++                      constify = false;
++                      continue;
++              }
++              error(G_("unkown option '-fplugin-arg-%s-%s'"), plugin_name, argv[i].key);
++      }
++
++      register_callback(plugin_name, PLUGIN_INFO, NULL, &const_plugin_info);
++      if (constify) {
++              register_callback(plugin_name, PLUGIN_FINISH_TYPE, finish_type, NULL);
++              register_callback(plugin_name, PLUGIN_PASS_MANAGER_SETUP, NULL, &local_variable_pass_info);
++      }
++      register_callback(plugin_name, PLUGIN_ATTRIBUTES, register_attributes, NULL);
++
++      return 0;
++}
+diff --git a/tools/gcc/kallocstat_plugin.c b/tools/gcc/kallocstat_plugin.c
+new file mode 100644
+index 0000000..a5eabce
+--- /dev/null
++++ b/tools/gcc/kallocstat_plugin.c
+@@ -0,0 +1,167 @@
++/*
++ * Copyright 2011 by the PaX Team <pageexec@freemail.hu>
++ * Licensed under the GPL v2
++ *
++ * Note: the choice of the license means that the compilation process is
++ *       NOT 'eligible' as defined by gcc's library exception to the GPL v3,
++ *       but for the kernel it doesn't matter since it doesn't link against
++ *       any of the gcc libraries
++ *
++ * gcc plugin to find the distribution of k*alloc sizes
++ *
++ * TODO:
++ *
++ * BUGS:
++ * - none known
++ */
++#include "gcc-plugin.h"
++#include "config.h"
++#include "system.h"
++#include "coretypes.h"
++#include "tree.h"
++#include "tree-pass.h"
++#include "flags.h"
++#include "intl.h"
++#include "toplev.h"
++#include "plugin.h"
++//#include "expr.h" where are you...
++#include "diagnostic.h"
++#include "plugin-version.h"
++#include "tm.h"
++#include "function.h"
++#include "basic-block.h"
++#include "gimple.h"
++#include "rtl.h"
++#include "emit-rtl.h"
++
++extern void print_gimple_stmt(FILE *, gimple, int, int);
++
++int plugin_is_GPL_compatible;
++
++static const char * const kalloc_functions[] = {
++      "__kmalloc",
++      "kmalloc",
++      "kmalloc_large",
++      "kmalloc_node",
++      "kmalloc_order",
++      "kmalloc_order_trace",
++      "kmalloc_slab",
++      "kzalloc",
++      "kzalloc_node",
++};
++
++static struct plugin_info kallocstat_plugin_info = {
++      .version        = "201111150100",
++};
++
++static unsigned int execute_kallocstat(void);
++
++static struct gimple_opt_pass kallocstat_pass = {
++      .pass = {
++              .type                   = GIMPLE_PASS,
++              .name                   = "kallocstat",
++              .gate                   = NULL,
++              .execute                = execute_kallocstat,
++              .sub                    = NULL,
++              .next                   = NULL,
++              .static_pass_number     = 0,
++              .tv_id                  = TV_NONE,
++              .properties_required    = 0,
++              .properties_provided    = 0,
++              .properties_destroyed   = 0,
++              .todo_flags_start       = 0,
++              .todo_flags_finish      = 0
++      }
++};
++
++static bool is_kalloc(const char *fnname)
++{
++      size_t i;
++
++      for (i = 0; i < ARRAY_SIZE(kalloc_functions); i++)
++              if (!strcmp(fnname, kalloc_functions[i]))
++                      return true;
++      return false;
++}
++
++static unsigned int execute_kallocstat(void)
++{
++      basic_block bb;
++
++      // 1. loop through BBs and GIMPLE statements
++      FOR_EACH_BB(bb) {
++              gimple_stmt_iterator gsi;
++              for (gsi = gsi_start_bb(bb); !gsi_end_p(gsi); gsi_next(&gsi)) {
++                      // gimple match: 
++                      tree fndecl, size;
++                      gimple call_stmt;
++                      const char *fnname;
++
++                      // is it a call
++                      call_stmt = gsi_stmt(gsi);
++                      if (!is_gimple_call(call_stmt))
++                              continue;
++                      fndecl = gimple_call_fndecl(call_stmt);
++                      if (fndecl == NULL_TREE)
++                              continue;
++                      if (TREE_CODE(fndecl) != FUNCTION_DECL)
++                              continue;
++
++                      // is it a call to k*alloc
++                      fnname = IDENTIFIER_POINTER(DECL_NAME(fndecl));
++                      if (!is_kalloc(fnname))
++                              continue;
++
++                      // is the size arg the result of a simple const assignment
++                      size = gimple_call_arg(call_stmt, 0);
++                      while (true) {
++                              gimple def_stmt;
++                              expanded_location xloc;
++                              size_t size_val;
++
++                              if (TREE_CODE(size) != SSA_NAME)
++                                      break;
++                              def_stmt = SSA_NAME_DEF_STMT(size);
++                              if (!def_stmt || !is_gimple_assign(def_stmt))
++                                      break;
++                              if (gimple_num_ops(def_stmt) != 2)
++                                      break;
++                              size = gimple_assign_rhs1(def_stmt);
++                              if (!TREE_CONSTANT(size))
++                                      continue;
++                              xloc = expand_location(gimple_location(def_stmt));
++                              if (!xloc.file)
++                                      xloc = expand_location(DECL_SOURCE_LOCATION(current_function_decl));
++                              size_val = TREE_INT_CST_LOW(size);
++                              fprintf(stderr, "kallocsize: %8zu %8zx %s %s:%u\n", size_val, size_val, fnname, xloc.file, xloc.line);
++                              break;
++                      }
++//print_gimple_stmt(stderr, call_stmt, 0, TDF_LINENO);
++//debug_tree(gimple_call_fn(call_stmt));
++//print_node(stderr, "pax", fndecl, 4);
++              }
++      }
++
++      return 0;
++}
++
++int plugin_init(struct plugin_name_args *plugin_info, struct plugin_gcc_version *version)
++{
++      const char * const plugin_name = plugin_info->base_name;
++      struct register_pass_info kallocstat_pass_info = {
++              .pass                           = &kallocstat_pass.pass,
++              .reference_pass_name            = "ssa",
++              .ref_pass_instance_number       = 0,
++              .pos_op                         = PASS_POS_INSERT_AFTER
++      };
++
++      if (!plugin_default_version_check(version, &gcc_version)) {
++              error(G_("incompatible gcc/plugin versions"));
++              return 1;
++      }
++
++      register_callback(plugin_name, PLUGIN_INFO, NULL, &kallocstat_plugin_info);
++      register_callback(plugin_name, PLUGIN_PASS_MANAGER_SETUP, NULL, &kallocstat_pass_info);
++
++      return 0;
++}
+diff --git a/tools/gcc/kernexec_plugin.c b/tools/gcc/kernexec_plugin.c
+new file mode 100644
+index 0000000..51f747e
+--- /dev/null
++++ b/tools/gcc/kernexec_plugin.c
+@@ -0,0 +1,348 @@
++/*
++ * Copyright 2011 by the PaX Team <pageexec@freemail.hu>
++ * Licensed under the GPL v2
++ *
++ * Note: the choice of the license means that the compilation process is
++ *       NOT 'eligible' as defined by gcc's library exception to the GPL v3,
++ *       but for the kernel it doesn't matter since it doesn't link against
++ *       any of the gcc libraries
++ *
++ * gcc plugin to make KERNEXEC/amd64 almost as good as it is on i386
++ *
++ * TODO:
++ *
++ * BUGS:
++ * - none known
++ */
++#include "gcc-plugin.h"
++#include "config.h"
++#include "system.h"
++#include "coretypes.h"
++#include "tree.h"
++#include "tree-pass.h"
++#include "flags.h"
++#include "intl.h"
++#include "toplev.h"
++#include "plugin.h"
++//#include "expr.h" where are you...
++#include "diagnostic.h"
++#include "plugin-version.h"
++#include "tm.h"
++#include "function.h"
++#include "basic-block.h"
++#include "gimple.h"
++#include "rtl.h"
++#include "emit-rtl.h"
++#include "tree-flow.h"
++
++extern void print_gimple_stmt(FILE *, gimple, int, int);
++extern rtx emit_move_insn(rtx x, rtx y);
++
++int plugin_is_GPL_compatible;
++
++static struct plugin_info kernexec_plugin_info = {
++      .version        = "201111291120",
++      .help           = "method=[bts|or]\tinstrumentation method\n"
++};
++
++static unsigned int execute_kernexec_fptr(void);
++static unsigned int execute_kernexec_retaddr(void);
++static bool kernexec_cmodel_check(void);
++
++static void (*kernexec_instrument_fptr)(gimple_stmt_iterator);
++static void (*kernexec_instrument_retaddr)(rtx);
++
++static struct gimple_opt_pass kernexec_fptr_pass = {
++      .pass = {
++              .type                   = GIMPLE_PASS,
++              .name                   = "kernexec_fptr",
++              .gate                   = kernexec_cmodel_check,
++              .execute                = execute_kernexec_fptr,
++              .sub                    = NULL,
++              .next                   = NULL,
++              .static_pass_number     = 0,
++              .tv_id                  = TV_NONE,
++              .properties_required    = 0,
++              .properties_provided    = 0,
++              .properties_destroyed   = 0,
++              .todo_flags_start       = 0,
++              .todo_flags_finish      = TODO_verify_ssa | TODO_verify_stmts | TODO_dump_func | TODO_remove_unused_locals | TODO_update_ssa_no_phi
++      }
++};
++
++static struct rtl_opt_pass kernexec_retaddr_pass = {
++      .pass = {
++              .type                   = RTL_PASS,
++              .name                   = "kernexec_retaddr",
++              .gate                   = kernexec_cmodel_check,
++              .execute                = execute_kernexec_retaddr,
++              .sub                    = NULL,
++              .next                   = NULL,
++              .static_pass_number     = 0,
++              .tv_id                  = TV_NONE,
++              .properties_required    = 0,
++              .properties_provided    = 0,
++              .properties_destroyed   = 0,
++              .todo_flags_start       = 0,
++              .todo_flags_finish      = TODO_dump_func | TODO_ggc_collect
++      }
++};
++
++static bool kernexec_cmodel_check(void)
++{
++      tree section;
++
++      if (ix86_cmodel != CM_KERNEL)
++              return false;
++
++      section = lookup_attribute("section", DECL_ATTRIBUTES(current_function_decl));
++      if (!section || !TREE_VALUE(section))
++              return true;
++
++      section = TREE_VALUE(TREE_VALUE(section));
++      if (strncmp(TREE_STRING_POINTER(section), ".vsyscall_", 10))
++              return true;
++
++      return false;
++}
++
++/*
++ * add special KERNEXEC instrumentation: force MSB of fptr to 1, which will produce
++ * a non-canonical address from a userland ptr and will just trigger a GPF on dereference
++ */
++static void kernexec_instrument_fptr_bts(gimple_stmt_iterator gsi)
++{
++      gimple assign_intptr, assign_new_fptr, call_stmt;
++      tree intptr, old_fptr, new_fptr, kernexec_mask;
++
++      call_stmt = gsi_stmt(gsi);
++      old_fptr = gimple_call_fn(call_stmt);
++
++      // create temporary unsigned long variable used for bitops and cast fptr to it
++      intptr = create_tmp_var(long_unsigned_type_node, "kernexec_bts");
++      add_referenced_var(intptr);
++      mark_sym_for_renaming(intptr);
++      assign_intptr = gimple_build_assign(intptr, fold_convert(long_unsigned_type_node, old_fptr));
++      gsi_insert_before(&gsi, assign_intptr, GSI_SAME_STMT);
++      update_stmt(assign_intptr);
++
++      // apply logical or to temporary unsigned long and bitmask
++      kernexec_mask = build_int_cstu(long_long_unsigned_type_node, 0x8000000000000000LL);
++//    kernexec_mask = build_int_cstu(long_long_unsigned_type_node, 0xffffffff80000000LL);
++      assign_intptr = gimple_build_assign(intptr, fold_build2(BIT_IOR_EXPR, long_long_unsigned_type_node, intptr, kernexec_mask));
++      gsi_insert_before(&gsi, assign_intptr, GSI_SAME_STMT);
++      update_stmt(assign_intptr);
++
++      // cast temporary unsigned long back to a temporary fptr variable
++      new_fptr = create_tmp_var(TREE_TYPE(old_fptr), "kernexec");
++      add_referenced_var(new_fptr);
++      mark_sym_for_renaming(new_fptr);
++      assign_new_fptr = gimple_build_assign(new_fptr, fold_convert(TREE_TYPE(old_fptr), intptr));
++      gsi_insert_before(&gsi, assign_new_fptr, GSI_SAME_STMT);
++      update_stmt(assign_new_fptr);
++
++      // replace call stmt fn with the new fptr
++      gimple_call_set_fn(call_stmt, new_fptr);
++      update_stmt(call_stmt);
++}
++
++static void kernexec_instrument_fptr_or(gimple_stmt_iterator gsi)
++{
++      gimple asm_or_stmt, call_stmt;
++      tree old_fptr, new_fptr, input, output;
++      VEC(tree, gc) *inputs = NULL;
++      VEC(tree, gc) *outputs = NULL;
++
++      call_stmt = gsi_stmt(gsi);
++      old_fptr = gimple_call_fn(call_stmt);
++
++      // create temporary fptr variable
++      new_fptr = create_tmp_var(TREE_TYPE(old_fptr), "kernexec_or");
++      add_referenced_var(new_fptr);
++      mark_sym_for_renaming(new_fptr);
++
++      // build asm volatile("orq %%r10, %0\n\t" : "=r"(new_fptr) : "0"(old_fptr));
++      input = build_tree_list(NULL_TREE, build_string(2, "0"));
++      input = chainon(NULL_TREE, build_tree_list(input, old_fptr));
++      output = build_tree_list(NULL_TREE, build_string(3, "=r"));
++      output = chainon(NULL_TREE, build_tree_list(output, new_fptr));
++      VEC_safe_push(tree, gc, inputs, input);
++      VEC_safe_push(tree, gc, outputs, output);
++      asm_or_stmt = gimple_build_asm_vec("orq %%r10, %0\n\t", inputs, outputs, NULL, NULL);
++      gimple_asm_set_volatile(asm_or_stmt, true);
++      gsi_insert_before(&gsi, asm_or_stmt, GSI_SAME_STMT);
++      update_stmt(asm_or_stmt);
++
++      // replace call stmt fn with the new fptr
++      gimple_call_set_fn(call_stmt, new_fptr);
++      update_stmt(call_stmt);
++}
++
++/*
++ * find all C level function pointer dereferences and forcibly set the highest bit of the pointer
++ */
++static unsigned int execute_kernexec_fptr(void)
++{
++      basic_block bb;
++      gimple_stmt_iterator gsi;
++
++      // 1. loop through BBs and GIMPLE statements
++      FOR_EACH_BB(bb) {
++              for (gsi = gsi_start_bb(bb); !gsi_end_p(gsi); gsi_next(&gsi)) {
++                      // gimple match: h_1 = get_fptr (); D.2709_3 = h_1 (x_2(D));
++                      tree fn;
++                      gimple call_stmt;
++
++                      // is it a call ...
++                      call_stmt = gsi_stmt(gsi);
++                      if (!is_gimple_call(call_stmt))
++                              continue;
++                      fn = gimple_call_fn(call_stmt);
++                      if (TREE_CODE(fn) == ADDR_EXPR)
++                              continue;
++                      if (TREE_CODE(fn) != SSA_NAME)
++                              gcc_unreachable();
++
++                      // ... through a function pointer
++                      fn = SSA_NAME_VAR(fn);
++                      if (TREE_CODE(fn) != VAR_DECL && TREE_CODE(fn) != PARM_DECL)
++                              continue;
++                      fn = TREE_TYPE(fn);
++                      if (TREE_CODE(fn) != POINTER_TYPE)
++                              continue;
++                      fn = TREE_TYPE(fn);
++                      if (TREE_CODE(fn) != FUNCTION_TYPE)
++                              continue;
++
++                      kernexec_instrument_fptr(gsi);
++
++//debug_tree(gimple_call_fn(call_stmt));
++//print_gimple_stmt(stderr, call_stmt, 0, TDF_LINENO);
++              }
++      }
++
++      return 0;
++}
++
++// add special KERNEXEC instrumentation: btsq $63,(%rsp) just before retn
++static void kernexec_instrument_retaddr_bts(rtx insn)
++{
++      rtx btsq;
++      rtvec argvec, constraintvec, labelvec;
++      int line;
++
++      // create asm volatile("btsq $63,(%%rsp)":::)
++      argvec = rtvec_alloc(0);
++      constraintvec = rtvec_alloc(0);
++      labelvec = rtvec_alloc(0);
++      line = expand_location(RTL_LOCATION(insn)).line;
++      btsq = gen_rtx_ASM_OPERANDS(VOIDmode, "btsq $63,(%%rsp)", empty_string, 0, argvec, constraintvec, labelvec, line);
++      MEM_VOLATILE_P(btsq) = 1;
++//    RTX_FRAME_RELATED_P(btsq) = 1; // not for ASM_OPERANDS
++      emit_insn_before(btsq, insn);
++}
++
++// add special KERNEXEC instrumentation: orq %r10,(%rsp) just before retn
++static void kernexec_instrument_retaddr_or(rtx insn)
++{
++      rtx orq;
++      rtvec argvec, constraintvec, labelvec;
++      int line;
++
++      // create asm volatile("orq %%r10,(%%rsp)":::)
++      argvec = rtvec_alloc(0);
++      constraintvec = rtvec_alloc(0);
++      labelvec = rtvec_alloc(0);
++      line = expand_location(RTL_LOCATION(insn)).line;
++      orq = gen_rtx_ASM_OPERANDS(VOIDmode, "orq %%r10,(%%rsp)", empty_string, 0, argvec, constraintvec, labelvec, line);
++      MEM_VOLATILE_P(orq) = 1;
++//    RTX_FRAME_RELATED_P(orq) = 1; // not for ASM_OPERANDS
++      emit_insn_before(orq, insn);
++}
++
++/*
++ * find all asm level function returns and forcibly set the highest bit of the return address
++ */
++static unsigned int execute_kernexec_retaddr(void)
++{
++      rtx insn;
++
++      // 1. find function returns
++      for (insn = get_insns(); insn; insn = NEXT_INSN(insn)) {
++              // rtl match: (jump_insn 41 40 42 2 (return) fptr.c:42 634 {return_internal} (nil))
++              //            (jump_insn 12 9 11 2 (parallel [ (return) (unspec [ (0) ] UNSPEC_REP) ]) fptr.c:46 635 {return_internal_long} (nil))
++              rtx body;
++
++              // is it a retn
++              if (!JUMP_P(insn))
++                      continue;
++              body = PATTERN(insn);
++              if (GET_CODE(body) == PARALLEL)
++                      body = XVECEXP(body, 0, 0);
++              if (GET_CODE(body) != RETURN)
++                      continue;
++              kernexec_instrument_retaddr(insn);
++      }
++
++//    print_simple_rtl(stderr, get_insns());
++//    print_rtl(stderr, get_insns());
++
++      return 0;
++}
++
++int plugin_init(struct plugin_name_args *plugin_info, struct plugin_gcc_version *version)
++{
++      const char * const plugin_name = plugin_info->base_name;
++      const int argc = plugin_info->argc;
++      const struct plugin_argument * const argv = plugin_info->argv;
++      int i;
++      struct register_pass_info kernexec_fptr_pass_info = {
++              .pass                           = &kernexec_fptr_pass.pass,
++              .reference_pass_name            = "ssa",
++              .ref_pass_instance_number       = 0,
++              .pos_op                         = PASS_POS_INSERT_AFTER
++      };
++      struct register_pass_info kernexec_retaddr_pass_info = {
++              .pass                           = &kernexec_retaddr_pass.pass,
++              .reference_pass_name            = "pro_and_epilogue",
++              .ref_pass_instance_number       = 0,
++              .pos_op                         = PASS_POS_INSERT_AFTER
++      };
++
++      if (!plugin_default_version_check(version, &gcc_version)) {
++              error(G_("incompatible gcc/plugin versions"));
++              return 1;
++      }
++
++      register_callback(plugin_name, PLUGIN_INFO, NULL, &kernexec_plugin_info);
++
++      if (TARGET_64BIT == 0)
++              return 0;
++
++      for (i = 0; i < argc; ++i) {
++              if (!strcmp(argv[i].key, "method")) {
++                      if (!argv[i].value) {
++                              error(G_("no value supplied for option '-fplugin-arg-%s-%s'"), plugin_name, argv[i].key);
++                              continue;
++                      }
++                      if (!strcmp(argv[i].value, "bts")) {
++                              kernexec_instrument_fptr = kernexec_instrument_fptr_bts;
++                              kernexec_instrument_retaddr = kernexec_instrument_retaddr_bts;
++                      } else if (!strcmp(argv[i].value, "or")) {
++                              kernexec_instrument_fptr = kernexec_instrument_fptr_or;
++                              kernexec_instrument_retaddr = kernexec_instrument_retaddr_or;
++                              fix_register("r10", 1, 1);
++                      } else
++                              error(G_("invalid option argument '-fplugin-arg-%s-%s=%s'"), plugin_name, argv[i].key, argv[i].value);
++                      continue;
++              }
++              error(G_("unkown option '-fplugin-arg-%s-%s'"), plugin_name, argv[i].key);
++      }
++      if (!kernexec_instrument_fptr || !kernexec_instrument_retaddr)
++              error(G_("no instrumentation method was selected via '-fplugin-arg-%s-method'"), plugin_name);
++
++      register_callback(plugin_name, PLUGIN_PASS_MANAGER_SETUP, NULL, &kernexec_fptr_pass_info);
++      register_callback(plugin_name, PLUGIN_PASS_MANAGER_SETUP, NULL, &kernexec_retaddr_pass_info);
++
++      return 0;
++}
+diff --git a/tools/gcc/stackleak_plugin.c b/tools/gcc/stackleak_plugin.c
+new file mode 100644
+index 0000000..d44f37c
+--- /dev/null
++++ b/tools/gcc/stackleak_plugin.c
+@@ -0,0 +1,291 @@
++/*
++ * Copyright 2011 by the PaX Team <pageexec@freemail.hu>
++ * Licensed under the GPL v2
++ *
++ * Note: the choice of the license means that the compilation process is
++ *       NOT 'eligible' as defined by gcc's library exception to the GPL v3,
++ *       but for the kernel it doesn't matter since it doesn't link against
++ *       any of the gcc libraries
++ *
++ * gcc plugin to help implement various PaX features
++ *
++ * - track lowest stack pointer
++ *
++ * TODO:
++ * - initialize all local variables
++ *
++ * BUGS:
++ * - none known
++ */
++#include "gcc-plugin.h"
++#include "config.h"
++#include "system.h"
++#include "coretypes.h"
++#include "tree.h"
++#include "tree-pass.h"
++#include "flags.h"
++#include "intl.h"
++#include "toplev.h"
++#include "plugin.h"
++//#include "expr.h" where are you...
++#include "diagnostic.h"
++#include "plugin-version.h"
++#include "tm.h"
++#include "function.h"
++#include "basic-block.h"
++#include "gimple.h"
++#include "rtl.h"
++#include "emit-rtl.h"
++
++extern void print_gimple_stmt(FILE *, gimple, int, int);
++
++int plugin_is_GPL_compatible;
++
++static int track_frame_size = -1;
++static const char track_function[] = "pax_track_stack";
++static const char check_function[] = "pax_check_alloca";
++static bool init_locals;
++
++static struct plugin_info stackleak_plugin_info = {
++      .version        = "201111150100",
++      .help           = "track-lowest-sp=nn\ttrack sp in functions whose frame size is at least nn bytes\n"
++//                      "initialize-locals\t\tforcibly initialize all stack frames\n"
++};
++
++static bool gate_stackleak_track_stack(void);
++static unsigned int execute_stackleak_tree_instrument(void);
++static unsigned int execute_stackleak_final(void);
++
++static struct gimple_opt_pass stackleak_tree_instrument_pass = {
++      .pass = {
++              .type                   = GIMPLE_PASS,
++              .name                   = "stackleak_tree_instrument",
++              .gate                   = gate_stackleak_track_stack,
++              .execute                = execute_stackleak_tree_instrument,
++              .sub                    = NULL,
++              .next                   = NULL,
++              .static_pass_number     = 0,
++              .tv_id                  = TV_NONE,
++              .properties_required    = PROP_gimple_leh | PROP_cfg,
++              .properties_provided    = 0,
++              .properties_destroyed   = 0,
++              .todo_flags_start       = 0, //TODO_verify_ssa | TODO_verify_flow | TODO_verify_stmts,
++              .todo_flags_finish      = TODO_verify_ssa | TODO_verify_stmts | TODO_dump_func | TODO_update_ssa
++      }
++};
++
++static struct rtl_opt_pass stackleak_final_rtl_opt_pass = {
++      .pass = {
++              .type                   = RTL_PASS,
++              .name                   = "stackleak_final",
++              .gate                   = gate_stackleak_track_stack,
++              .execute                = execute_stackleak_final,
++              .sub                    = NULL,
++              .next                   = NULL,
++              .static_pass_number     = 0,
++              .tv_id                  = TV_NONE,
++              .properties_required    = 0,
++              .properties_provided    = 0,
++              .properties_destroyed   = 0,
++              .todo_flags_start       = 0,
++              .todo_flags_finish      = TODO_dump_func
++      }
++};
++
++static bool gate_stackleak_track_stack(void)
++{
++      return track_frame_size >= 0;
++}
++
++static void stackleak_check_alloca(gimple_stmt_iterator gsi)
++{
++      gimple check_alloca;
++      tree fndecl, fntype, alloca_size;
++
++      // insert call to void pax_check_alloca(unsigned long size)
++      fntype = build_function_type_list(void_type_node, long_unsigned_type_node, NULL_TREE);
++      fndecl = build_fn_decl(check_function, fntype);
++      DECL_ASSEMBLER_NAME(fndecl); // for LTO
++      alloca_size = gimple_call_arg(gsi_stmt(gsi), 0);
++      check_alloca = gimple_build_call(fndecl, 1, alloca_size);
++      gsi_insert_before(&gsi, check_alloca, GSI_CONTINUE_LINKING);
++}
++
++static void stackleak_add_instrumentation(gimple_stmt_iterator gsi)
++{
++      gimple track_stack;
++      tree fndecl, fntype;
++
++      // insert call to void pax_track_stack(void)
++      fntype = build_function_type_list(void_type_node, NULL_TREE);
++      fndecl = build_fn_decl(track_function, fntype);
++      DECL_ASSEMBLER_NAME(fndecl); // for LTO
++      track_stack = gimple_build_call(fndecl, 0);
++      gsi_insert_after(&gsi, track_stack, GSI_CONTINUE_LINKING);
++}
++
++#if BUILDING_GCC_VERSION == 4005
++static bool gimple_call_builtin_p(gimple stmt, enum built_in_function code)
++{
++      tree fndecl;
++
++      if (!is_gimple_call(stmt))
++              return false;
++      fndecl = gimple_call_fndecl(stmt);
++      if (!fndecl)
++              return false;
++      if (DECL_BUILT_IN_CLASS(fndecl) != BUILT_IN_NORMAL)
++              return false;
++//    print_node(stderr, "pax", fndecl, 4);
++      return DECL_FUNCTION_CODE(fndecl) == code;
++}
++#endif
++
++static bool is_alloca(gimple stmt)
++{
++      if (gimple_call_builtin_p(stmt, BUILT_IN_ALLOCA))
++              return true;
++
++#if BUILDING_GCC_VERSION >= 4007
++      if (gimple_call_builtin_p(stmt, BUILT_IN_ALLOCA_WITH_ALIGN))
++              return true;
++#endif
++
++      return false;
++}
++
++static unsigned int execute_stackleak_tree_instrument(void)
++{
++      basic_block bb, entry_bb;
++      bool prologue_instrumented = false;
++
++      entry_bb = ENTRY_BLOCK_PTR_FOR_FUNCTION(cfun)->next_bb;
++
++      // 1. loop through BBs and GIMPLE statements
++      FOR_EACH_BB(bb) {
++              gimple_stmt_iterator gsi;
++              for (gsi = gsi_start_bb(bb); !gsi_end_p(gsi); gsi_next(&gsi)) {
++                      // gimple match: align 8 built-in BUILT_IN_NORMAL:BUILT_IN_ALLOCA attributes <tree_list 0xb7576450>
++                      if (!is_alloca(gsi_stmt(gsi)))
++                              continue;
++
++                      // 2. insert stack overflow check before each __builtin_alloca call
++                      stackleak_check_alloca(gsi);
++
++                      // 3. insert track call after each __builtin_alloca call
++                      stackleak_add_instrumentation(gsi);
++                      if (bb == entry_bb)
++                              prologue_instrumented = true;
++              }
++      }
++
++      // 4. insert track call at the beginning
++      if (!prologue_instrumented) {
++              bb = split_block_after_labels(ENTRY_BLOCK_PTR)->dest;
++              if (dom_info_available_p(CDI_DOMINATORS))
++                      set_immediate_dominator(CDI_DOMINATORS, bb, ENTRY_BLOCK_PTR);
++              stackleak_add_instrumentation(gsi_start_bb(bb));
++      }
++
++      return 0;
++}
++
++static unsigned int execute_stackleak_final(void)
++{
++      rtx insn;
++
++      if (cfun->calls_alloca)
++              return 0;
++
++      // keep calls only if function frame is big enough
++      if (get_frame_size() >= track_frame_size)
++              return 0;
++
++      // 1. find pax_track_stack calls
++      for (insn = get_insns(); insn; insn = NEXT_INSN(insn)) {
++              // rtl match: (call_insn 8 7 9 3 (call (mem (symbol_ref ("pax_track_stack") [flags 0x41] <function_decl 0xb7470e80 pax_track_stack>) [0 S1 A8]) (4)) -1 (nil) (nil))
++              rtx body;
++
++              if (!CALL_P(insn))
++                      continue;
++              body = PATTERN(insn);
++              if (GET_CODE(body) != CALL)
++                      continue;
++              body = XEXP(body, 0);
++              if (GET_CODE(body) != MEM)
++                      continue;
++              body = XEXP(body, 0);
++              if (GET_CODE(body) != SYMBOL_REF)
++                      continue;
++              if (strcmp(XSTR(body, 0), track_function))
++                      continue;
++//            warning(0, "track_frame_size: %d %ld %d", cfun->calls_alloca, get_frame_size(), track_frame_size);
++              // 2. delete call
++              insn = delete_insn_and_edges(insn);
++#if BUILDING_GCC_VERSION >= 4007
++              if (GET_CODE(insn) == NOTE && NOTE_KIND(insn) == NOTE_INSN_CALL_ARG_LOCATION)
++                      insn = delete_insn_and_edges(insn);
++#endif
++      }
++
++//    print_simple_rtl(stderr, get_insns());
++//    print_rtl(stderr, get_insns());
++//    warning(0, "track_frame_size: %d %ld %d", cfun->calls_alloca, get_frame_size(), track_frame_size);
++
++      return 0;
++}
++
++int plugin_init(struct plugin_name_args *plugin_info, struct plugin_gcc_version *version)
++{
++      const char * const plugin_name = plugin_info->base_name;
++      const int argc = plugin_info->argc;
++      const struct plugin_argument * const argv = plugin_info->argv;
++      int i;
++      struct register_pass_info stackleak_tree_instrument_pass_info = {
++              .pass                           = &stackleak_tree_instrument_pass.pass,
++//            .reference_pass_name            = "tree_profile",
++              .reference_pass_name            = "optimized",
++              .ref_pass_instance_number       = 0,
++              .pos_op                         = PASS_POS_INSERT_AFTER
++      };
++      struct register_pass_info stackleak_final_pass_info = {
++              .pass                           = &stackleak_final_rtl_opt_pass.pass,
++              .reference_pass_name            = "final",
++              .ref_pass_instance_number       = 0,
++              .pos_op                         = PASS_POS_INSERT_BEFORE
++      };
++
++      if (!plugin_default_version_check(version, &gcc_version)) {
++              error(G_("incompatible gcc/plugin versions"));
++              return 1;
++      }
++
++      register_callback(plugin_name, PLUGIN_INFO, NULL, &stackleak_plugin_info);
++
++      for (i = 0; i < argc; ++i) {
++              if (!strcmp(argv[i].key, "track-lowest-sp")) {
++                      if (!argv[i].value) {
++                              error(G_("no value supplied for option '-fplugin-arg-%s-%s'"), plugin_name, argv[i].key);
++                              continue;
++                      }
++                      track_frame_size = atoi(argv[i].value);
++                      if (argv[i].value[0] < '0' || argv[i].value[0] > '9' || track_frame_size < 0)
++                              error(G_("invalid option argument '-fplugin-arg-%s-%s=%s'"), plugin_name, argv[i].key, argv[i].value);
++                      continue;
++              }
++              if (!strcmp(argv[i].key, "initialize-locals")) {
++                      if (argv[i].value) {
++                              error(G_("invalid option argument '-fplugin-arg-%s-%s=%s'"), plugin_name, argv[i].key, argv[i].value);
++                              continue;
++                      }
++                      init_locals = true;
++                      continue;
++              }
++              error(G_("unkown option '-fplugin-arg-%s-%s'"), plugin_name, argv[i].key);
++      }
++
++      register_callback(plugin_name, PLUGIN_PASS_MANAGER_SETUP, NULL, &stackleak_tree_instrument_pass_info);
++      register_callback(plugin_name, PLUGIN_PASS_MANAGER_SETUP, NULL, &stackleak_final_pass_info);
++
++      return 0;
++}
+diff --git a/usr/gen_init_cpio.c b/usr/gen_init_cpio.c
+index 83b3dde..835bee7 100644
+--- a/usr/gen_init_cpio.c
++++ b/usr/gen_init_cpio.c
+@@ -299,7 +299,7 @@ static int cpio_mkfile(const char *name, const char *location,
+       int retval;
+       int rc = -1;
+       int namesize;
+-      int i;
++      unsigned int i;
+       mode |= S_IFREG;
+@@ -383,9 +383,10 @@ static char *cpio_replace_env(char *new_location)
+                        *env_var = *expanded = '\0';
+                        strncat(env_var, start + 2, end - start - 2);
+                        strncat(expanded, new_location, start - new_location);
+-                       strncat(expanded, getenv(env_var), PATH_MAX);
+-                       strncat(expanded, end + 1, PATH_MAX);
++                       strncat(expanded, getenv(env_var), PATH_MAX - strlen(expanded));
++                       strncat(expanded, end + 1, PATH_MAX - strlen(expanded));
+                        strncpy(new_location, expanded, PATH_MAX);
++                       new_location[PATH_MAX] = 0;
+                } else
+                        break;
+        }
+diff --git a/virt/kvm/kvm_main.c b/virt/kvm/kvm_main.c
+index 4f3434f..159bc3e 100644
+--- a/virt/kvm/kvm_main.c
++++ b/virt/kvm/kvm_main.c
+@@ -2494,7 +2494,7 @@ asmlinkage void kvm_handle_fault_on_reboot(void)
+       if (kvm_rebooting)
+               /* spin while reset goes on */
+               while (true)
+-                      ;
++                      cpu_relax();
+       /* Fault while not rebooting.  We want the trace. */
+       BUG();
+ }
+@@ -2714,7 +2714,7 @@ static void kvm_sched_out(struct preempt_notifier *pn,
+       kvm_arch_vcpu_put(vcpu);
+ }
+-int kvm_init(void *opaque, unsigned int vcpu_size,
++int kvm_init(const void *opaque, unsigned int vcpu_size,
+                 struct module *module)
+ {
+       int r;
+@@ -2767,15 +2767,17 @@ int kvm_init(void *opaque, unsigned int vcpu_size,
+       /* A kmem cache lets us meet the alignment requirements of fx_save. */
+       kvm_vcpu_cache = kmem_cache_create("kvm_vcpu", vcpu_size,
+                                          __alignof__(struct kvm_vcpu),
+-                                         0, NULL);
++                                         SLAB_USERCOPY, NULL);
+       if (!kvm_vcpu_cache) {
+               r = -ENOMEM;
+               goto out_free_5;
+       }
+-      kvm_chardev_ops.owner = module;
+-      kvm_vm_fops.owner = module;
+-      kvm_vcpu_fops.owner = module;
++      pax_open_kernel();
++      *(void **)&kvm_chardev_ops.owner = module;
++      *(void **)&kvm_vm_fops.owner = module;
++      *(void **)&kvm_vcpu_fops.owner = module;
++      pax_close_kernel();
+       r = misc_register(&kvm_dev);
+       if (r) {