1.【Linux】CMake源码编译安装教程
2.GCC 源码编译安装
3.Linux离线Python源码编译及python版本升级
4.源码编译 gcc 12
5.之一--源码编译
6.Flink源码编译
【Linux】CMake源码编译安装教程
在Linux环境下进行CMake源码编译和安装的源码过程简洁明了,适合不同版本管理需求的编译版开发者。具体步骤如下:
首先,源码执行卸载操作以清除现有的编译版CMake版本。对于使用默认的源码APT安装方式,如需替换为特定版本,编译版雪花idc主机源码第一步则为删除当前环境中的源码旧版本,确保下一步的编译版操作不会遇到冲突。
接下来,源码访问官方网站下载最新版CMake的编译版安装包。对于寻求较新版本(如3.或3.等)的源码用户,需直接下载所需的编译版安装包,比如cmake-3..0-rc3.tar.gz。源码下载后,编译版使用解压工具将文件解压,源码如通过命令行实现或鼠标右键快速解压,操作无需过于复杂。
为了确保后续操作的顺利进行,需要提前安装依赖项。了解并完成这些预安装步骤能有效避免在安装过程中可能遇到的错误,这些依赖包括但不限于编译工具和其他支持包。安装好依赖后,将文件解压到的目录作为工作区。
进入解压后的目录中,根据官方文档或安装指南,执行编译和构建过程。成功执行至提示的编译和构建完成阶段后,系统将生成可执行文件,并提供一系列指令引导完成最后的安装步骤。
安装完成后,通过执行特定命令查询CMake版本信息,这一步的输出应当包含版本号等相关信息,确保安装正确无误。至此,CMake源码编译安装流程完毕。
在处理常见错误问题时,如遇到由SSL问题引发的安装失败,可以采用命令进行修复。风机指标源码面对特定类型的错误提示,同样存在相应的解决方案,通过执行适当的命令来解决这些问题,例如在遇到特定日志错误时,按照提示输入相应的命令行指令,进行调试或修正。
GCC 源码编译安装
前言
本文主要介绍如何在特定条件下,通过源码编译安装GCC(GNU Compiler Collection)4.8.5版本。在Linux环境下,特别是遇到较老工程代码和低版本GCC适配问题时,网络仓库不可用,可通过下载源码进行本地编译安装。文章总结了该过程的步骤,以期帮助读者解决类似需求。
Linux系统版本:SUSE Linux Enterprise Server SP5 (aarch) - Kernel \r (\l)
GCC版本:gcc-4.8.5
步骤如下:
1,源码下载
直接在Linux终端执行:wget ftp.gnu.org/gnu/gcc/gcc...
或手动下载:ftp://gcc.gnu.org/pub/gcc/infrastructure
选取对应的gcc版本下载。
2,解压并进入目录
解压下载的tar包:tar -jxvf gcc-4.8.5.tar.bz2
进入解压后的目录:cd gcc-4.8.5
3,配置依赖库
联网情况下:cd gcc-4.8.5/
./contrib/download_prerequisites
无法联网时,手动下载依赖库(如mpfr、gmp、mpc)并上传到指定目录,然后分别解压、重命名并链接。
4,创建编译存放目录
在gcc-4.8.5目录下执行:mkdir gcc-build-4.8.5
5,生成Makefile文件
cd gcc-build-4.8.5
../configure -enable-checking=release -enable-languages=c,c++ -disable-multilib
推荐配置时,根据环境调整参数,如X_环境下的`--disable-libsanitizer`。
6,执行编译
make(可能耗时较长)
解决可能出现的问题,如libc_name_p和struct ucontext uc,通过参考gcc.gnu.org/git或直接覆盖相关文件。
7,安装GCC
在gcc-build-4.8.5目录下执行:make install
安装完成后,可直接解压并安装。
8,创建星球源码配置环境变量
执行命令:export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/root/gcc-4.8.5/mpc:/root/gcc-4.8.5/gmp:/root/gcc-4.8.5/mpfr
确保路径一致,执行 source /etc/profile 使环境变量生效。
9,检查安装情况
通过`gcc -v`和`g++ -v`验证GCC版本。
,库升级
遇到动态库未找到问题时,需升级gcc库,通过查找和替换最新库文件解决。
,卸载系统自带的gcc
以root用户执行:rpm -qa |grep gcc | xargs rpm -e --nodeps
,修改ld.so.conf文件
编辑文件:vi /etc/ld.so.conf,在最下面添加实际路径,如/usr/local/lib和/usr/local/lib。
执行 ldconfig /etc/ld.so.conf。
,修改GCC链接
确保GCC及其相关工具的正确链接,使用`ll /usr/bin/gcc*`和`ll /usr/bin/g++*`检查链接结果。
至此,GCC源码编译安装流程完成,可满足特定环境下的GCC版本需求。
Linux离线Python源码编译及python版本升级
配置环境
初始化干净的centos7.8镜像,并搭建本地镜像源,详情可参考Linux 镜像源临时挂载+永久挂载+yum本地源制作 - 蜡笔小新的文章 - 知乎。
下载Python源码,版本选用Python-3.9..tar.xz。
编译Python
因高版本Python编译需高版本GCC,系统默认GCC版本为4.8.5,需先升级GCC。
执行Centos离线源码编译高版本GCC并升级教程:Linux Centos7.8.系统离线GCC源码编译升级 - 蜡笔小新的文章 - 知乎。
由于未安装make编译工具和依赖,需先执行yum -y install automake autoconf libtool make以完成安装。
编译Python源码至/opt/python3.9.,过程未出现错误。
升级Python版本
编译安装后,已将新版本安装至指定目录,但未升级原有Python版本。
通过ll /usr/bin/python查看,卫辉网站源码当前Python版本软链接指向/usr/bin/python2.7。
删除或备份当前Python软链接,避免影响yum工具。
修改yum工具文件路径,将“#!/usr/bin/python”更改为“#!/usr/bin/python2.7”。
最后,创建新编译Python3.9.的软链接及pip3软链接。
成功在Centos7.8上升级Python3.9.版本,同时确保原有yum工具可使用Python2.7版本。
源码编译 gcc
最近对于C++协程的研究促使我决定更新gcc到最新稳定版本.1.0。首先,从gcc官网下载了gcc-.1.0.tar.xz的安装包,通过`tar xf gcc-.1.0.tar.xz`命令解压。
接下来,进入解压后的目录,执行`./contrib/download_prerequisites`脚本来自动下载所需的依赖项,确保编译环境准备就绪。
然后,开始编译过程,通过`./configure`命令,并设置编译选项,如`--prefix=/home/lingzhang/gcc`指定安装路径,`--enable-bootstrap`启用自举编译,`--enable-languages=c,c++`启用C和C++语言支持,`--enable-threads=posix`选择POSIX线程模型,`--enable-checking=release`开启检查以确保质量,`--disable-multilib`禁用多库支持,`--with-system-zlib`使用系统级的zlib库。执行`make`命令开始编译,接着`make install`进行安装。
为了方便后续使用,创建了一个名为gcc.env的环境变量文件,内容为设置环境变量。通过`source gcc.env`来激活这个环境变量,确保gcc.1的正确使用。
最后,验证安装的tni文件源码gcc版本,通过`gcc -v`命令,显示的版本信息确认为.1,至此,gcc .1.0的编译和环境设置已完成。
之一--源码编译
为了成功编译Apache Hudi源码,您需要遵循一系列步骤确保所有依赖被正确解决。首先,导入GitHub项目至 IntelliJ IDEA,可能会遇到“Cannot resolve jdk.tools:jdk.tools:1.7”的错误。此问题可能源于版本不兼容或依赖未正确配置。
解决方法如下:
在pom.xml文件中添加如下dependency:
<dependency><groupId>jdk.tools</groupId><artifactId>jdk.tools</artifactId><version>1.7</version></dependency>
若问题依然存在,尝试将systemPath设为绝对路径。
接下来,遇到“Cannot resolve io.confluent:common-config:5.3.4”及相关的依赖加载问题。这可能是由于Maven配置为使用阿里云镜像,而阿里云中缺失io.confluent依赖。为解决此问题,修改Maven settings.xml文件(位于~/.m2目录)。
在元素中添加以下两个元素:
定义新的confluent仓库,然后指示从默认的阿里云仓库中移除confluent代理。这样,请求confluent仓库中的依赖时,将直接从confluent仓库获取,而非从阿里云。
在遇到“org.apache.yetus:audience-annotations:jar dependencies not be available”的错误时,检查依赖是否已被正确添加到项目中。修改方法为确保所有依赖都已正确配置到pom.xml文件中。
综上所述,遵循上述步骤确保所有依赖正确解决,即可成功编译Apache Hudi源码。
Flink源码编译
1. 下载Flink稳定版1..2,可以从官方下载链接获取,将源码同步至远程机器,使用Jetbrains Gateway打开。
2. 以Jetbrains Gateway打开源码,源码目录存放于远程机器,它会自动解析为Maven项目。
3. 注意事项:在flink-runtime-web/pom.xml文件中,需将部分内容替换,具体如下:
确保先安装npm,通过命令`yum install npm`。否则编译过程中可能会出现错误。
为了编译时内存充足,需要调整Maven设置,增加JDK可用内存。在命令行中,可以在/etc/profile中配置,或在Maven配置中指定更大的内存。
编译命令如下,对于Jetbrains Gateway,需在Run Configurations中新增配置,调整执行参数以执行mvn install或mvn clean。
编译完成后,每个模块目标文件夹会生成相应的文件。
4. 接下来进行运行。首先启动JobManager,查看flink-runtime下的StandaloneSessionClusterEntrypoint类,配置文件目录需指定,如`--configDir configpath`,并配置日志参数。
主类缺失时,需在IDEA的项目结构模块中给flink-runtime添加依赖,从flink-dist/target目录下添加jar包。
修改配置文件,将允许访问的IP设置为0.0.0.0,以便外部访问。然后映射web端口,启动JobManager后可通过外部IP访问。
运行TaskManager的参数与JobManager类似,启动后自动注册到JobManager,外部访问验证成功。
源码编译与启动完成后,其他机器无需重复编译,只需在相应环境中执行预编译的可执行文件,即可实现分布式环境的Flink使用。
从源码build Tensorflow2.6.5的记录
.从源码编译Tensorflow2.6.5踩坑记录,笔者经过一天的努力,失败四次后终于成功。Tensorflow2.6.5是截至.时,能够从源码编译的最新版本。
0 - 前期准备
为了对Tensorflow进行大规模修改并完成科研工作,笔者有从源码编译Tensorflow的需求。平时更常用的做法是在conda环境中pip install tensorflow,有时为了环境隔离方便打包,会用docker先套住,再上conda + pip安装。
1 - 资料汇总
教程参考:
另注:bazel的编译可以使用换源清华镜像(不是必要)。整体配置流程的根本依据还是官方的教程,但它的教程有些点和坑没有涉及到,所以多方材料了解。
2 - 整体流程
2.1 确定配置目标
官网上给到了配置目标,和对应的版本匹配关系(这张表里缺少了对numpy的版本要求)。笔者最后(在docker中)配置成功的版本为tensorflow2.6.5 numpy1..5 Python3.7. GCC7.5.0 CUDA.3 Bazel3.7.2。
2.2 开始配置
为了打包方便和编译环境隔离,在docker中进行了以下配置:
2. 安装TensorFlow pip软件包依赖项,其编译过程依赖于这些包。
3. Git Tensorflow源代码包。
4. 安装编译工具Bazel。
官网的介绍:(1)您需要安装Bazel,才能构建TensorFlow。您可以使用Bazelisk轻松安装Bazel,并且Bazelisk可以自动为TensorFlow下载合适的Bazel版本。为便于使用,请在PATH中将Bazelisk添加为bazel可执行文件。(2)如果没有Bazelisk,您可以手动安装Bazel。请务必安装受支持的Bazel版本,可以是tensorflow/configure.py中指定的介于_TF_MIN_BAZEL_VERSION和_TF_MAX_BAZEL_VERSION之间的任意版本。
但笔者尝试最快的安装方式是,到Github - bazelbuild/build/releases上下载对应的版本,然后使用sh脚本手动安装。比如依据刚才的配置目标,笔者需要的是Bazel3.7.2,所以下载的文件为bazel-3.7.2-installer-linux-x_.sh。
5. 配置编译build选项
官网介绍:通过运行TensorFlow源代码树根目录下的./configure配置系统build。此脚本会提示您指定TensorFlow依赖项的位置,并要求指定其他构建配置选项(例如,编译器标记)。
这一步就是选择y/N基本没啥问题,其他参考里都有贴实例。笔者需要GPU的支持,故在CUDA那一栏选择了y,其他部分如Rocm部分就是N(直接按enter也可以)。
6.开始编译
编译完成应输出
7.检查TF是否能用
3 - 踩坑记录
3.1 cuda.0在编译时不支持sm_
笔者最初选择的docker是cuda.0的,在bazel build --config=cuda //tensorflow/tools/pip_package:build_pip_package过程中出现了错误。所以之后选择了上面提到的cuda.3的docker。
3.2 问题2: numpy、TF、python版本匹配
在配置过程中,发现numpy、TF、python版本需要匹配,否则会出现错误。
4 - 启示
从源码编译Tensorflow2.6.5的过程,虽然经历了多次失败,但最终还是成功。这个过程也让我对Tensorflow的编译流程有了更深入的了解,同时也提醒我在后续的工作中要注意版本匹配问题。
chromium 源码编译
深入探索 Chromium 源码编译的全过程,从理解 Chrome 浏览器与 Chromium 项目的关联,到分析浏览器源码在 Android 系统中的应用,揭示了 Chromium 不仅是浏览器内核,更是一个大型 C++ 项目的典型案例。
阅读官方文档是学习和编译 Chromium 源码的基础,文档对于编译流程提供了详细的指引,但实际操作中仍可能出现诸多挑战。为了确保编译环境的一致性和复现性,使用 Docker 构建环境成为一种可行的选择。官方文档虽未明确推荐特定版本的 Ubuntu Docker,作者选择使用 . 版本,但在后续的实践过程中发现,这并非最佳选项。
编译 Chromium 源码的准备工作涉及一系列依赖包的安装,包括 Git、Python、wget 等。面对网络不稳定或下载速度慢的问题,建议采用梯子辅助,确保下载过程顺畅。在编译过程中,网络中断时可重复执行相关命令直至代码下载完成。当遇到编译失败时,需要对错误信息进行细致分析,以便解决问题。
编译 Chromium 源码时,编码问题和版本兼容性是常见的挑战。对于编码问题,修改默认的字符集设置(例如使用 UTF-8)可有效解决。数据类模块(dataclasses)的缺失则要求升级 Python 版本或安装相应的库。在进行编译时,了解依赖库的信息,如使用 ldd 命令检查库的存在与否,有助于解决相关问题。
在编译过程中,可能遇到 位库缺失和运行时依赖库未安装的情况。针对这些问题,通过安装对应库(如 libnss3)可解决依赖不足的问题。此外,确保在编译时选用适当的架构(如 x)和合适的包名对于兼容性至关重要。
编译完成的 Chromium 源码需要通过 adb(Android Debug Bridge)工具与 Android 设备进行交互。在使用 Docker 环境时,adb 的可用性是一个挑战,可以参考特定指南解决该问题。确保虚拟机以可写模式启动,并遵循官方文档的步骤进行预安装 webview 的移除和重新安装,以适应编译后的 webview 版本。
在编译后,可以将 Chromium 作为本地浏览器使用,或通过编译生成的 shell 功能在特定场景下应用。对于有志于深入研究和优化 Chromium 源码的开发者,了解如何在设备端部署和运行编译后的 webview,以及掌握一些调试技巧,将有助于进一步提升项目性能和用户体验。
UE4:源码编译与编辑器生成项目的区别
UE4源码编译与编辑器生成项目的区别主要体现在 uproject和sln文件上。
首先,编辑器生成的项目文件(uproject)会使用版本号来明确关联使用的引擎版本,这种关联方式直观且易于识别。例如,文件名会包含版本号,如"Project_v1.0.0.uproject",这样可以轻松知道项目的引擎对应版本。
相反,源代码编译的项目文件使用的是全局唯一标识符(GUID),以表示本地引擎的版本。这意味着在不同的PC上,即使使用相同的引擎,生成的uproject文件的GUID也会不同,这是为了区分本地环境的差异。
其次,sln文件(解决方案文件)之间的差异主要在于其中包含的UE4解决方案的绝对路径。这部分内容是编辑器生成的,而源码编译项目则不会包含这些特定的路径信息,因为它们是由开发人员手动构建的。
总结来说,编辑器生成的项目文件更侧重于版本管理和引擎关联,而源码编译则更注重项目的自定义和跨平台一致性。两者在结构和内容上有所不同,以满足不同开发阶段的需求。