获取代码:
git clone https://github.com/ggml-org/llama.cpp
cd llama.cpp
CPU 构建
使用以下方法构建 llama.cpp CMake
:
cmake -B build
cmake –build build –config Release
如果用Cmake,则如下图。

其中LIB_CURL可能需要手动配置include和lib目录。但是不知道为什么include如何设置都不对。lib可以。
最终我还是取消了curl模块的支持。目前不清楚最终效果有哪些差异。
使用VS2022, 上述形成项目,如下图。

我们选择编译Release,最终全部成功。输出目录
如下图:

最终的输出目录如下图

include目录。

Paragoger衍生者AI训练营。发布者:稻草人,转载请注明出处:https://www.shxcj.com/archives/9754