蓝布编程网

分享编程技术文章,编程语言教程与实战经验

微调 Llama 3:通过LLM提高医学问答的准确性

翻译自:“Fine-Tuning Llama 3: Enhancing Accuracy in Medical Q&A With LLMs”

原文链接:
https://labelstud.io/blog/fine-tuning-llama-3-enhancing-accuracy-in-medical-q-and-a-with-llms/ 翻译的过程中有调整。

微调 YOLOv12:与 YOLOv11 和基于Darknet的 YOLOv7 的比较

本文部分编译自:Fine-Tuning YOLOv12: Comparison with YOLOv11 & DarkNet-Based YOLOv7,作者:Shubham,March 11, 2025

一文彻底搞懂如何利用kaggle训练yolov5模型

笔者的运行环境:python3.8+pytorch2.0.1+pycharm+kaggle。

24小时驯服AI!零基础调教DeepSeek教程

你是否好奇DeepSeek如何变身行业专家? 想用1台家用显卡训练AI安全卫士? 本文带你解锁大模型微调黑科技!

TensorFlow 1.3的Datasets和Estimator知多少?谷歌大神来解答

图:pixabay

原文来源:Google Developers Blog

作者:TensorFlow团队

「机器人圈」编译:嗯~阿童木呀、多啦A亮

在TensorFlow 1.3版本里面有两个重要的特征,你应该好好尝试一下:

o数据集(Datasets):一种创建输入流水线的全新方法(即将数据读取到程序中)。

o评估器(Estimator):一种创建TensorFlow模型的高级方法。评估器包括用于常见机器学习任务的预制模型,当然,你也可以使用它们来创建你的自定义模型。

pyspark on jupyterlab环境搭建

前言

  • pyspark是spark分布式计算python语言开发的类库,数据开发人员通过pyspark来使用spark进行计算;
  • jupyerlab是jupyter的升级版本,基于jupyter notebook使得数据开发更方便;
  • 下面基于已有的spark环境搭建pyspark on jupyterlab开发环境,构建自己的notebook开发环境~

完全基于 Java 的开源深度学习平台,亚马逊的大佬带你上手

本文适合有 Java 基础的人群

作者:DJL-Lanking

HelloGitHub 推出的《讲解开源项目》系列。有幸邀请到了亚马逊 + Apache 的工程师:Lanking,为我们讲解 DJL —— 完全由 Java 构建的深度学习平台。

Python 3.14 新特性盘点,更新了些什么?

Python 3.14.0 稳定版将于 2025 年 10 月正式发布,目前已进入 beta 测试阶段。这意味着在往后的几个月里,3.14 的新功能已冻结,不再合入新功能(除了修复问题和完善文档)。

3.14 正好是圈周率 π 的前几位,所以我们将要迎来的其实是一个“圆满”的版本

本文想梳理这个版本中一些值得关注的新特性,让我们先睹为快吧~

用于复古图像着色的5个开源Python工具

#头条创作挑战赛#

成千上万的老式照片和电影是在彩色图像还没有出现的年代拍摄的。如今,在深度学习的帮助下,我们可以为这些图片着色,使它们更接近原来的样子。

详解 jupyter notebook 集成 spark 环境安装

来自:

1 相关介绍

    jupyter notebook是一个Web应用程序,允许你创建和分享,包含活的代码,方程的文件,可视化和解释性文字。用途包括:数据的清洗和转换、数值模拟、统计建模、机器学习和更多。支持40多中语言。python ,R,go,scala等。
    Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。   
    Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。
    Spark 是在 Scala 语言中实现的,它将 Scala 用作其应用程序框架。与 Hadoop 不同,Spark 和 Scala 能够紧密集成,其中的 Scala 可以像操作本地集合对象一样轻松地操作分布式数据集。
    尽管创建 Spark 是为了支持分布式数据集上的迭代作业,但是实际上它是对 Hadoop 的补充,可以在 Hadoop 文件系统中并行运行。通过名为 Mesos 的第三方集群框架可以支持此行为。Spark 由加州大学伯克利分校 AMP 实验室 (Algorithms, Machines, and People Lab) 开发,可用来构建大型的、低延迟的数据分析应用程序。
    大致了解后,就开始看看怎么搭建这样一个集成的环境吧。
    
<< 1 >>
控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言