当前位置: 首页 > article >正文

机器学习:朴素贝叶斯

概率

1.1 定义

概率表示随机事件发生可能性大小的一个数值,随机事件指在相同条件下,可能出现也可能不出现的事件。例如:

  • 抛硬币: 当我们抛硬币时,可以正面朝上也可以反面朝上,正面或反面朝上的可能性被称为概率。理想状态下正反概率都是0.5。
  • 掷骰子: 掷一个六面的骰子,每个点出现的概率是1/6,因为每个面出现的机会是均等的。
  • 抽取商品: 一批商品包含良品和次品,随机抽取一件,抽取良品或次品是一个随机事件,经过大量实验,我们可以得到一个常数,表示抽取次品的概率
    我们可以将随机事件记为A或B,则P(A),P(B)表示事件A或B的概率。例如,P(A)可以表示抽到次品的概率。
1.2 联合概率
  • 定义:联合概率是指两个或多个事件同时发生的概率。
  • 计算公式:P(A and B) = P(A) * P(B|A)
  • 示例:掷骰子时,得到2点并且骰子是偶数的概率为1/6。
1.3 条件概率
  • 定义:在事件B发生的情况下,事件A发生的概率。
  • 计算公式:P(A|B) = P(A and B) / P(B)
  • 示例:已知下雨时,带伞的概率为0.8。
1.4 先验概率
  • 定义:在没有新的信息的情况下,某个事件的初始概率。
  • 示例:人群中某疾病的发病率是1%,即P(患病)=0.01。
1.5 后验概率
  • 定义:在获得新的信息(如检测结果)后,更新后的某个事件的概率。
  • 计算公式:P(A|B) = [P(B|A) * P(A)] / P(B)
  • 示例:检测为阳性时,实际患病的概率约为16%。

朴素贝叶斯原理与概念

1. 贝叶斯定理:

  • 定义: 贝叶斯定理是概率论中的一个基本定理,描述了在已知某些条件下某一事件发生的概率。公式表示为:
    P ( A ∣ B ) = P ( B ∣ A ) × P ( A ) P ( B ) P(A|B) = \frac{P(B|A) \times P(A)}{P(B)}


http://www.kler.cn/a/545828.html

相关文章:

  • 指标+大模型,构建更全、更准、更快的数据分析体验
  • Java中关于JSON的基本使用
  • Linux 系统中,进程间通信机制
  • DedeBIZ系统审计小结
  • 关于多语言商城系统的开发流程
  • 基于Flask的全国婚姻关系数据可视化分析系统的设计与实现
  • Linux CAN编程——SocketCAN读写CAN数据
  • 华为昇腾部署 DeepSeek-R1 (671B) 大模型实战指南
  • ES的典型架构图及其核心组件
  • 网络安全之攻防笔记--web安全攻防
  • 基于Python、使用`pandas`库和`Brightway2`库实现根据Excel表格某一列内容与数据库进行匹配
  • 【Uniapp】关于实现下拉刷新的三种方式
  • 中国通信企业协会 通信网络安全服务能力评定 证书使用说明
  • 从零开始学Python爬虫:(一)爬虫前言
  • 微信小程序请求大模型监听数据块onChunkReceived方法把数据解析成json
  • 网络安全架构师怎么考 网络安全 架构
  • 如何解决ChatGPT API响应慢的问题
  • Git 建立远端仓库并push
  • Node.js入门篇
  • docker-compose.yml 详细教学