当前位置: 首页 > article >正文

《使用Python将Excel数据批量写入MongoDB数据库》

        在数据分析及处理过程中,我们经常需要将数据写入数据库。而MongoDB作为一种NoSQL数据库,其具有强大的可扩展性、高性能以及支持复杂查询等特性,广泛用于大规模数据存储和分析。在这篇文章中,我们将使用Python编写一个将Excel数据批量写入MongoDB的脚本,以便更加高效地管理数据。

        首先,我们需要先安装必要的依赖包,即pandas和pymongo。在安装完毕后,我们可以使用如下代码连接到MongoDB数据库:

import pandas as pd
from pymongo import MongoClient, UpdateOne

# 连接到MongoDB数据库
client = MongoClient('mongodb://localhost:27017/')
db = client['pms']
collection = db['hospital']

        在连接到数据库之后,我们需要读取Excel文件,并对数据进行初步的处理。在这里,我们使用pandas库来读取Excel数据,然后使用一些函数对数据进行清洗和转换:

# 读取Excel文件
excel_file = 'D:/下载/各省数据 - 副本/20230407北京各事业部用户客户数据汇总.xls'
df = (
    pd.read_excel(excel_file, skiprows=4, sheet_name='101')
    .iloc[0:-3]  # 删除倒数3行
    .iloc[:, 2:]  # 删除前俩列
    .drop(columns=['备注'])   # 删除最后1列
    .fillna({'护士': 0})  # 用指定的值填充缺失值
    .ffill()  # 填充空值
    .assign(  # 拆分序列
        医院名称=lambda x: x['医院名称'].str.split("\n"),
        科室=lambda x: x['科室'].ffill().apply(int),    # 转换类型
        床位=lambda x: x['床位'].ffill().apply(int),    # 转换类型
    )
)

        其中,我们使用了一些pandas的函数,如fillna、ffill、drop、assign等来对数据进行处理。处理完成后,我们将数据转换为列表形式,并使用一个字典来将数据按照医院进行分组:

data_list = df.values.tolist()
hospitals = {}
for result in data_list:
    hospital_name = result[0][0]
    if hospital_name not in hospitals:
        hospitals[hospital_name] = {
            'hospital': result[0][0],
            'department': result[1],
            'bed': result[2],
            'doctor': [result[3]],
            'nurse': [result[4]],
        }
    else:
        if result[3] not in hospitals[hospital_name]['doctor']:
            hospitals[hospital_name]['doctor'].append(result[3])
        if result[4] != 0 and result[4] not in hospitals[hospital_name]['nurse']:
            hospitals[hospital_name]['nurse'].append(result[4])

        在生成字典之后,我们需要将数据批量写入MongoDB数据库中。这里使用了pymongo库的bulk_write函数,它能够高效地批量添加、修改和删除数据:

# 批量添加或更新数据
operations = []
for data in hospitals.values():
    operations.append(
        UpdateOne({'hospital': data['hospital']}, {'$set': data}, upsert=True)
    )
result = collection.bulk_write(operations)
print(f'添加或更新数据完毕,共执行 {result.modified_count + result.upserted_count} 项操作。')

        最后,我们可以通过运行这些代码来将Excel数据批量写入MongoDB数据库。这种方法极大地提高了数据管理的效率,使我们能够更好地处理数据,更好地进行数据分析。

        综上所述,本篇文章介绍了一个简单的Python脚本,可将Excel数据批量写入MongoDB数据库。这个方法不仅高效,而且易于操作,非常适合处理大规模数据。


http://www.kler.cn/a/147878.html

相关文章:

  • SQL中的时间类型:深入解析与应用
  • Spring Boot实现文件上传与OSS集成:从基础到应用
  • 【vue2.0入门】vue基本语法
  • AutoCad 无界面开发
  • 知识图谱6:neo4j查询语句
  • Springboot集成syslog+logstash收集日志到ES
  • C++(20):通过remove_cvref_t退化类型
  • 自动化部署 扩容openGauss —— Ansible for openGauss
  • 文件上传绕过
  • 设计模式篇---外观模式
  • 搜索的剪枝
  • 论文阅读:“Appearance Capture and Modeling of Human Teeth”
  • 【复杂网络建模】——ER网络度分布、无标度网络度分布
  • centos 7.7 安装Python-3.7.4
  • 华为云编译构建CodeArts Build常见问答汇总
  • VMware系列:此平台不支持虚拟化 Intel-VT-x/EPT 或 AMD-V/RVI
  • 编译器设计02-前端概述
  • .c怎么转.exe?10000字长文带你深剖编译过程!
  • Vatee万腾科技新高峰:Vatee前瞻性创新的数字化之力
  • 西南科技大学电路分析基础实验A1(元件伏安特性测试 )
  • 播放器开发(三):FFmpeg与SDL环境配置
  • 村村通工程(Prim算法)/最小生成树Prim算法【数据结构】
  • Android : SQLite 增删改查—简单应用
  • F5社区学习心得分享:如何克服云迁移挑战?
  • C#文件流FileStream类
  • GEE教程——提取NASA NEX-GDDP 数据中的指定时间范围内的pr数据(含超限提示)