当前位置: 首页 > article >正文

用户点击商品埋点的实现方案

在高并发、可扩展性和高可用性的前提下,实现用户点击商品的埋点,方案应包括 数据采集、数据传输、数据存储和数据分析 四个主要环节。下面是一个完整的埋点实现方案:

1. 方案架构

整体流程:

  1. 前端埋点:用户点击商品时,前端(Web/APP)触发埋点事件并上报数据。
  2. 后端接收:后端提供 API 接收埋点数据,并进行基础校验和格式化。
  3. 消息队列(Kafka/RabbitMQ):后端将埋点数据异步写入 Kafka,解耦流量压力,保证高吞吐。
  4. 数据存储:
    • 实时分析:使用 Flink/Spark Streaming 订阅 Kafka,实时处理点击数据。
    • 离线存储:埋点数据写入 Elasticsearch(ES) 用于查询,或者 Hadoop/Hive 进行离线分析。
  5. 数据分析:使用 Flink/Spark + ClickHouse/Hive 分析商品点击数据,供业务使用(如推荐系统、用户行为分析)。

2. 具体实现

(1) 前端埋点(Web & App)

前端可以采用手动埋点或者无埋点方案:

  • 手动埋点:前端在商品详情页点击事件中手动上报数据。
  • 自动埋点:使用 SDK 监听所有 click 事件,并自动收集数据。

示例(Web 前端埋点代码):

document.getElementById('product').addEventListener('click', function() {
    let clickData = {
        userId: getUserId(),
        productId: getProductId(),
        timestamp: new Date().getTime(),
        pageUrl: window.location.href,
        userAgent: navigator.userAgent
    };

    navigator.sendBeacon('/track/click', JSON.stringify(clickData));
});
// navigator.sendBeacon 适用于埋点请求,不会阻塞页面跳转。

(2) 后端埋点 API(Java SpringBoot)

后端提供一个 API 来接收埋点数据,并将其写入 Kafka。

@RestController
@RequestMapping("/track")
public class TrackingController {
    
    @PostMapping("/click")
    public ResponseEntity<String> trackClick(@RequestBody ClickEvent event) {
        // 校验数据
        if (event.getUserId() == null || event.getProductId() == null) {
            return ResponseEntity.badRequest().body("Invalid parameters");
        }
        
        // 异步处理,将数据写入 Kafka
        KafkaTrackingService.trackClick(event);
        
        return ResponseEntity.ok("Click event tracked successfully");
    }
}

优化点:

  • 请求校验:检查 userId、productId 是否为空,防止垃圾数据。
  • 异步处理:埋点 API 只负责接收请求,数据处理交给 Kafka,提高系统吞吐量。

(3) 使用 Kafka 进行高并发数据存储

Kafka 适用于高吞吐数据流,将埋点数据写入 Kafka,保证系统的解耦和可扩展性。

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import java.util.Properties;

public class KafkaTrackingService {
    private static KafkaProducer<String, String> producer;

    static {
        Properties props = new Properties();
        props.put("bootstrap.servers", "localhost:9092");
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        producer = new KafkaProducer<>(props);
    }

    public static void trackClick(ClickEvent event) {
        String message = event.getUserId() + "," + event.getProductId() + "," + event.getTimestamp();
        producer.send(new ProducerRecord<>("click-events", event.getUserId(), message));
    }
}

Kafka 优势:

  • 高吞吐、低延迟:Kafka 可以处理百万级 TPS 的数据写入。
  • 持久化日志:保证埋点数据不会丢失。

(4) 数据消费(Flink 实时计算 + Elasticsearch 查询)

Kafka 数据可以被 Flink/Spark Streaming 订阅,进行实时数据分析,并写入 Elasticsearch 供查询。
使用 Flink 消费 Kafka 并写入 ES

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();

// 读取 Kafka 数据流
FlinkKafkaConsumer<String> kafkaConsumer = new FlinkKafkaConsumer<>(
        "click-events",
        new SimpleStringSchema(),
        properties
);
DataStream<String> clickStream = env.addSource(kafkaConsumer);

// 解析数据并写入 Elasticsearch
clickStream.map(event -> {
    String[] fields = event.split(",");
    Map<String, String> jsonMap = new HashMap<>();
    jsonMap.put("userId", fields[0]);
    jsonMap.put("productId", fields[1]);
    jsonMap.put("timestamp", fields[2]);
    return jsonMap;
}).addSink(new ElasticsearchSink.Builder<>(esHosts, esSinkFunction).build());

env.execute();

为什么用 Flink?

  • 实时计算:可以在毫秒级别计算点击热度。
  • 无界数据流:适用于埋点这种持续流数据。

(5) 数据查询(Elasticsearch)

商品点击量可以在 ES 中查询,支持实时查询和聚合分析:

GET click-tracking/_search
{
  "query": {
    "match": {
      "productId": "12345"
    }
  },
  "aggs": {
    "click_count": {
      "value_count": {
        "field": "productId"
      }
    }
  }
}

这样可以快速获取商品点击数,提供给热门商品推荐系统。

3. 方案优势

方案 优点
前端上报(sendBeacon) 低延迟,不影响用户体验

方案优点
前端上报(sendBeacon)低延迟,不影响用户体验
Kafka 消息队列解耦系统,支持高并发写入
Flink 实时计算毫秒级分析,支持实时推荐
Elasticsearch 查询支持秒级查询商品点击数据

4. 总结

  • 前端埋点:采用 sendBeacon 异步上报埋点数据,避免阻塞用户操作。
  • 后端接收:SpringBoot 提供 API,数据写入 Kafka,保证高并发吞吐。
  • Kafka 处理:解耦埋点数据,支持多消费者(Flink、Spark)。
  • Flink 实时计算:从 Kafka 读取数据,实时分析用户点击行为。
  • ES 存储:支持快速查询,满足热门商品推荐、用户行为分析等需求。

这套方案能够满足高并发、实时分析、灵活扩展的要求


http://www.kler.cn/a/536486.html

相关文章:

  • 额外题目汇总2-链表
  • YOLOv11-ultralytics-8.3.67部分代码阅读笔记-files.py
  • 玩转Docker | 使用Docker部署httpd服务
  • DeepSeek LLM(初代)阅读报告
  • 集成Google Maps页面提示[For development purposes only]解决方案
  • SpringBoot的工作原理
  • 跨平台App开发,有哪些编程语言和工具,比较一下优劣势?
  • STM32的HAL库开发-通用定时器输入捕获实验
  • 【电商系统架构的深度剖析与技术选型】
  • 基于SpringBoot养老院平台系统功能实现五
  • MySQL三大日志——binlog、redoLog、undoLog详解
  • RAG:知识库参数设置
  • .NET Framework和.NET Core的区别
  • 深度学习入门:搭建你的第一个神经网络
  • 群晖NAS如何通过WebDAV和内网穿透实现Joplin笔记远程同步
  • Python----Python高级(并发编程:协程Coroutines,事件循环,Task对象,协程间通信,协程同步,将协程分布到线程池/进程池中)
  • 如何在Windows 8.1上配置并使用Hyper-V功能
  • Qwen2-VL-2B-Instruct 模型 RK3576 板端部署过程
  • 821 简答题整理【笔记】
  • CosyVoice /F5-TTS /GPT-SoVITS /Fish-Speech 开源语音克隆与文本转语音(TTS)项目的对比整理
  • 探索前端框架的未来:Svelte 的崛起
  • Fiddler Classic(HTTP流量代理+半汉化)
  • 【AI】在Ubuntu中使用docker对DeepSeek的部署与使用
  • 11 享元(Flyweight)模式
  • 亚博microros小车-原生ubuntu支持系列:24 巡线驾驶
  • 如何导入第三方sdk | 引入第三方jar 包