当前位置: 首页 > article >正文

机理模型与数据模型融合的方式

机理模型与数据模型的融合旨在结合两者的优势,以提供更准确、可靠的预测和决策支持。以下是几种常见的融合方式及其示例:

1. 特征增强(Feature Augmentation)

描述:将由机理模型计算得到的结果作为额外特征加入到数据模型中。

示例:在风电场发电量预测的例子中,可以使用贝茨理论计算出的理论发电量作为一个新特征添加到包含风速、温度等环境变量的数据集中。然后,使用这些增强后的特征训练机器学习模型,如随机森林或神经网络模型。

特征增强(Feature Augmentation)在风电场发电量预测中的应用

背景介绍

风电场的发电量受到多种因素的影响,包括但不限于风速、温度、空气密度等。尽管这些环境变量可以直接测量并用作模型输入,但它们与发电量之间的关系往往是复杂的非线性关系。通过引入基于物理定律计算出的理论发电量作为额外特征,可以为数据驱动模型提供更丰富的信息,从而提高预测精度。

在这个案例中,我们将使用贝茨理论(Betz Limit)来计算风电场的理论发电量,并将其作为一个新的特征添加到数据集中。然后,我们使用增强后的数据集训练一个简单的神经网络模型来进行发电量预测。

实现步骤

  1. 定义机理模型:根据贝茨理论计算风电场的理论发电量。
  2. 准备数据集:创建一个包含风速、温度等环境变量的数据集,并使用机理模型计算理论发电量。
  3. 构建和训练神经网络模型:使用PyTorch构建神经网络模型,并利用增强后的数据集进行训练。

代码实现

import numpy as np
import torch
import torch.nn as nn
import torch.optim as optim
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler

# 假设我们有一个包含风速、温度等环境变量的数据集
np.random.seed(42)
data_size = 1000
wind_speed = np.random.uniform(3, 25, data_size)  # 风速 m/s
temperature = np.random.uniform(-10, 30, data_size)  # 温度 °C
air_density = 1.225 * (1 - 0.0065 * temperature / (temperature + 273.15))  # 空气密度 kg/m^3
actual_power_output = wind_speed ** 3 * np.random.uniform(0.2, 0.4, data_size)  # 实际发电量 kW

# 根据贝茨理论计算理论发电量 P = 0.5 * rho * A * v^3 * Cp
blade_radius = 50  # 叶片半径 m
swept_area = np.pi * blade_radius ** 2  # 扫掠面积 m^2
cp_max = 0.593  # 贝茨极限效率
theoretical_power_output = 0.5 * air_density * swept_area * wind_speed ** 3 * cp_max  # 理论发电量 kW

# 准备数据集
X = np.column_stack((wind_speed, temperature, theoretical_power_output))  # 包含理论发电量作为新特征
y = actual_power_output

# 数据标准化
scaler = StandardScaler()
X_scaled = scaler.fit_transform(X)

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X_scaled, y, test_size=0.2, random_state=42)

# 将numpy数组转换为torch tensor
X_train_torch = torch.tensor(X_train, dtype=torch.float32)
y_train_torch = torch.tensor(y_train, dtype=torch.float32).view(-1, 1)
X_test_torch = torch.tensor(X_test, dtype=torch.float32)
y_test_torch = torch.tensor(y_test, dtype=torch.float32).view(-1, 1)

# 构建神经网络模型
class PowerPredictionModel(nn.Module):
    def __init__(self):
        super(PowerPredictionModel, self).__init__()
        self.fc1 = nn.Linear(3, 64)
        self.fc2 = nn.Linear(64, 64)
        self.fc3 = nn.Linear(64, 1)
    
    def forward(self, x):
        x = torch.relu(self.fc1(x))
        x = torch.relu(self.fc2(x))
        return self.fc3(x)

model = PowerPredictionModel()
criterion = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 训练模型
epochs = 1000
for epoch in range(epochs):
    optimizer.zero_grad()
    outputs = model(X_train_torch)
    loss = criterion(outputs, y_train_torch)
    loss.backward()
    optimizer.step()

    if (epoch+1) % 100 == 0:
        print(f'Epoch [{epoch+1}/{epochs}], Loss: {loss.item():.4f}')

# 测试模型
model.eval()
with torch.no_grad():
    predictions = model(X_test_torch)
    test_loss = criterion(predictions, y_test_torch)
    print(f'Test Loss: {test_loss.item():.4f}')

# 绘制结果
import matplotlib.pyplot as plt

plt.scatter(y_test, predictions.numpy())
plt.xlabel('Actual Power Output (kW)')
plt.ylabel('Predicted Power Output (kW)')
plt.title('Actual vs Predicted Power Output')
plt.plot([min(y_test), max(y_test)], [min(y_test), max(y_test)], color='red')  # 对角线
plt.show()

解释

  • 数据生成:我们首先生成了一个包含风速、温度等环境变量的随机数据集,并根据这些变量计算了实际发电量和理论发电量。这里假设实际发电量与风速的三次方成正比,系数在0.2到0.4之间变化,以模拟不同条件下的发电效率。

  • 特征增强:将由贝茨理论计算得出的理论发电量作为一个新的特征添加到数据集中。这样做的目的是为了给机器学习模型提供更多关于发电过程的信息,帮助其更好地理解输入特征与输出目标之间的关系。

  • 模型构建:使用PyTorch构建了一个简单的三层全连接神经网络模型,用于预测风电场的实际发电量。该模型包括两个隐藏层,每层有64个神经元,激活函数使用ReLU。

  • 训练与评估:对模型进行了1000次迭代的训练,并每隔100次打印一次损失值。最后,在测试集上评估了模型的性能,并绘制了实际值与预测值的对比图。

这种方法不仅结合了物理原理提供的先验知识,还利用了数据驱动的方法来捕捉复杂模式,从而提高了模型的预测能力。这对于解决实际工程问题具有重要意义。

2. 残差修正(Residual Correction)

描述:首先使用机理模型进行初步预测,然后利用数据模型对预测误差(即残差)进行建模和修正。

示例:假设有一个用于预测化工反应产物浓度的机理模型。该模型可能由于某些未被充分理解的因素而存在系统性偏差。可以通过收集实际产物浓度的历史数据,并使用回归分析或其他统计方法来构建一个修正模型,专门用来调整原始机理模型的输出,以减少预测误差。

残差修正(Residual Correction)在化工反应产物浓度预测中的应用

背景介绍

在化工生产过程中,准确预测化学反应的产物浓度对于优化工艺条件、提高产品质量和降低生产成本至关重要。尽管基于物理和化学原理建立的机理模型能够提供对反应过程的基本理解,但由于实际操作中存在复杂的非理想因素(如温度波动、杂质影响等),这些模型往往会产生一定的系统性偏差。为了提高预测精度,可以通过收集实际数据并利用数据驱动的方法对机理模型的预测误差进行修正。

具体步骤
  1. 构建机理模型

根据化学反应的动力学方程和热力学原理,建立一个描述反应过程的机理模型。例如,假设有一个连续搅拌釜式反应器(CSTR),其产物浓度 C_p $可以通过如下方程计算:
d C p d t = k ( T ) [ C in − C p ] − D C p \frac{dC_p}{dt} = k(T) [C_{\text{in}} - C_p] - D C_p dtdCp=k(T)[CinCp]DCp
其中,
\begin{itemize}
\item $ k(T) $ 是温度依赖的反应速率常数;
\item $ C_{\text{in}} $ 是进料浓度;
\item $ D $ 是稀释率。
\end{itemize}

  1. 初步预测与误差分析

    • 使用上述机理模型对一系列历史工况下的产物浓度进行预测,并记录预测值 ( P_{mech} )。
    • 同时收集对应时间段内实际测量的产物浓度 ( P_{actual} ),计算每个时间点的预测误差(即残差) ( E = P_{actual} - P_{mech} )。
  2. 构建残差修正模型

    • 选择合适的机器学习算法来建模残差。常用的算法包括线性回归、支持向量机(SVM)、随机森林或神经网络等。
    • 输入特征可以包括但不限于:
      • 原始机理模型的输入参数(如温度、压力、进料浓度等)。
      • 机理模型的预测结果 ( P_{mech} )。
      • 其他可能影响残差的因素(如设备运行状态、环境条件等)。
    • 目标变量是计算得到的残差 ( E )。

目标变量是计算得到的残差 E,定义为实际值与机理模型预测值之差:
E = P actual − P mech E = P_{\text{actual}} - P_{\text{mech}} E=PactualPmech

  1. 训练与验证

    • 划分数据集为训练集和测试集,通常按照70%训练集和30%测试集的比例。
    • 使用训练集训练选定的数据模型,目标是最小化预测残差与实际残差之间的差异。
    • 在测试集上评估模型性能,常用指标包括均方误差(MSE)、平均绝对误差(MAE)等,确保模型具有良好的泛化能力。
  2. 集成模型部署

    • 将机理模型与残差修正模型结合起来,形成一个集成预测系统。具体做法是在每次进行产物浓度预测时,首先使用机理模型得出初步预测值,然后利用残差修正模型对该预测值进行调整。

集成后的预测公式可以表示为:
P final = P mech + E predicted P_{\text{final}} = P_{\text{mech}} + E_{\text{predicted}} Pfinal=Pmech+Epredicted
其中,

P mech P_{\text{mech}} Pmech 是最终的产物浓度预测值;
E predicted E_{\text{predicted}} Epredicted 是由残差修正模型预测得到的残差。

  1. 持续改进
    • 定期收集新的实际数据,重新训练残差修正模型,以适应生产工艺的变化或发现新的影响因素。
    • 分析模型输出,识别出哪些因素对残差的影响最大,为进一步优化机理模型提供依据。
效果评估

通过采用残差修正方法,不仅能够利用机理模型提供的理论基础,还能借助数据驱动的方法捕捉到那些难以用物理定律精确描述的实际复杂性。这种方法有效地减少了预测误差,提高了产物浓度预测的准确性。这对于化工生产的实时监控和优化控制具有重要意义,有助于提高生产效率、降低成本并保证产品质量的一致性。

3. 联合建模(Hybrid Modeling)

描述:直接将机理方程嵌入到数据驱动模型中,形成混合模型结构。

示例:在一个热力学过程控制案例中,可以将描述能量转换和传递的基本物理定律(如热传导方程)集成到神经网络架构中,创建所谓的“物理信息神经网络”(PINNs)。这种方法不仅考虑了已知的物理约束,还能通过学习识别复杂模式来提高模型的预测能力。
使用PyTorch实现物理信息神经网络(PINNs)来解决类似的热传导问题,可以按照以下步骤进行。我们将构建一个简单的二维稳态热传导问题模型,并训练它以满足给定的边界条件和物理方程。

首先,请确保安装了必要的库:

pip install torch numpy matplotlib

然后,按照下面的步骤编写代码:

1. 导入必要的库

import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt

2. 定义物理方程损失函数

我们将定义一个函数来计算拉普拉斯方程 (\nabla^2 T = 0) 的残差。

def pde_residual(inputs, outputs):
    """
    计算物理方程的残差
    :param inputs: 输入数据 (x, y)
    :param outputs: 神经网络输出 (T)
    :return: 残差
    """
    x = inputs.requires_grad_(True)
    T = outputs
    
    grads = torch.autograd.grad(T.sum(), x, create_graph=True)[0]
    dT_dx, dT_dy = grads[:, 0], grads[:, 1]

    # 计算二阶导数
    d2T_dx2 = torch.autograd.grad(dT_dx.sum(), x, create_graph=True)[0][:, 0]
    d2T_dy2 = torch.autograd.grad(dT_dy.sum(), x, create_graph=True)[0][:, 1]

    return d2T_dx2 + d2T_dy2

3. 构建神经网络模型

class PINN(nn.Module):
    def __init__(self):
        super(PINN, self).__init__()
        self.net = nn.Sequential(
            nn.Linear(2, 20),
            nn.Tanh(),
            nn.Linear(20, 20),
            nn.Tanh(),
            nn.Linear(20, 1)
        )
    
    def forward(self, x):
        return self.net(x)

4. 准备训练数据并定义损失函数

model = PINN()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)

# 边界条件样本
boundary_points = torch.tensor([[0, y] for y in np.linspace(0, 1, 10)] +
                               [[1, y] for y in np.linspace(0, 1, 10)] +
                               [[x, 0] for x in np.linspace(0, 1, 10)] +
                               [[x, 1] for x in np.linspace(0, 1, 10)], dtype=torch.float32)

boundary_values = torch.sin(np.pi * boundary_points[:, 0])  # 假设边界条件

# 内部点样本
internal_points = torch.rand((100, 2), requires_grad=True)

def train_step(internal_points, boundary_points):
    optimizer.zero_grad()

    predictions_internal = model(internal_points)
    predictions_boundary = model(boundary_points)

    # 物理方程损失
    physics_loss = torch.mean(torch.square(pde_residual(internal_points, predictions_internal)))

    # 边界条件损失
    boundary_loss = torch.mean(torch.square(predictions_boundary - boundary_values))

    total_loss = physics_loss + boundary_loss
    total_loss.backward()
    optimizer.step()

    return total_loss.item()

5. 训练模型

epochs = 2000
for epoch in range(epochs):
    loss_value = train_step(internal_points, boundary_points)
    if epoch % 100 == 0:
        print(f"Epoch {epoch}, Loss: {loss_value}")

6. 测试模型

test_x, test_y = np.mgrid[0:1:10j, 0:1:10j]
test_points = np.vstack([test_x.ravel(), test_y.ravel()]).T
test_points = torch.tensor(test_points, dtype=torch.float32)

predictions = model(test_points).detach().numpy().reshape(10, 10)

plt.imshow(predictions, extent=[0, 1, 0, 1], origin='lower', cmap='jet')
plt.colorbar(label='Temperature')
plt.title('Predicted Temperature Distribution')
plt.show()

这段代码展示了如何使用PyTorch实现一个简单的物理信息神经网络(PINN),用于解决二维稳态热传导问题。通过结合物理定律(在这里是拉普拉斯方程)和神经网络的学习能力,我们可以更准确地预测温度分布。实际应用中可能需要根据具体情况调整网络结构、损失函数以及训练策略。

4. 多模型融合(Ensemble Methods)

描述:同时运行多个独立的机理模型和数据模型,并通过某种策略(如加权平均、投票机制等)综合它们的输出结果。

示例:对于气象预报中的降雨量预测,可以采用一个基于物理定律的大气动力学模型与多个基于历史数据训练的不同类型机器学习模型(如SVM, RF, ANN等)。最终预测值可以通过对所有模型预测结果的加权平均得出,权重可以根据各模型在过去的表现动态调整。
为了增加一个基于物理定律的机理模型到上述多模型融合的例子中,我们需要定义一个模拟大气动力学行为的简单机理模型。由于实际的大气动力学模型可能非常复杂且难以直接实现,这里我们将创建一个简化的“伪”大气动力学模型,该模型基于一些假设和简单的物理关系来预测降雨量。

代码

我们将引入一个简化版的机理模型,并将其集成到现有的多模型融合框架中。

import numpy as np
from sklearn.ensemble import RandomForestRegressor
from sklearn.svm import SVR
from sklearn.model_selection import train_test_split, cross_val_score
from sklearn.preprocessing import StandardScaler
import torch
import torch.nn as nn
import matplotlib.pyplot as plt

# 假设我们有一个包含气象特征和目标变量(降雨量)的数据集
data = np.random.rand(1000, 5)  # 5个特征
target = np.random.rand(1000)

X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=0.2, random_state=42)
scaler = StandardScaler()
X_train_scaled = scaler.fit_transform(X_train)
X_test_scaled = scaler.transform(X_test)

# 构建数据驱动模型
rf_model = RandomForestRegressor(n_estimators=100)
svm_model = SVR()

rf_model.fit(X_train_scaled, y_train)
svm_model.fit(X_train_scaled, y_train)

# 构建神经网络模型
class SimpleNN(nn.Module):
    def __init__(self):
        super(SimpleNN, self).__init__()
        self.fc1 = nn.Linear(5, 10)
        self.fc2 = nn.Linear(10, 1)
    
    def forward(self, x):
        x = torch.relu(self.fc1(x))
        return self.fc2(x)

nn_model = SimpleNN()
optimizer = torch.optim.Adam(nn_model.parameters(), lr=0.01)
criterion = nn.MSELoss()

# 将numpy数组转换为torch tensor
X_train_torch = torch.tensor(X_train_scaled, dtype=torch.float32)
y_train_torch = torch.tensor(y_train, dtype=torch.float32).view(-1, 1)

for epoch in range(1000):
    optimizer.zero_grad()
    outputs = nn_model(X_train_torch)
    loss = criterion(outputs, y_train_torch)
    loss.backward()
    optimizer.step()

# 简化的机理模型:基于湿度和温度预测降雨量
def mechanistic_model(X):
    humidity = X[:, 0]  # 假设第一个特征是湿度
    temperature = X[:, 1]  # 假设第二个特征是温度
    rainfall = np.maximum(0, (humidity - 0.5) * (temperature - 15))  # 简单的关系式
    return rainfall

# 预测
def ensemble_predict(models, weights, X):
    predictions = []
    for model, weight in zip(models, weights):
        if isinstance(model, (RandomForestRegressor, SVR)):
            pred = model.predict(X)
        elif isinstance(model, nn.Module):
            pred = model(torch.tensor(X, dtype=torch.float32)).detach().numpy()
        else:
            pred = model(X)
        predictions.append(pred * weight)
    return np.sum(predictions, axis=0) / np.sum(weights)

# 计算各模型的权重(这里简单地根据交叉验证得分)
rf_scores = cross_val_score(rf_model, X_train_scaled, y_train, cv=5, scoring='neg_mean_squared_error')
svm_scores = cross_val_score(svm_model, X_train_scaled, y_train, cv=5, scoring='neg_mean_squared_error')

weights = [np.mean(rf_scores), np.mean(svm_scores), 1, 0.5]  # 假设给机理模型分配了较小的权重

models = [rf_model, svm_model, nn_model, mechanistic_model]
predictions = ensemble_predict(models, weights, X_test_scaled)

# 绘制结果
plt.plot(y_test, label="True")
plt.plot(predictions, label="Predicted")
plt.legend()
plt.show()

解释

  • 机理模型

    • 我们定义了一个名为mechanistic_model的函数,它接受输入数据X并返回基于湿度和温度的简单降雨量预测。
    • 这里的公式(humidity - 0.5) * (temperature - 15)只是一个示例,用于演示目的。在实际应用中,您需要根据具体问题调整此公式或使用更复杂的物理模型。
  • 权重分配

    • 在这个例子中,我们为每个模型分配了不同的权重。对于机理模型,我们假设其权重较小(例如0.5),因为它的准确性可能不如经过训练的数据驱动模型高。
  • 集成预测

    • ensemble_predict函数现在可以处理不同类型的模型(包括PyTorch模型和自定义的机理模型),并通过加权平均生成最终的预测值。

通过这种方式,我们可以将基于物理定律的机理模型与数据驱动模型结合起来,利用它们各自的优点来提高整体预测性能。这种方法特别适用于那些既有明确物理机制又具有大量历史数据可供分析的领域。

5. 参数校准(Parameter Calibration)

描述:使用数据驱动的方法来优化或校准机理模型中的不确定参数。

示例:在流体力学模拟中,湍流模型通常含有若干经验参数。这些参数可以通过比较模拟结果与实验数据之间的差异来进行优化。一种常见做法是应用遗传算法或其他优化技术来搜索最优参数集,使得模拟结果尽可能接近实测数据。

每种融合方式都有其适用场景和局限性,选择哪种方法取决于具体问题的需求、可用数据的质量以及预期达到的目标。通过合理选择并实施适当的融合策略,可以有效提升模型的整体性能和可靠性。

案例阐述:参数校准(Parameter Calibration)在流体力学模拟中的应用

背景介绍

在流体力学领域,湍流模型通常包含若干经验参数,这些参数直接影响到模拟结果的准确性和可靠性。然而,由于实际流动条件的复杂性,直接从理论上确定这些参数往往是困难的。因此,采用数据驱动的方法来优化或校准这些不确定参数成为一种有效的解决方案。通过比较模拟结果与实验数据之间的差异,并利用优化算法搜索最优参数集,可以使模拟结果更加接近实际情况。

实现步骤
  1. 定义问题

    • 假设我们有一个简单的二维稳态流场模型,其中包含一个需要校准的经验参数 (C_{\mu})(例如,在(k-\epsilon)湍流模型中)。
    • 我们的目标是找到一个最优的 (C_{\mu}),使得模拟得到的速度场尽可能接近实验测量值。
  2. 构建机理模型

    • 根据流体力学的基本方程(如Navier-Stokes方程),建立描述流场行为的基础模型。
    • 在此示例中,我们将简化为一个基于给定参数 (C_{\mu}) 的速度预测模型。
  3. 准备实验数据

    • 收集一系列实验测量点的速度数据作为参考标准,用于评估和校准模型。
  4. 定义损失函数

    • 定义一个损失函数,该函数衡量模拟结果与实验数据之间的差异。常用的选择包括均方误差(MSE)等。
  5. 选择并应用优化算法

    • 使用遗传算法、粒子群优化(PSO)、贝叶斯优化等方法来搜索使损失函数最小化的参数值。
    • 在这个例子中,我们将使用PyTorch结合SciPy库中的优化工具来进行参数校准。
  6. 实现与验证

下面是一个具体的PyTorch实现示例:

import torch
import torch.nn as nn
from scipy.optimize import minimize
import numpy as np

# 假设的流体力学模型,这里简化为根据给定参数C_mu计算速度
def fluid_dynamics_model(C_mu, x):
    """
    简化的流体力学模型,基于给定的C_mu计算速度场
    :param C_mu: 需要校准的经验参数
    :param x: 输入位置坐标
    :return: 计算得到的速度
    """
    # 这里只是一个示例公式,实际情况可能更复杂
    return C_mu * (x[0]**2 + x[1]**2)

# 实验数据点的位置和对应的实验测量速度
experiment_data = np.array([
    [0.1, 0.1, 0.02],  # [x, y, measured_speed]
    [0.5, 0.5, 0.1],
    [0.9, 0.9, 0.08],
])

# 定义损失函数
def loss_function(C_mu):
    total_loss = 0
    for point in experiment_data:
        x, y, measured_speed = point
        predicted_speed = fluid_dynamics_model(C_mu, [x, y])
        total_loss += (predicted_speed - measured_speed) ** 2
    return total_loss / len(experiment_data)

# 初始猜测值
initial_guess = [0.09]  # 对于C_mu的一个初始估计值

# 使用SciPy进行优化
result = minimize(loss_function, initial_guess, method='L-BFGS-B')

print("Optimized C_mu:", result.x[0])

# 验证校准后的模型
calibrated_C_mu = result.x[0]
for point in experiment_data:
    x, y, measured_speed = point
    predicted_speed = fluid_dynamics_model(calibrated_C_mu, [x, y])
    print(f"Position ({x}, {y}): Measured Speed = {measured_speed}, Predicted Speed = {predicted_speed}")

解释

  • 流体力学模型fluid_dynamics_model 是一个简化的模型,它接受一个经验参数 (C_{\mu}) 和位置坐标 ([x, y]),然后基于某个公式返回预测的速度值。这只是一个示例公式,实际情况会根据具体问题有所不同。

  • 实验数据experiment_data 包含了多个位置及其对应的实验测量速度值,用于评估模型性能并与之对比。

  • 损失函数loss_function 定义了如何计算模拟结果与实验数据之间的差异。在这个例子中,我们使用了均方误差(MSE)作为损失函数。

  • 优化过程:使用 minimize 函数从 SciPy 库中执行优化过程,寻找使损失函数最小化的 (C_{\mu}) 值。这里选择了 L-BFGS-B 方法,但也可以尝试其他优化算法。

  • 结果验证:最后,我们使用校准后的 (C_{\mu}) 值重新计算每个实验数据点的速度,并打印出来以验证模型性能。

这种方法可以有效地应用于各种需要参数校准的情况,不仅限于流体力学领域,还可以扩展到化学反应动力学、热传导等多个领域。通过结合物理理解和数据驱动的优化技术,可以显著提高模型的准确性和适用性。


http://www.kler.cn/a/533698.html

相关文章:

  • git submodules
  • C++ 学习:深入理解 Linux 系统中的冯诺依曼架构
  • Linux中安装rabbitMQ
  • 记录pve中使用libvirt创建虚拟机
  • 【物联网】ARM核常用指令(详解):数据传送、计算、位运算、比较、跳转、内存访问、CPSR/SPSR
  • Love Tester:探索爱情的深度与维度
  • 深度探索未来的搜索引擎 —— DeepSeek
  • 请解释 Java 中的 IO 和 NIO 的区别,以及 NIO 如何实现多路复用?
  • 如何在页面中弹出菜单
  • 《2025,AI重塑世界进行时》
  • 【R语言】写入数据
  • 基于PostGIS的省域空间相邻检索实践
  • C语言程序设计P6-3【应用指针进行程序设计 | 第三节】——知识要点:指针与数组
  • 【大数据技术】搭建完全分布式高可用大数据集群(Scala+Spark)
  • LLM推理--vLLM解读
  • 代码讲解系列-CV(二)——卷积神经网络
  • 动态图推理问答算法
  • 动态规划练习八(01背包问题)
  • 用 Python 绘制爱心形状的简单教程
  • 企业百科和品牌百科创建技巧
  • 【CSS】谈谈你对BFC的理解
  • 开源数据分析工具 RapidMiner
  • YK人工智能(五)——万字长文学会torch模型微调
  • 不同数据库与 WebGL 集成
  • ES6中的map和原生的对象有什么区别?
  • 信息学奥赛一本通 2089:【22CSPJ普及组】上升点列(point) | 洛谷 P8816 [CSP-J 2022] 上升点列