用机器学习解决LeetCode问题

本文探讨如何将LeetCode的Fuzz Buzz问题转化为机器学习任务,通过构造一个简单的单隐层神经网络进行四分类学习,将输入的正整数转化为二进制并训练模型,最终在测试集上达到97.8%的准确率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

导语

机器学习是一种使以计算机为代表的电子设备具备一定智能的技术,是人工智能的重要技术组成之一。特别是近年来以深度学习为代表的机器学习迅猛发展,使得人们的生活逐渐发生质的变化,机器学习从来没有像今天这样受到人们的热切关注。其实机器学习并不是高端到不可亵玩的东西,它只是利用计算机强大的计算能力来解决不能直接求解的数学问题,也就是说让计算机在某一个假设空间内寻找一个映射函数,将输入映射为我们需要的结果。既然我们给计算机规定了任务,为了让他自动的完成这个任务,我们当然需要告诉他该怎么做,虽然从表面上看不出来我们对计算机做了什么,但他已经从大量的数据中学得了有用的经验,这样足以使得计算机从表面上看有了一定的智能。

传统的数据结构与算法可以用编程语言解决,这种解决方法的核心在于时间复杂度和空间复杂度上的优化和提升,给定输入,计算机按照算法的指示一步步运算,输出对应的结果,这是一种显式求解的过程,并具有很强的解释性。那能不能通过机器学习解决传统的算法问题呢?我们试试看。

LeetCode问题描述

机器学习虽然强大,但到目前为止,还不能解决所有的问题,因此考虑到可行性,选取了一道具有代表性的算法题,尝试利用机器学习求解。

leetcode[412]:Fuzz Buzz 是LeetCode中难度为easy的题目,题目本身并没有什么难度,关键是如何将它转化为机器学习任务,其问题描述如下:

给定一个正整数n,按规则输出从1至n之间的数对应的结果。规则为:若数是3的倍数,输出“Fizz”,若数是5的倍数,则输出“Buzz”,若既是3的倍数也是5的倍数,则对应的输出为“FizzBuzz”,否则输出原来的数。

举例:
n = 15,
Return:
[
“1”,
“2”,
“Fizz”,
“4”,
“Buzz”,
“Fizz”,
“7”,
“8”,
“Fizz”,
“Buzz”,
“11”,
“Fizz”,
“13”,
“14”,
“FizzBuzz”
]

该题若用Python,解法如下:

class Solution(object):
    def fizzBuzz(self, n):
        """
        :type n: int
        :rtype: List[str]
        """
        res = []
        for i in range(1,n+1):
            if i%3==0 and i%5==0:
                res.append('FizzBuzz')
            elif i%3==0:
                res.append('Fizz')
            elif i%5==0:
                res.append('Buzz')
            else:
                res.append(str(i))
        return res

现在我们将算法题转化为机器学习问题,计算机能否准确识别题目本来的含义,从而正确的给出我们想要得到结果呢?

问题转化

按照题目要求,输出的结果共有4类:Fuzz、Buzz、FuzzBuzz、other,other表示数字本身,机器学习的目的就是自动学得题目的要求,这就是一个四分类的监督学习问题。

我将构造一个极简单的单隐层的神经网络,输入数据量为4096条,对应的标签也为4096。由于是四分类问题,故标签维度为4,采用one-hot表示法。输入数据表示一个正整数,此处有多种表示方法,比如位表示法,binary表示法等,为了使得模型尽量简单,输入数据维度尽量低,因此采用binary表示法,即将输入的正整数表示成二进制,我构造了4096条数据,对应2的12次方,因此输入维度为12.

接下来就是构造神经网络了。我采用了TensorFlow框架,对于上述问题而言,单隐层的网络已足够解决问题,激活函数采用非线性化relu,可以加快模型的训练速度。

划分数据集,训练集和测试集的比例是7:3,要想获得好的模型效果,需要不断调整模型参数,因此需要多次试验。由于过程比较简单,下面直接上代码。

构造数据集
# -*- coding: utf-8 -*-

import numpy as np

# 数据总量,2**data_size
num_size = 12
data_size = 2**num_size


def fizzBuzz(n):
    """
    :type n: int
    :rtype: List[str]
    """
    res = []
    for i in range(1, n + 1):
        if i % 3 == 0 and i % 5 == 0:
            res.append('FizzBuzz')
        elif i % 3 == 0:
            res.append('Fizz')
        elif i % 5 == 0:
            res.append('Buzz')
        else:
            res.append(str(i))
    return res

def generate_data():
    dataSet = np.arange(1, data_size+1)
    labels = fizzBuzz(data_size)

    return np.array(dataSet), np.array(labels)


def label_to_categorical(data):
    labels = []
    for i in range(len(data)):
        if data[i] == 'Fizz':
            labels.append([1, 0, 0, 0])
        elif data[i] == 'Buzz':
            labels.append([0, 1, 0, 0])
        elif data[i] == 'FizzBuzz':
            labels.append([0, 0, 1, 0])
        else:
            labels.append([0, 0, 0, 1])

    return np.array(labels)


def binary_encode(i, num_digits):
    return np.array([i >> d & 1 for d in range(num_digits)])


def data_formation(labels):
    labels = label_to_categorical(labels)
    data_df = np.array([binary_encode(i, num_size) for i in range(2 ** num_size)])
    return data_df, labels
构造模型训练并测试性能
from sklearn.model_selection import train_test_split
import tensorflow as tf

# 测试集比例
testing_percentage = 0.3

# 训练参数
learning_rate = 0.03
num_steps = 1000
batch_size = 128
display_step = 100

# 模型参数
n_hidden = 16 # 单隐层网络节点数
num_input = num_size # 输入节点数
num_classes = 4 # 四分类问题输出节点数为4

keep_prob = tf.placeholder(tf.float32)
X = tf.placeholder("float", [None, num_input])
Y = tf.placeholder("float", [None, num_classes])

weights = {
    'h1': tf.Variable(tf.random_normal([num_input, n_hidden])),
    'out': tf.Variable(tf.random_normal([n_hidden, num_classes]))
}
biases = {
    'b1': tf.Variable(tf.random_normal([n_hidden])),
    'out': tf.Variable(tf.random_normal([num_classes]))
}


# 定义网络结构
def neural_net(input):
    layer_1 = tf.nn.relu(tf.add(tf.matmul(input, weights['h1']), biases['b1']))
    output = tf.matmul(layer_1, weights['out']) + biases['out']
    return output


def main():
    dataSet, labels = generate_data()
    dataSet, labels = data_formation(labels)
    # 划分数据集
    X_train, X_test, y_train, y_test = train_test_split(dataSet, labels, test_size=testing_percentage)
    print X_train.shape, X_test.shape, y_train.shape, y_test.shape

    logits = neural_net(X)
    prediction = tf.nn.softmax(logits)
     # 损失函数
    loss_op = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=logits, labels=Y))
    optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate)
    train_op = optimizer.minimize(loss_op)
     # 模型准确率
    correct_pred = tf.equal(tf.argmax(prediction, 1), tf.argmax(Y, 1))
    accuracy = tf.reduce_mean(tf.cast(correct_pred, tf.float32))
     # 初始化
    init = tf.global_variables_initializer()

    with tf.Session() as sess:

        sess.run(init)

        for step in range(1, num_steps + 1):
            for start in range(1,len(X_train),batch_size):
                # start = (step*batch_size) % data_size
                end = min(start+batch_size, data_size)
                sess.run(train_op, feed_dict={X: X_train[start:end], Y: y_train[start:end]})
            if step % display_step == 0 or step == 1:
                loss, acc = sess.run([loss_op, accuracy], feed_dict={X: X_train[start:end], Y: y_train[start:end]})
                print("Step " + str(step) + ", Minibatch Loss= " + \
                      "{:.4f}".format(loss) + ", Training Accuracy= " + \
                      "{:.3f}".format(acc))

        print("Optimization Finished!")

        print("Testing Accuracy:", sess.run(accuracy, feed_dict={X: X_test, Y: y_test}))

训练过程和效果如下图:

这里写图片描述

结论

从上图可以看出在训练集上损失降到了0,准确率达到了100%,模型完全拟合了训练集,因为任务的函数空间很小,而含单隐层的神经网络理论上可以表示任意的函数,只要训练轮数足够,可以完全拟合训练集。测试集上的准确率也很高,达到了97.8%,可以说模型充分学习了我们给他的任务,也就是说给定任意一个正整数,模型给出的预测97.8%的概率和标准结果相等,可以说模型基本完成了学习任务。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值