python获取csv文件中某一列或者某些列

把三个csv文件中的feature值整合到一个文件中,同时添加相应的label。

# -*-coding:utf-8 -*-
import csv;
label1 = '1'
label2 = '2'
label3 = '3'
a = "feature1,feature2,feature3,feature4,feature5,feature6,feature7,feature8,feature9,feature10,label" + "\n"
with open("./dataset/dataTime2.csv", 'a') as rfile:
     rfile.writelines(a)
with open("./dataset/f02.csv", 'rb') as file:
    a = file.readline().strip()
    while a:
        a = a + ',' + label1 + "\n"
        #a = label1 + ',' + a + "\n"
        with open("./dataset/dataTime2.csv", 'a') as rfile:
            rfile.writelines(a)
        a = file.readline().strip()
with open("./dataset/g03.csv", 'rb') as file:
    a = file.readline().strip()
    while a:
        a = a + ',' + label2 + "\n"
        #a = label2 + ',' + a + "\n"
        with open("./dataset/dataTime2.csv", 'a') as rfile:
            rfile.writelines(a)
        a = file.readline().strip()
with open("./dataset/normal05.csv", 'rb') as file:
    a = file.readline().strip()
    while a:
        a = a + ',' + label3 + "\n"
        #a = label3 + ',' + a + "\n"
        with open("./dataset/dataTime2.csv", 'a') as rfile:
            rfile.writelines(a)
        a = file.readline().strip()

获取csv文件中某一列,下面可以获得label为表头的列中对应的所有数值。

filename = "./dataset/dataTime2.csv"
list1 = []
with open(filename, 'r') as file:
    reader = csv.DictReader(file)
    column = [row['label'] for row in reader]

获取csv文件中某些列,下面可以获得除label表头的对应列之外所有数值。

import pandas as pd
odata = pd.read_csv(filename)
y = odata['label']
x = odata.drop(['label'], axis=1) #除去label列之外的所有feature值

也可以处理成list[np.array]形式的数据。

filename = "./dataset/dataTime2.csv"
list1 = []
with open(filename, 'r') as file:
    a = file.readline()
    while a:
        c = np.array(a.strip("\n").split(","))
        list1.append(c)

也可以处理成tensor格式数据集

# -*-coding:utf-8 -*-
import tensorflow as tf
# 读取的时候需要跳过第一行
filename = tf.train.string_input_producer(["./dataset/dataTime.csv"])
reader = tf.TextLineReader(skip_header_lines=1)
key, value = reader.read(filename)
record_defaults = [[1.], [1.], [1.], [1.], [1.], [1.], [1.], [1.], [1.], [1.], tf.constant([], dtype=tf.int32)]
col1, col2, col3, col4, col5, col6, col7, col8, col9, col10, col11= tf.decode_csv(
    value, record_defaults=record_defaults)
features = tf.stack([col1, col2, col3, col4, col5, col6, col7, col8, col9, col10])
with tf.Session() as sess:
  # Start populating the filename queue.
  coord = tf.train.Coordinator()
  threads = tf.train.start_queue_runners(coord=coord)
  trainx = []
  trainy = []
  for i in range(81000):
    # Retrieve a single instance:
      example, label = sess.run([features, col11])
      trainx.append(example)
      trainy.append(label)
  coord.request_stop()
  coord.join(threads)
#最后长度是81000,trainx是10个特征

 

<think>嗯,用户想用Python的pandas库读取CSV文件中的特定。首先,我得回忆一下pandas读取CSV的基本方法。记得pandas有read_csv函数,这个函数有很多参数,比如usecols可以用来指定要读取。 用户可能知道一些基础,但不确定具体参数怎么用。比如,usecols可以接受名的或者索引的表。例如,如果想读取'user_id'和'rating'这两,可以写成usecols=['user_id', 'rating'],或者索引比如usecols=[0,2],假设这些的位置是第0和第2。 另外,用户可能遇到名中有中文或者特殊字符的情况,这时候需要确保文件编码正确。常见的编码问题可以用encoding参数解决,比如encoding='utf-8'或者'gbk'。参考引用中的例子,比如引用[3]提到如果无法解析为日期时间,会保持为对象类型,这时候可能需要后续处理。不过用户的问题主要是读取特定,所以编码问题可能需要关注。 还有,引用[2]中的例子使用了names参数来指定名,这可能是因为CSV文件没有标题行。如果原文件有标题,应该用header=0来指定,或者不写,默认第一行为标题。如果用户需要跳过某些行,可以用skiprows参数。 用户可能还想知道如何提高读取文件的效率,比如只读取需要的可以减少内存使用,这在处理大型数据集时很重要,如引用[5]提到的pandas可能不适合非常大的数据集,但合理使用参数可以优化性能。 另外,引用[4]提到pandas在数据分析中的优势,所以用户可能在进行数据处理,需要后续分析。确保读取正确,才能进行下一步操作。 总结一下,步骤应该是:导入pandas,使用read_csv,设置usecols参数指定处理可能的编码问题,检查数据是否正确读取。示例代码可能会有帮助,比如data = pd.read_csv('file.csv', usecols=['col1', 'col3']),然后打印前几行确认。 用户可能还会问如何处理没有标题的文件或者名有空格的情况,这时候可能需要设置header=None,并用names参数指定名,再在usecols中使用这些名字。或者索引来指定。 另外,如果CSV文件用不同的分隔符,比如分号,需要指定sep参数。但用户的问题是关于读取特定,所以可能不需要处理这个。 最后,需要提示用户如果遇到编码错误,可以尝试不同的编码方式,如引用[1]中提到的UnicodeDecodeError,可能需要指定encoding='latin1'或者其他编码格式。</think>在Python中使用Pandas读取CSV文件中的特定,可以通过`pd.read_csv()`函数的参数`usecols`实现。以下是具体方法: ### 1. **按名选择** 若CSV文件包含标题行,可直接指定表: ```python import pandas as pd data = pd.read_csv('file.csv', usecols=['column_name1', 'column_name2']) ``` ### 2. **按索引选择** 若文件无标题行,可通过索引(从0开始)指定: ```python data = pd.read_csv('file.csv', usecols=[0, 2], header=None) # 读取第1、3 ``` ### 3. **混合选择** 结合名和索引(需文件有标题行): ```python data = pd.read_csv('file.csv', usecols=['column_name', 2]) ``` ### 4. **处理编码问题** 若遇到编码错误(如`UnicodeDecodeError`),需指定编码格式: ```python data = pd.read_csv('file.csv', usecols=['user_id'], encoding='latin1') ``` 常见编码参数:`utf-8`、`gbk`、`latin1`[^1][^3]。 ### 5. **性能优化** 仅读取必要可减少内存占用,尤其适合大型数据集[^5]。 ### 示例代码 ```python # 读取名为'rating.csv'的文件中'user_id'和'rating' data = pd.read_csv('rating.csv', usecols=['user_id', 'rating']) print(data.head()) ``` ### 注意事项 - 若名含特殊字符/空格,需严格匹配名称 - 无标题文件需设置`header=None`并自定义名[^2] ---
评论 6
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值