functional test skeleton

本文介绍了一个用于生成功能性测试骨架的脚本。该脚本能够遍历控制器目录,解析每个控制器文件,并根据控制器的动作自动生成相应的测试用例。此外,脚本还提供了定制化的测试动作设置,例如登录操作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

namespace :test do
  namespace :functionals do
    
    desc "Generate functional testing skeleton"
    task :generate => :environment do
      dir = ENV['dir']
      if dir.blank?
        puts "Warning! \nNothing is done, please identify the controllers directory! \ne.g. rake test:functionals:generate dir=contents/courses"
      else
        Gen.new.build(File.expand_path('app/controllers/'+dir, RAILS_ROOT)) 
      end
    end
    
  end
end

class Gen
  def build(dir)
    Dir[dir + '/*'].each{|f|
      File.directory?(f) ? build(f) : parse_controller_file(f)
    }
  end
  
  def parse_controller_file(file)
    @clauses = ["all_fixtures"]
    @actions = [{:action => "setup", :text => "    login_as users(:admin)"}]
    action_name, params, response = nil, nil, "success"
    
    File.open(file).each{|line|
      break if line =~ /private/
      # A new action begins, store the info of privious action
      if line =~ /def\s/
        create_action(action_name, params, response)
        action_name, params, response = $'.chop.strip , [], "success"
      else
        #get needed params and response
        if line =~/params\[:\w*\]/
          para = $&.gsub(/params\[|\]/,"")
          params << (para) unless params.nil? or params.include?(para)
        end
        response = "redirect" if line =~ /redirect_to/
      end
    }
    create_action(action_name, params, response)
    
    write_test_file(file)
  end
  
  def write_test_file(file) 
    test_file_name = file.gsub(/app\/controllers/,"#{$`}test/functional#{$'}").gsub(".rb","_test.rb")
    return unless File.exist?(test_file_name)
    
    to_write = []
    test_file = File.open(test_file_name)
    ignore = false
    test_file.each{|line|
      if line =~ /def\s/
        action_name = $'.chop.strip
        ignore = action_name =~ /test_truth/  #delete test_truth
        #don't append actions that have exist
        if @actions.map{|t| t[:action]}.include?(action_name)
          @actions = @actions.select{|t| t[:action]!=action_name}
        end
      end
      line = line.chop
      @clauses.delete(line.strip)
      to_write << line unless ignore
    }
    
    @clauses = @clauses.map{|t| "  "+t}
    @actions.each{|t|
      @clauses << %{  def #{t[:action]}\n#{t[:text]}\n  end}
    }
    to_write.insert(to_write.size-1, @clauses.join("\n\n")) unless @clauses.join("\n\n").blank?
    to_write[to_write.size-1] = "end"
    
    test_file.close
    File.open(test_file_name, 'w') do |f|  
      f.puts to_write.join("\n")  
    end  
  end
  
  def create_action(action_name, params, response)
    unless action_name.nil?
      method = ["create", "update", "destroy"].include?(action_name) ? "post" : "get"
      text = %{    #{method} :#{action_name}#{', '+ params.map{|t| t+" =>''"}.join(", ") unless params.blank?}\n    assert_response :#{response}}
      @actions << {:action=> "test_"+action_name, :text=>text} 
    end
  end
  
end
 
Load configuration information from configs/recognition/st_gcn_aaai18/kinetics-skeleton/test.yaml [ ] 0/86, elapsed: 0s, ETA:Traceback (most recent call last): File "/home/zrb/anaconda3/envs/open-mmlab/bin/mmskl", line 7, in <module> exec(compile(f.read(), __file__, 'exec')) File "/home/zrb/mmskeleton/tools/mmskl", line 123, in <module> main() File "/home/zrb/mmskeleton/tools/mmskl", line 117, in main call_obj(**cfg.processor_cfg) File "/home/zrb/mmskeleton/mmskeleton/utils/importer.py", line 24, in call_obj return import_obj(type)(**kwargs) File "/home/zrb/mmskeleton/mmskeleton/processor/recognition.py", line 47, in test output = model(data) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/parallel/data_parallel.py", line 150, in forward return self.module(*inputs[0], **kwargs[0]) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/mmskeleton/mmskeleton/models/backbones/st_gcn_aaai18.py", line 94, in forward x = self.data_bn(x) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/batchnorm.py", line 81, in forward exponential_average_factor, self.eps) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/functional.py", line 1656, in batch_norm training, momentum, eps, torch.backends.cudnn.enabled RuntimeError: running_mean should contain 60 elements not 54
07-24
oad configuration information from configs/recognition/st_gcn_aaai18/kinetics-skeleton/test.yaml [ ] 0/86, elapsed: 0s, ETA:Traceback (most recent call last): File "/home/zrb/anaconda3/envs/open-mmlab/bin/mmskl", line 7, in <module> exec(compile(f.read(), __file__, 'exec')) File "/home/zrb/mmskeleton/tools/mmskl", line 123, in <module> main() File "/home/zrb/mmskeleton/tools/mmskl", line 117, in main call_obj(**cfg.processor_cfg) File "/home/zrb/mmskeleton/mmskeleton/utils/importer.py", line 24, in call_obj return import_obj(type)(**kwargs) File "/home/zrb/mmskeleton/mmskeleton/processor/recognition.py", line 47, in test output = model(data) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/parallel/data_parallel.py", line 150, in forward return self.module(*inputs[0], **kwargs[0]) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/mmskeleton/mmskeleton/models/backbones/st_gcn_aaai18.py", line 94, in forward x = self.data_bn(x) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/module.py", line 547, in __call__ result = self.forward(*input, **kwargs) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/modules/batchnorm.py", line 81, in forward exponential_average_factor, self.eps) File "/home/zrb/anaconda3/envs/open-mmlab/lib/python3.7/site-packages/torch/nn/functional.py", line 1656, in batch_norm training, momentum, eps, torch.backends.cudnn.enabled RuntimeError: running_mean should contain 60 elements not 54
07-24
JFM7VX690T型SRAM型现场可编程门阵列技术手册主要介绍的是上海复旦微电子集团股份有限公司(简称复旦微电子)生产的高性能FPGA产品JFM7VX690T。该产品属于JFM7系列,具有现场可编程特性,集成了功能强大且可以灵活配置组合的可编程资源,适用于实现多种功能,如输入输出接口、通用数字逻辑、存储器、数字信号处理和时钟管理等。JFM7VX690T型FPGA适用于复杂、高速的数字逻辑电路,广泛应用于通讯、信息处理、工业控制、数据中心、仪表测量、医疗仪器、人工智能、自动驾驶等领域。 产品特点包括: 1. 可配置逻辑资源(CLB),使用LUT6结构。 2. 包含CLB模块,可用于实现常规数字逻辑和分布式RAM。 3. 含有I/O、BlockRAM、DSP、MMCM、GTH等可编程模块。 4. 提供不同的封装规格和工作温度范围的产品,便于满足不同的使用环境。 JFM7VX690T产品系列中,有多种型号可供选择。例如: - JFM7VX690T80采用FCBGA1927封装,尺寸为45x45mm,使用锡银焊球,工作温度范围为-40°C到+100°C。 - JFM7VX690T80-AS同样采用FCBGA1927封装,但工作温度范围更广,为-55°C到+125°C,同样使用锡银焊球。 - JFM7VX690T80-N采用FCBGA1927封装和铅锡焊球,工作温度范围与JFM7VX690T80-AS相同。 - JFM7VX690T36的封装规格为FCBGA1761,尺寸为42.5x42.5mm,使用锡银焊球,工作温度范围为-40°C到+100°C。 - JFM7VX690T36-AS使用锡银焊球,工作温度范围为-55°C到+125°C。 - JFM7VX690T36-N使用铅锡焊球,工作温度范围与JFM7VX690T36-AS相同。 技术手册中还包含了一系列详细的技术参数,包括极限参数、推荐工作条件、电特性参数、ESD等级、MSL等级、重量等。在产品参数章节中,还特别强调了封装类型,包括外形图和尺寸、引出端定义等。引出端定义是指对FPGA芯片上的各个引脚的功能和接线规则进行说明,这对于FPGA的正确应用和电路设计至关重要。 应用指南章节涉及了FPGA在不同应用场景下的推荐使用方法。其中差异说明部分可能涉及产品之间的性能差异;关键性能对比可能包括功耗与速度对比、上电浪涌电流测试情况说明、GTH Channel Loss性能差异说明、GTH电源性能差异说明等。此外,手册可能还提供了其他推荐应用方案,例如不使用的BANK接法推荐、CCLK信号PCB布线推荐、JTAG级联PCB布线推荐、系统工作的复位方案推荐等,这些内容对于提高系统性能和稳定性有着重要作用。 焊接及注意事项章节则针对产品的焊接过程提供了指导,强调焊接过程中的注意事项,以确保产品在组装过程中的稳定性和可靠性。手册还明确指出,未经复旦微电子的许可,不得翻印或者复制全部或部分本资料的内容,且不承担采购方选择与使用本文描述的产品和服务的责任。 上海复旦微电子集团股份有限公司拥有相关的商标和知识产权。该公司在中国发布的技术手册,版权为上海复旦微电子集团股份有限公司所有,未经许可不得进行复制或传播。 技术手册提供了上海复旦微电子集团股份有限公司销售及服务网点的信息,方便用户在需要时能够联系到相应的服务机构,获取最新信息和必要的支持。同时,用户可以访问复旦微电子的官方网站(***以获取更多产品信息和公司动态。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值