【翻译】CodeMix使用教程(六):任务与tasks.json

本文深入解析了CodeMix中的任务系统与tasks.json文件的使用,阐述了如何在IDE中自动化构建、测试和部署流程,特别关注Angular和TypeScript项目中的任务集成,以及CodeMix如何智能地与构建管道协作。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

CodeMix中的任务与tasks.json

工具(如编译器,链接器和构建系统)用于自动化构建,运行测试和部署等过程。 虽然这些工具通常从IDE外部的命令行执行,但在Tasks支持下,可以在IDE中运行这些进程。 对于执行构建和验证的工具,这些工具报告的问题由CodeMix选取并显示在IDE中。

注意:使用任务不是必需的 - 用户可能不需要创建任务,也不需要手动修改tasks.json文件。 例如,CodeMix自动在Angular和TypeScript项目中创建任务,并将它们与构建管道集成。 强烈建议在继续之前请先阅读CodeMix中的构建管道和验证。

创建tasks.json文件

tasks.json文件必须存在于 /.vscode目录中。 可以手动创建此文件,然后使用内容辅助来帮助添加或编辑任务。

tasks.json用于Angular项目的示例:

使用Gulp为JavaScript项目示例tasks.json

与CodeMix Build Pipeline集成

codemix / lifecycle属性确定CodeMix如何将任务与构建管道集成 - 有关详细信息,请参阅下表。 即使没有生命周期属性,还有其他智能可以自动将某些TypeScript或shell任务集成到构建管道中,但为了清晰起见,建议添加此值。

常见的task.json属性

Angular和TypeScript task.json属性

除了上述属性之外,Angular和TypeScript项目还使用其他属性。

运行任务

要从命令选项板运行任务,请按Ctrl / Cmd + Shift + P,选择任务:运行任务命令,然后从显示的列表中选择所需任务。 与构建管道集成的任务通常会自动执行。 有关更多详细信息,请参阅CodeMix中的构建管道和验证。

有关任务的更多信息,请阅读VS Code文档。

转载于:https://my.oschina.net/u/4009527/blog/2873981

# pygcbs: # app_name: 'APP1' # master: '192.168.0.123' # port: 6789 # level: 'DEBUG' # interval: 1 # checklist: [ "System","CPU", "GPU","Mem","NPU", ] # save_path: "./" # docker: # pygcbs_image: nvidia-pygcbs:v1.0 # worker_image: nvidia-mindspore1.8.1:v1.0 # python_path: /opt/miniconda/bin/python # workers: # - '192.168.0.123:1' # socket_ifname: # - enp4s0 # tasks: #--------------------wide_deep--------------------------------- # - application_domain: "推荐" # task_framework: "Mindspore" # task_type: "推理" # task_name: "wide_deep_infer" # scenario: "SingleStream" # is_run_infer: True # project_path: '/home/gcbs/infer/wide_deep_infer' # main_path: "main.py" # dataset_path: '/home/gcbs/Dataset/wide_deep_data/' # times: 1 # 重试次数 #distribute do_eval: True is_distributed: False is_mhost: False exp_value: 0.501 #model log name: "wide_deep" Metrics: "AUC" request_auc: 0.74 dataset_name: "Criteo 1TB Click Logs Dataset" application: "推荐" standard_time: 3600 python_version: 3.8 mindspore_version: 1.8.1 # Builtin Configurations(DO NOT CHANGE THESE CONFIGURATIONS unless you know exactly what you are doing) enable_modelarts: False data_url: "" train_url: "" checkpoint_url: "" data_path: "./data" dataset_path: "/home/gcbs/Dataset/wide_deep_data/" output_path: "/cache/train" load_path: "/cache/checkpoint_path" device_target: GPU enable_profiling: False data_format: 1 total_size: 10000000 performance_count: 10 # argparse_init 'WideDeep' epochs: 15 full_batch: False batch_size: 16000 eval_batch_size: 16000 test_batch_size: 16000 field_size: 39 vocab_size: 200000 vocab_cache_size: 0 emb_dim: 80 deep_layer_dim: [1024, 512, 256, 128] deep_layer_act: 'relu' keep_prob: 1.0 dropout_flag: False ckpt_path: "./check_points" stra_ckpt: "./check_points" eval_file_name: "./output/eval.log" loss_file_name: "./output/loss.log" host_device_mix: 0 dataset_type: "mindrecord" parameter_server: 0 field_slice: False sparse: False use_sp: True deep_table_slice_mode: "column_slice" #star_logen config mlperf_conf: './test.conf' user_conf: './user.conf' output: '/tmp/code/' scenario: 'Offline' max_batchsize: 16000 threads: 4 model_path: "./check_points/widedeep_train-12_123328.ckpt" is_accuracy: False find_peak_performance: False duration: False target_qps: False count_queries: False samples_per_query_multistream: False max_latency: False samples_per_query_offline: 500 # WideDeepConfig #data_path: "./test_raw_data/" #vocab_cache_size: 100000 #stra_ckpt: './checkpoints/strategy.ckpt' weight_bias_init: ['normal', 'normal'] emb_init: 'normal' init_args: [-0.01, 0.01] l2_coef: 0.00008 # 8e-5 manual_shape: None # wide_and_deep export device_id: 1 ckpt_file: "./check_points/widedeep_train-12_123328.ckpt" file_name: "wide_and_deep" file_format: "MINDIR" # src/process_data.py "Get and Process datasets" raw_data_path: "./raw_data" # src/preprocess_data.py "Recommendation dataset" dense_dim: 13 slot_dim: 26 threshold: 100 train_line_count: 45840617 skip_id_convert: 0 # src/generate_synthetic_data.py 'Generate Synthetic Data' output_file: "./train.txt" label_dim: 2 number_examples: 4000000 vocabulary_size: 400000000 random_slot_values: 0 #get_score threads_count: 4 base_score: 1 accuracy: 0.72 baseline_performance: 1文件中的这些是什么?、
最新发布
06-17
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值