ErgoLAB时空行为分析系统可以进行多类型时空行为的空间定位与行走轨迹数据分析,包括室内、室外和VR虚拟现实场景中的空间位置追踪,可以满足研究者在多种环境中进行时空研究的高标准化要求。结合ErgoLAB人机环境同步云平台,可对不同时空定位下的多维度数据进行同步***与混合验证,以及可视化分析。系统支持以任意时间点/时间片段,空间位置/空间片段为对象,对个体的行走轨迹、空间访问状态以及视线交互、情感反应、交互行为等进行实时数据获取与分析统计。
ErgoLAB平台是完全自主研发技术,具有多项发明与软件著作权,通过了省部级新技术新产品认证,欧洲CE、美国FCC、欧盟Rohs、***、ISO14001、OHSAS18001等多项国际***。广泛应用于心理与行为观察、人因智能与人机互动、人机界面设计与产品可用性测试、产品(广告)营销、汽车驾驶(交通安全)、工业管理、工业设计、人因工程、消费行为学、应急行为研究、安全科学、环境行为学、建筑设计等多个领域科学研究。
二、产品特点
● 室内时空数据***:采用超宽带追踪技术,实现在室内和短距离室外环境中进行任意数量主体的研究,定位精度达到至厘米级。无线传输,佩戴方便,追踪范围广,适用于高精度定位、高精度时间追踪或没有GPS覆盖的研究应用中。
● 室外时空数据***:
● 车辆时空数据:基于自主研发高性能V-HUB数据***技术,采用RTK差分式GPS传感器,准确***车辆运行轨迹和时空位置;
● 人的行为轨迹数据:采用便携式人因记录仪以及Datalogger APP系统,内置GPS模块,具备大储存、高精度、高速率、双数据链特点。
● VR虚拟环境时空数据***:通过ErgoLAB VR Location定位系统实现在虚拟环境下***个体的时空导航数据以及交互信息,可以自主创建任何虚拟研究场景,实时***被试在虚拟空间下的行走轨迹、空间热图以及不同时空位置下的多维度数据。
● 实时计算空间位置数据:系统实时计算并监测多被试的动态时空位置数据,以及个体间空间位置关系的计算信息。
● 自定义绘制SOI :根据实验设计,系统自动识别项目中的室内空间地图、世界地图、VR虚拟空间地图,在不同类型的时空地图下,用户可任意或编辑时空位置作为SOI分析区域。
● 多样性的SOI统计指标:计算统计进入每个SOI兴趣区域的兴趣区域名称、兴趣区域停留的总时间、兴趣区域内停留时间占总时间的百分比、进入兴趣区域的总次数以及在兴趣区域停留的平均时间等数据指标。
● SOI组与叠加分析:系统支持创建SOI Group组别或将建好的兴趣区域进行归类统计分析,支持单个被试或者多被试的轨迹数据叠加分析与数据统计。
● 事件与时间片段统计:支持所有实时编码与事后编码的事件与片段进行时空可视化与数据统计分析。
● 多类型数据一键导出 :支持将所有原始数据、处理数据、编码数据、统计图表、可视化轨迹图等一键导出。
●自定义SOI时空兴趣区与数据统计
在不同类型的时空地图下,可任意时空位置作为SOI空间兴趣区域,进行数据分析统计,包括进入SOI的时间、SOI内停留总时间、SOI内停留时间占比等。同时,系统可通过速度,距离和活动类型(站立,步行,跑步)的参数来测量个体的运动行为。此外,通过设置兴趣区组别,可对不同时空兴趣区进行归类统计分析。
●可视化人迹地图与轨迹分析
系统提供不同类型的热图、轨迹图分析,以可视化方式呈现被试的空间位置偏好。可以实时观察多被试的动态时空位置,并计算个体间位置关系信息。不同被试以不同颜色的行走轨迹图形呈现,可直观分析不同被试的运动轨迹与交互区域。另外,可以进行单个被试或者多被试的轨迹数据叠加分析与数据统计。
系统支持对被试进入不同时空兴趣区的顺序进行可视化分析,可以对进入一个兴趣区域发生在进入另一个兴趣区域之后/之前的序列进行相关性分析,并一键导出可视化序列性分析报告。
●可视化行为分析
基于多维度人机环境时空数据同步技术,系统***的任意数据均可以作为时空分析的数据源进行可视化分析与统计,如眼动数据、生理数据、行为编码数据等与时空轨迹的同步分析。数据分析方式包括可视化空间位置、人迹地图、时空热力图、以及行为编码时空热图、SOI时空数据统计与序列性分析。
系统支持统计SOI兴趣区内所有行为编码数据,包括在兴趣区域内的每组行为名称、发生次数、每分钟发生次数、总持续时间、平均持续时间等。
●基于多维度人机环境时空数据同步技术,综合统计模块支持项目中***的任意人机环境时空数据源进行交叉统计分析,在同一时间轴以可视化方式呈现多维数据交集,如基于时间同步的眼动数据、行为数据、生理数据,实现时间轴数据的交集可视化、多维度数据的综合统计。
●条件与结果数据筛选:灵活的数据筛选模块,包含条件筛选与结果筛选。用户可自定义设置交叉分析的数据条件,以及在该前提条件下被试的目标状态数据。
基于被试属性进行交叉分析:系统支持以被试属性进行数据选择与交叉分析,包括性别、年龄、职业以及用户在实验记录模块自定义添加的全部属性,均可作为数据筛选条件。
●基于客观测试交叉分析:通过实验设计中的客观定量化测试模块,系统中的眼动数据、生理数据、行为编码数据等数据,进行交叉统计与可视化分析。
●基于主观测试交叉分析:通过实验设计中的主观测试模块,用户可实现基于被试作答的问卷、量表、范式的测试结果(如疲劳程度、焦虑水平、情绪效价、反应时等)进行被试筛选与数据选择,进行多维度数据对比分析与统计。
●心理学与神经科学研究;
●人因工程与工效学研究;
●人因智能与人机交互研究;
●智能交通与驾驶行为研究;
●建筑人居健康与环境行为研究;
●市场研究与消费者调研;
●用户体验与交互研究;
●教育研究;
●临床研究;
●婴儿研究;
●体育运动研究;
●沉浸式VR研究;
●北京津发科技股份有限公司是高新技术企业、科技部认定的科技型中小企业和中关村高新技术企业,具备自主进出口经营权;自主研发的人因工程与工效学相关技术、产品与服务荣获多项省部级科学技术奖励、发明专利、软件著作权和省部级新技术新产品(服务)认证;通过了欧洲 CE、美国 FCC、欧盟 RoHS、***、ISO14001、OHSAS18001等多项国际认证和防爆认证。
●津发科技设立人因工程专业的学术科研团队、技术团队及研发团队,并通过多年与科研机构及高校的产学研合作,积累了人因与工效学领域多项核心技术,以及基于机器学习等人工智能算法的状态识别和人机工效评价技术与研究方法等,是国内的人因工程技术创新中心!津发科技的实验室规划建设技术团队提供全方位的技术支持及售后服务,从实验室建设的规划与布局,到设备的培训与指导,全方位多角度的进行实验室建设的全生命周期的服务。
ErgoLAB FACS面部表情分析系统是一款专业的面部表情分析与情绪状态识别科研工具。系统通过图像识别技术结合机器学习等人工智能算法,利用面部肌肉特征点计算和分类表情状态,自动编码多种基本表情、计算情感效价;并通过**的数据库使得模型预测的情绪准确率高达 93.3%。通过计算多维度数据特征,结合AI状态识别进一步研发可实现对操作人员的分心、疲劳、应激等状态的自动识别以及特定环境条件下的预警反馈。ErgoLAB FACS系统采用**表情识别算法,开发团队在软件功能及算法定制开发上积累了丰富的开发实施经验,可以根据用户要求对软件进行定制化设计开发,确保满足用户科研需要。
系统可以嵌入ErgoLAB行为观察分析系统和人机环境同步平台,支持在同一个软件界面同步***与分析多维数据源,包括行为观察视频、生理数据、眼动数据、脑电数据、动作捕捉、生物力学、作业环境数据等,包含多终端API/TTL实时行为编码与事件标记应用程序,并提供开放数据同步接口可供二次开发。
随着神经行为科学的迅猛发展,人们开始尝试用神经行为学工具来测试各种商业行为表现。主要集中应用在对消费者偏好和满意度的测试,如消费者观看广告内容时的表情和购买意愿的关系;消费者闻不同气味的香水后的表情反应与对香水偏好的关系;听众的表情与音乐喜好的关系等众多研究领域。情感预测态度和行动针对视频图像中的每一帧,FACS提供面部表情的7种关键指标的详实数据,以及6种面部特征统计数据。这些参数可以洞察人们的情绪状态,并提高消费品、广告、媒体、软件的商业价值。
免责声明:当前页为 ErgoLAB时空行为分析系统产品信息展示页,该页所展示的 ErgoLAB时空行为分析系统产品信息及价格等相关信息均有企业自行发布与提供, ErgoLAB时空行为分析系统产品真实性、准确性、合法性由店铺所有企业完全负责。世界工厂网对此不承担任何保证责任,亦不涉及用户间因交易而产生的法律关系及法律纠纷,纠纷由会员自行协商解决。
友情提醒:世界工厂网仅作为用户寻找交易对象,就货物和服务的交易进行协商,以及获取各类与贸易相关的服务信息的渠道。为避免产生购买风险,建议您在购买相关产品前务必确认供应商资质及产品质量。过低的价格、夸张的描述、私人银行账户等都有可能是虚假信息,请您谨慎对待,谨防欺诈,对于任何付款行为请您慎重抉择。
投诉方式:fawu@gongchang.com是处理侵权投诉的专用邮箱,在您的合法权益受到侵害时,请将您真实身份信息及受到侵权的初步证据发送到该邮箱,我们会在5个工作日内给您答复,感谢您对世界工厂网的关注与支持!
电话4008113950
传真010-82827395
手机13021282218
QQ328565066
地址北京市海淀区清河安宁庄东路18号光华创业园16号楼四层