标签归档:移动产品设计

移动产品设计之设计

按照我的理解,场景、任务、用户可以称之为设计的三要素,每一个设计实际上都是试图去帮助用户在某个场景下完成某个任务的。同样的设计遇到不一样的场景就会有不一样的方式,从Web设计到移动产品设计亦然。

曾经有个朋友问我,从Web设计到移动产品设计你感觉最大的差异点是什么?我觉得,最大的差异点在于用户使用场景的变化,场景的变化引发了交互方式巨大的变化,从而也使得信息呈现方式有所不同,再加上硬件设备的差异,最终使得2者千差万别了。所以,移动产品设计之设计应该首先从用户的使用场景出发,同时考虑用户的硬件设备差异,综合以上2点去帮助用户完成某个任务。

当然,从生态系统的角度而言,移动生态系统也是迥异与互联网生态圈的。移动生态系统可想象成拥有许多层的系统,每一层都依赖于其他层,他们相互依存构成了无缝的端到端的体验。

运营商在最底层,他们是移动生态系统正常运作的基础,他们负责基础设施建设并维护与用户的关系;运营商运营着无线网络,而网络能力同时也受制于设备与与天线的类型;而由于不同设备对工业标准解释的不同直接早就了移动生态系统最大的挑战,移动设备碎片化;软件与服务要在设备上运行就需要有平台,移动平台主要分为授权平台、专有平台、开源平台,其中我们熟知的有Java ME、iphone、Balckberry、android等;移动平台通常是与他所运行的操作系统绑定在一起的,比如symbain、Windows Mobile、ios、android;而开发者通常能够访问到的就是这些平台的应用程序框架并以不同的语言来开发应用程序。

在移动产品设计的过程中我们也会经常有意无意的涉及到生态系统的某个层面,而哪怕用户只想在移动端做极其简单的事情比如“访问我的博客”,都必须通过这些层,所以,这导致整个的移动环境十分复杂,整个移动产品设计需要具备的能力与素质也相对更甚。

移动产品设计之使用场景的变化

(图片来源:Tapworthy

没有了舒服的人体工程学座椅,只有拥挤的车厢或者顶着烈日的街头;没有了灵活的鼠标和舒服的键盘,只有晃动的屏幕和方寸间的按钮;你不再是一边放着歌一边刷着网页,而是希望能够迅速的找到你想去的那个店铺;你也不会成天挂在线上,而是会经常担心这个月的流量是不是又超标了……

这种场景的变化呈现给我们的是用户在移动设备上不断的碎片时间的消耗,用户越来越没有耐心。这看起来挺糟糕的,可实际上也是好事,这种使用场景的变化会迫使你放弃做类似Web端大而全的产品设计的想法。相反的,你会聚焦去解决用户在某一个碎片时间段里的需求。这种更聚焦的“单核思维”需要贯穿与整个移动产品设计中(详见:更多的限制,更简单的设计)。

移动产品设计之设备的变化

你的用户会使用什么样的设备来访问你的应用?这个问题是每个设计师在设计最初需要思考的。你的用户所使用的设备需要从多个维度去考虑,如操作系统、使用的网络环境、设备的分辨率等,这些信息都必须被综合起来考虑,最终运用到产品设计中去。对没错,这就是移动产品设计中臭名昭著但又很好玩的“适配”。2个同时使用android手机的人在使用同样一个应用程序的时候可能体验是天堂与地狱的差别,而即使同样都使用iphone但是在不同的网络环境下体验也不一样。这些,都需要去考虑…..

当然,这里有另外一个问题我觉得可以探讨一下,那就是不同平台直接的设计借鉴与移植。我的感觉是ios与android完全可以按照同样的一套架构去设计,只是在具体的交互方式上按照不同平台的特性去做就OK。比如同样是删除在ios上是左右滑动在android上是长按。

另外,这种硬件设备的变化也是移动产品设计与Web产品设计一个很大的差异。在移动产品设计上,一定要充分利用设备本身去完成设计。相对Web产品而言,移动设备自身提供了很多硬件能力,比如光感、磁阻、陀螺仪、….对这些能力的运用是移动产品设计的起点(详见:移动产品设计之硬件能力)。

移动产品设计之交互方式的变化

整个移动产品的的交互过程可以概括为,用户触发某个任务跟客户端发生交互,客户端将该任务反馈给服务端,服务端向后端请求数据并做数据拼接同时反馈结果给客户端,客户端将最终结果展现给用户。当然,某些复杂的任务实际上需要客户端向服务端并发数次的请求。

考虑与服务器端的交互并不是移动产品设计所独有的,但是却是移动产品设计过程中最需要设计师去“设计”的交互。因为这关乎3个事情,对用户流量的消耗和用户操作的流畅性,同时也是对客户端性能的一个考验。 这是我认为目前移动产品设计的用户体验最重要最根本的地方,保证客户端性能的稳定性,用户可以在低网速条件下顺畅的操作,同时尽可能的帮助用户节省流量,而UI层面的体验问题反倒是其次的。twitter和foursquare不论是在ios和android甚至symbain上都没有花哨的界面,但是他们仍然是我心目中当之无愧的最优秀应用。

同时,从键盘机到触屏机再到多点触控甚至于目前的语音助理,我们发现移动端的人机交互方式在不断的演进。于此同时我们也发现,越是高端的移动设备用户的“惰性”反而越强,用户期望能够使用更低成本的交互更快速的完成任务,这也是移动产品设计必须要面对同时也是移动产品设计师最能有成就感的地方。

最后,单就手机端产品设计而言,对于移动平台的选择

iphone这2年的势头太猛烈了,加之推广渠道单一产业链相对完整,所以iphone客户端的设计、推广都很容易见效且效果巨大;android太过开放,直接结果就是渠道纷繁复杂但无一能处把控之势,所以推广费力且收效甚微,小团队可以在开辟完ios战场并有成效之后果断跟进;symbian?如果可以,迅速放弃吧!WP7势头可观,但目前不太适合小队伍入场,大团队可先做储备。

移动产品设计之硬件能力

如果你想猎杀一只虎你得首先搞清楚了虎的习性与弱点,不然就好比是绣花枕头的屠龙术。同样的道理,如果你想做好移动产品的设计,你得首先搞清楚移动设备的基本属性。知道移动设备有哪些能力才能驾驭这些能力并创造出优雅的体验。

在移动设备里,常见可以被利用的硬件包括:话筒、GPS、距离感应器、环境光感应器、影像传感器、磁阻传感器、重力感应器、方向感应器、加速感应器、三轴陀螺仪、RFID、NFC、裸眼3D、温度计、震动感应器等等。

话筒

  • 原理:记录/输出声音,进行频谱分析最后以不同形式输出/输入
  • 扩展应用:语音输入、语音指令、听音辩曲、游戏等
  • 代表实例:语音搜索、导航仪、Shazam、Midomi SoundHound、IntoNow、Ocarina(埙)

GPS

  • 原理:由24颗工作卫星组成,使得在全球任何地方、任何时间都可观测到4颗以上的卫星, 测量出已知位置的卫星到用户接收机之间的距离,然后综合多颗卫星的数据就可知道接收机的具体位置
  • 扩展应用:定位(关于定位更详细的介绍可以参照之前的文章“移动产品设计之常见定位方式”)
  • 代表实例:各类地图应用、LBS相关应用

磁阻传感器(方位传感器)

  • 原理:将感受到的地磁信息转换为数字信号输出给用户使用
  • 扩展应用:辅助导航
  • 代表实例:指南针、地图的罗盘模式

GPS与磁阻传感器的对比

  • 二者不会相互干扰
  • 磁阻传感器不接收GPS信号,是GPS的补充
  • 受到地磁的影响,因此磁阻传感器需要经常进行校正

距离传感器

  • 原理:一般都在手机听筒的两侧或者凹槽中,通过发射特别短的光脉冲,并测量此光脉冲从发射到被物体反射回来的时间,通过测时间来计算与物体之间的距离
  • 扩展应用:接打电话的时候进行屏幕亮度及开关触屏的调节
  • 代表实例:进距离传感器屏幕锁、微信自动切换听筒/扬声器模式

环境光传感器

  • 原理:感应出使用环境的光线强度,再根据外界环境的光线强度进行调节
  • 扩展应用:屏幕亮度自动调节、键盘灯自动调节
  • 代表实例:屏幕亮度调节、阅读模式切换

影像感应器(摄像头)

  • 原理:将光线转变成电荷,通过模数转换器芯片转换成数字信号
  • 扩展应用:拍照/录像、条码/二维码识别、图像识别/人脸识别、动作捕捉/体感技术、增强现实
  • 代表实例:我查查、名片全能王、quick拍、蝶千寻、(AR相关应用可参见“增强现实及其扩展应用”)

重力感应器

  • 原理:手机重力感应指的是手机内置重力摇杆芯片,利用压电效应实现,感受手机在变换姿势时,重心的变化,使手机光标变化位置。重力感应器所能测的是手机来自不同轴面的重力,是直线的。
  • 扩展应用:横竖屏切换、设备的正反朝向判断
  • 代表实例:横竖屏自动切换(部分手机可以实现在查看相册的时候会自动根据拍照的时候是横屏or竖屏进行横竖自动切换)、甩动翻页/换歌、来电翻转、重力球游戏

方向感应器

  • 原理:一般手机的上的方向感应器是感应水平面上的方位角、旋转角和倾斜角的。可以检测手机处于正竖、倒竖、左横、右横,仰、俯状态
  • 扩展应用:飞行类游戏
  • 代表实例:飞行类游戏、赛车类游戏

加速感应器

  • 原理:敏感元件将测点的加速度信号转换为相应的电信号。加速感应器能感应到加速度和方向
  • 扩展应用:加速度感应、力量大小和方向感应。(在很多电脑里也内置有加速度感应器,基本应用场景就是当电脑跌落的时候保护硬盘不受损)
  • 代表实例:求签类应用、保龄球类游戏(Super Ball Escape)、垂钓类游戏

三轴陀螺仪

  • 原理:单轴的只能测量一个方向的量,也就是一个系统需要三个陀螺仪,而3轴的一个就能替代三个单轴的。三轴陀螺仪能同时测定6个方向的位置,移动轨迹,加速度。三轴陀螺仪最大的作用就是“测量角速度,以判别物体的运动状态,所以也称为运动传感器“,换句话说,这东西可以让我们的iPhone知道自己”在哪儿和去哪儿“
  • 扩展应用:感受手机在各个角度上的变化、感知设备运动状态、辅助GPS定位
  • 代表实例:itouch等的定位、测量( iSetSquare )、游戏( Gyroblox、现代战争2、 sensor mouse   )

重力感应、方向感应、加速感应、三轴陀螺仪

  • 重力感应,只能感应到不同轴面的力,是基于直线的感知;
  • 方向感应器,基于平面的感知;
  • 加速度传感器,能感应加速度和方向;加速力可以是常量G也可以是变量,所以加速度感应的范围要比重力感应器大。也有些手机上说到加速度感应器,实际上就是重力感应器。
  • iPhone4里的重力感应器和加速度感应器是同一个设备,叫三轴陀螺仪。能够感应设备在X、Y、Z三轴方向上的重力和加速度,得出来的是运动轨迹;

 震动感应器

  • 原理: 压电陶瓷可以把震动转化为电信号
  • 扩展应用:设备唤醒、心跳、脉搏监测、测谎仪
  • 代表实例:暂无

RFID(非接触式射频识别)

  • 原理:在物体贴上RFID标签,当物体进入到读写器的作用范围内时,能够读取到标签中的相关信息。RFID分为2个部分:标签(射频卡),读写器。标签分为主动标签(主动发送信号),被动标签(接收信号)
  • 扩展应用:室内定位、电子机票、物流分拆
  • 代表实例:手机钱包、一体化检票平台

二维码

  • 原理:用某种特定的几何图形按一定规律在平面(二维方向上)分布的图形记录数据符号信息。在代码编制上巧妙地利用构成计算机内部逻辑基础的“0”、“1”比特流的概念,使用若干个与二进制相对应的几何形体来表示文字数值信息,通过图象输入设备或光电扫描设备自动识读以实现信息自动处理。
    二维码不一定都是黑白相间的,实际上它的颜色可以被改变;二维码有较强的识别性,当遮盖面积不超过30%的时候仍然可以被识别。
    (比如这张二维码就是改变颜色增加了个性化内容的,and,还可以参考我的微博头像)
  • 扩展应用:打开相关链接、签到、支付、名片
  • 代表实例:支付宝条码支付、我查查
  • 关于二维码,可以看一下这篇科技文章,二维码的生成细节

NFC

  • 原理:由RFID及互联互通技术整合演变而来,在单一芯片上结合感应式读卡器、感应式卡片和点对点的功能,能在短距离内与兼容设备进行识别和数据交换。这项技术最初只是RFID技术和网络技术的简单合并,现在已经演变成一种短距离无线通信技术。
    但是NFC芯片有双向的读写功能,而RFID的id tag只读;NFC要求的距离比FRID要近很多。
  • 扩展应用:身份确认(签到)、电子钥匙、电子票务、介绍地标
  • 代表实例:签到、刷卡、移动支付

RFID、二维码、NFC

  • NFC和目前通用的RFID协议兼容,脱胎于RFID
  • RFID主要应用于目标识别(单向),NFC主要实现设备间通讯(可双向)
  • NFC要求的距离比FRID要近很多
  • NFC的本质是通讯,本身不承载数据
  • NFC需要电力,类似蓝牙
  • 二维码是单方面的信息读取
  • 二维码承载字母,数字,ASCII码,且有字符数量不超过3000个
  • 二维码需要去对准读取设备,而NFC只需要靠近,识别工作无须人工干预

裸眼3D

  • 原理:简单的说就是不使用偏振镜(3D电影常用),在平面显示出3D立体效果。目前裸眼3D技术有很多,目前在手机上实现应用的主要是夏普的视差屏障(parallaxbarrier)技术液晶屏
  • 扩展应用:游戏、地图和导航、视频浏览、3D照片浏览
  • 代表实例:Google3D地图、earth3D

温度计

  • 原理: 通过热敏感探头实现温度测量。
    不过, 只能测试环境温度,无法测量物体温度,比如无法测量体温。测量体温等需要红外测温装置,目前不易装入手机。 另外,易受到机器温度影响,测温不是很准
  • 扩展应用:测量环境温度、体温监测、疾病预报、生活服务(穿衣指导)
  • 代表实例:暂无

当然,其实还有最普通的Wifi、红外、蓝牙等基础硬件设备的使用也可以有不一样的交互体验比如Bump等,这里不再赘述。

另外,因为是学文科的,所以这篇文章有很多地方我个人的理解并不是很到位,欢迎懂行的你批评指正。

移动产品设计之常见定位技术

知乎上有个问题问“除了 GPS 和基站定位,目前还有哪些其它传感定位技术?”,正好最近在做这方面的一些调研学习,于是把我了解到的信息整理喽一下做了回答,之后知乎上有其他网页对我的答案做了纠正与补充,这里我一并整理一下发出来备份吧

申明:以下内容感谢徐哲滇狐maggie穆荣猪头心宇在知乎上的补充。

目前常用的定位方式有:GPS定位、基站定位、wifi定位、IP定位、RFID/二维码等标签识别定位、蓝牙定位、声波定位、场景识别定位。技术上可以采取以下一种或多种混合。

关于GPS与A-GPS定位:

常见的GPS定位的原理可以简单这样理解:由24颗工作卫星组成,使得在全球任何地方、任何时间都可观测到4颗以上的卫星, 测量出已知位置的卫星到用户接收机之间的距离,然后综合多颗卫星的数据就可知道接收机的具体位置。在整个天空范围内寻找卫星是很低效的,因此通过 GPS 进行定位时,第一次启动可能需要数分钟的时间。这也是为啥我们在使用地图的时候经常会出现先出现一个大的圈,之后才会精确到某一个点的原因。不过,如果我们在进行定位之前能够事先知道我们的粗略位置,查找卫星的速度就可以大大缩短。

GPS系统使用的伪码一共有两种,分别是民用的C/A码和军用的P(Y)码。民用精度约为10米,军用精度约为1米。GPS的优点在于无辐射,但是穿透力很弱,无法穿透钢筋水泥。通常要在室外看得到天的状态下才行。信号被遮挡或者削减时,GPS定位会出现漂移,在室内或者较为封闭的空间无法使用。

正是由于GPS的这种缺点,所以经常需要辅助定位系统帮助完成定位,就是我们说的A-GPS。

例如 iPhone 就使用了 A-GPS,即基站或 WiFi AP  初步定位后,根据机器内存储的 GPS 卫星表来快速寻星,然后进行 GPS 定位。例如在民用的车载导航设备领域,目前比较成熟的是 GPS + 加速度传感器补正算法定位。在日本的车载导航市场是由 Sony 的便携式车载导航系统 Nav-U1 首先引入量产。例如在增加了三轴陀螺仪的iphone4里可以利用三轴陀螺仪来辅助完成定位,具体可以参见这篇文章的介绍,不过三轴陀螺仪定位的误差会随着时间逐渐积累。

关于基站定位(cell ID定位):

小区识别码(Cell ID)通过识别网络中哪一个小区传输用户呼叫并将该信息翻译成纬度和经度来确定用户位置。Cell ID实现定位的基本原理:即无线网络上报终端所处的小区号(根据服务的基站来估计),位置业务平台把小区号翻译成经纬度坐标。

基本定位流程:设备先从基站获得当前位置(Cell ID)。(第一次定位)—— > 设备通过网络将位置传送给agps位置服务器 —— > Agps服务器根据位置查询区域内当前可用的卫星信息,并返回设备。 —— > 设备中的GPS接收器根据可用卫星,快速查找可用的GPS卫星,并返回GPS定位信息。

关于Wifi AP定位:

设备只要侦听一下附近都有哪些热点,检测一下每个热点的信号强弱,然后把这些信息发送给网络上的服务端。服务器根据这些信息,查询每个热点在数据库里记录的坐标,然后进行运算,就能知道客户端的具体位置了。一次成功的定位需要两个先决条件:客户端能上网 ,侦听到的热点的坐标在数据库里有

PS:苹果用的WIFI定位服务http://www.skyhookwireless.com/ ;这个网站可以通过MAC地址取得位置信息http://samy.pl/mapxss/

关于FRID、二维码定位:

通过设置一定数量的读卡器和架设天线,根据读卡器接收信号的强弱、到达时间、角度来定位。目前无法做到精准定位,布设读卡器和天线需要有大量的工程实践经验难度大,另外从成本上来讲WIFI经济实用些。
另外,室内定位无法依靠GPS卫星,主要只能依靠室内设备。可以使用WLAN和RFID来实现。

增强现实技术(AR)及扩展应用

这是一篇写给我自己看的科普文章。

在开始说增强现实(AR)之前,需要先说说虚拟现实(VR)

虚拟现实是从英文Virtual Reality 一词翻译过来的,简称VR。VR 技术是采用以计算机技术为核心的技术,生成逼真的视、听、触觉等一体化的虚拟环境,用户借助必要的设备以自然的方式与虚拟世界中的物体进行交互,相互影响,从而产生亲临真实环境的感受和体验。

典型的VR 系统主要由计算机、应用软件系统、输入输出设备、用户和数据库等组成。计算机负责虚拟世界的生成和人机交互的实现;输入输出设备负责识别用户各种形式的输入并实时生成相应的反馈信息;应用软件系统负责虚拟世界中物体的几何模型、物理模型、行为模型的建立,三维虚拟立体声的生成,模型管理及实时显示等;数据库主要用于存放整个虚拟世界中所有物体的各个方面的信息。

VR技术与三维动画技术的本质区别在于其交互性上。三维动画技术是依靠计算机预先处理好的路径上所能看见的静止照片连续播放而形成的,不具有任何交互性,即不是用户想看什么地方就能看到什么地方,用户只能按照设计师预先固定好的一条线路去看某些场景,用户是被动的;而VR 技术则通过计算机实时计算场景,根据用户的需要把整个空间中所有的信息真实地提供给用户,用户可依自己的路线行走,计算机会产生相应的场景,真正做到“想得到,就看得到”。

根据VR 技术对沉浸程度的高低和交互程度的不同,将VR 系统划分了4 种类型:沉浸式VR 系统、桌面式VR 系统、增强式VR 系统、分布式VR 系统。

增强式VR 系统简称增强现实(Augmented Reality),就是我们经常说的在手机上应用比较多的AR了。它既允许用户看到真实世界,同时也能看到叠加在真实世界上的虚拟对象,它是把真实环境和虚拟环境结合起来的一种系统。AR中真实物体和虚拟物体与用户环境必须无缝结合在一起,而且真实物体和虚拟物体之间还要能够进行交互,这样才能实现真正的虚实融合。因此增强现实系统具有虚实结合、实时交互、三维定向的新特点。

好,下面来重点说说增强现实(AR)

一个AR系统需要有显示技术、跟踪和定位技术、界面和可视化技术、标定技术构成。

跟踪和定位技术与标定技术共同完成对位置与方位的检测,并将数据报告给AR 系统,实现被跟踪对象在真实世界里的坐标与虚拟世界中的坐标统一,达到让虚拟物体与用户环境无缝结合的目标。为了生成准确定位,AR系统需要进行大量的标定,测量值包括摄像机参数、视域范围、传感器的偏移、对象定位以及变形等。

 相对与智能手机而言,AR就是根据当前位置(GPS),和视野朝向(指南针)及手机朝向(方向传感器/陀螺仪),在实景中(摄像头)投射出相关信息并在显示设备(屏幕)里展示。其实现的重点在于投影矩阵的获取。

当然,在实际开发的时候其实android系统已经将投影矩阵封装的比较好了,可以通过接口直接获取投影矩阵,然后将相关的坐标转换算成相应的坐标就可以了。

移动增强现实系统应实时跟踪手机在真实场景中的位置及姿态,并根据这些信息计算出虚拟物体在摄像机中的坐标,实现虚拟物体画面与真实场景画面精准匹配,所以,registration(即手机的空间位置和姿态)的性能是增强现实的关键。移动AR的运作原理可以以下面这个图示简单来说明。

OK,科普的事情做完了,下面再来说说AR到底有些啥搞头

1、找到想去的地方

1.1找到我想去的那家店

Yelp Monocle 利用 iPhone 的摄像头和数字罗盘把 Yelp 评分和实时的街景结合起来,这样您就可以找出五星级酒吧而不是误入那些自以为酷的小酒馆了。

1.2找到我的车

当你把车停在路边,并掏出手机启动 Car Finder 时,软件会记录下你的 GPS 信息。之后,当你想在茫茫车海中寻找它时,Car Finder 会利用摄像头,GPS,指南针,陀螺仪等多个传感器把你引导至正确的位置。

1.3指引路径

Wikitude Drive增强现实导航应用,用户看到的不是地图,而是前方街道的实时视图,以及叠加在视频上方的导航数据。现在已经在欧洲、澳大利亚、北美市场得到了应用。

2、“碰”到虚拟的东西

AR SOCCER 虚拟颠球,就是你把屏幕对着一块干净的地板,然后屏幕上会出现一个足球,现在你可以用脚去踹它。

3、令现实按我的想法变化

3.1实景翻译

Word Lens是一个实景翻译的应用,不过目前只提供英语和西班牙语的相互翻译。

3.2虚拟试衣

使用Zugara的虚拟试衣间非常简单。你需要一台带摄像头的电脑和一点空间,后退到离摄像头4-5英尺的地方挥一挥手,你选中的衣物会自动“穿”到你身上。如果你觉得没有“穿好”,你还可以通过微调衣物的位置使其看起来与你更贴合。

3.3拍照

在使用“Farrago AR”时,用户可以轻松通过移动设备的触摸屏对图片内出现的物体进行旋转、调整大小、修正等精细操作。而且,“Farrago AR”友好的用户界面使得用户可以轻松创造出2D或者3D的图片外物体。

4、把虚拟叠加到现实上

伦敦博物馆出了一个增强现实的Apps,称其为“时光机器”,把手机对准当前所在的位置,那么系统会帮你匹配当前位置几十年前的样子。

Layar Reality Browser 把摄像头对准周遭的景物,Layar 会把各种数据找出来——巴士站、滑板公园以及房地产价格等等。

Wikitude 被称为“世界浏览器”,它可以帮你探索周围的环境,查找地标的资料。只要你举起手机并打开摄像头,屏幕上就会出现一些标记——包括维基百科词条,带 GEO 标签的 Tweet,ATM 的位置。

Star Walk,增强现实的“天文互动指南”,利用GPS,指南针和陀螺仪教你辨别星座。 还有很多类似的游戏,比如星球大战AR版、AR Invaders(打飞碟)、AR Missile(导弹毁人)、ARBasketball(实景篮球)…..

最后,说一下几个基于AR做平台的

1、高通

高通放出了android平台和ios平台上上的augmented reality develop kit。基于这个SDK开发人员更容易的运用智能设施中的摄像头,开端出实在内容与虚构内容联结的软件利用。

2、Layar

Layar旨在打造的一个开放的增强现实的平台,任何第三方都可以通过Layar的开发接口来打造基于Layar的自己的增强现实应用。目前其官方网站上列出的应用有2029个,其应用类型包括教育,游戏,建筑,艺术,交通,游戏等等;你也可以把Layar看做专门为AR应用搭建的App Store,因为里面的应用有免费的,也有收费的。

最后,说点扯淡的事情

移动硬件设备的发展使得人们在移动设备上的交互有了突破性的进展,以NFC、AR、裸眼3D等为代表的一大批应用形态的涌现给这个领域带来了最够的新奇与动力,创造了全新的用户体验。而在移动产品的设计上,如何利用手机的硬件性能来创造突破性的产品将是未来决定移动产品设计师能力以及移动产品成败的关键了。

更多的限制,更简单的设计

首先,写这篇文章的一个重要性的冲动诱因在于我这个刚入行的移动互联网产品设计新手在查找资料的时候被太多的前辈恐吓了很久,我最终决定站出来反击一下。

我们看到无数的移动互联网前辈们说,移动互联网产品设计相对于Web设计而言实在太多限制了,太难搞了。你看,屏幕就那么点大小,当Web端主流分辨率停留在1024*768的时候手机上主流的分辨率确还是240*320(注意我是说主流,别说iphone4的640*960);我们可以在Web上使用鼠标+键盘来顺畅的浏览而在手机上只有键盘(触屏目前还是灰主流吧);当Web设计已经花哨到泛滥的时候手机上还是个梦想…..好吧,够了,够了,实在是够了

可是事实是这样吗?我不认为!我认为在手机上的设计要比在Web上的设计相对更简单。

更小的屏幕意味着你只需要考虑更少的内容设计;更单一的交互意味着你只需要思考更简单的信息设计和更单线程的流程设计;更限制性的硬件意味着你不再需要考虑哪些花里胡哨的“假动作”,你只需要关注是否能更快速的帮助用户解决需求就足够了…..

一般而言,在手机上的产品设计分为2类,从Web端移植功能到手机端、全部由手机端开始设计。这2类设计实际上都适用以下要说的原则。

一、拥抱约束,习惯在局限下设计

这是一句正确的废话,每个人都知道真正的自由并不在于完全自由,真正的自由在于完全自由与限制性之间的平衡。而这点在手机产品设计上表现的尤为突出。在手机端做设计首先必须要具备的思想就是阉割,当然,这点在Web端的设计上我曾经也认为是最重要的

《简单法则》里提到一个方法,SHE:缩小(Sherink)——>隐藏(Hide)——>附加(Embody),然后把这些被简单过的元素有组织的放在一起。

以从Web移植产品到手机端为例,①把Web已有的功能模块全部列出来,排序;②尽可能的砍,把可以减少的功能尽可能的减少;③隐藏,把不可减少,但是并非十分必要的功能隐藏起来;④考虑手机端用户需求与Web端用户需求的差异,然后附加一些手机端特有的需求与功能进去;⑤有序的组织上述元素。

这样的做法既做到了简单,同时也避免失去了固有的价值感。这样一顿阉割之后你会发现,其实在手机端这样的环境下去实现这些功能是很简单的了,因为有太多不必要的东西都不需要了。其实,就是用最核心的功能去满足相对局限的条件,在做手机产品设计之前,最需要做的工作就是最小化和剔除不必要的工作。想好不做什么,然后再去做!

妥善的组织能使复杂的系统显得比较简单。比如iPod的按钮设计就经历了一个这样的过程,在最开始的时候iPod的按钮设计成了滚轮式的,在第三代的时候iPod将转盘外围的4个按钮抽出来放在了转盘的上面,变成了一排小按钮,这显然让iPod的交互变得复杂而混乱了,于是在第四代的时候我们发现所有的按钮重回转轮之上,并且完全一体了。这是一个典型的从一开始简单到变得复杂又简单到不能再简单的案例。

(图片来源:腾讯科技

二、智者知止

过度设计这事这几年在Web产品上时有发生,仿佛产品设计师们觉得如果某个页面他们不“加工”一下就显得不专业,但是往往是越加工越不专业。 每一个设计都有它的核心诉求点(中心思想)和所有传达的信息,凡是引起用户感到迷惑和无关主题的信息都是需要避免的。哦对,这个东西有个专业术语,叫做“噪点”。

在手机端的设计上需要时刻跟“万一……,索性还是加上去吧”的思想做斗争。不为20%的用户需求买单,不因为20%的用户而丢失80%甚至更多的用户。最好的产品体验,我个人认为是用最简洁的方式,最优雅的满足用户的需求。

三、单线程浅层次的信息设计

因为更多的限制,所以手机上的信息设计无法像Web设计那样的无限制的以网状延伸,而必须是相对很浅的。不要在同一个页面里展开多个流程,使用清晰的布局,准确的提示等等。关于这点推荐围观@默契的这篇PPT

好吧,你可能意识到了,我并没有提到超过12000种终端的适配问题。是的,这是真正的问题,我跟你一样,都很无奈….但是,每个产品的用户群是一定的,也许,缩小范围后问题会相对简单一点。当然,也许你会认为未来类iphone的机器会成为主流,但是,别忘了,那是未来。而,事实就是这样!